Skip to main content

El fantasma en la máquina

28 de Febrero de 2024//
(Tiempo estimado: 12 - 24 minutos)
Des Dearlove, cofundador de Thinkers50, moderando el debate mantenido en el emblemático Guildhall de Londres.

¿Podemos aprender a coexistir y cocrear con las máquinas? ¿Tenemos que replantearnos qué significa ser humano? ¿Somos capaces de reajustar la revolución digital para que sea más humanitaria y humana? ¿Qué valores deben vertebrar el desarrollo de la IA? Para indagar en las respuestas, Thinkers50 reunió a tres exploradores digitales: Martin Lindstrom, Sinan Aral y Kate O'Neill, en su última Awards Gala. 

Des Dearlove, cofundador de Thinkers50 y moderador de la conversación, comenzó aludiendo al AI Safety Summit, el primer encuentro global sobre seguridad en la IA celebrado en UK en noviembre de 2023 en Bletchley Park, uno de los lugares considerados como la cuna de los ordenadores y que, en su opinión, volvió a hacer historia con esta cumbre. “Fue allí donde Alan Turing y su equipo descifraron el código Enigma, utilizando a Colossus, el primer ordenador digital electrónico programable. Elegir este enclave resalta el poder de la tecnología para ser un instrumento del bien… o del mal. Enigma era una máquina de cifrado desarrollada por los nazis para transmitir comunicaciones secretas, y gracias a que se consiguieron descifrar esas transmisiones, la II Guerra Mundial se acortó en cuatro años, consiguiendo salvar millones de vidas. La tecnología es un arma de doble filo que además cambia deprisa, mientras que las personas no. Elon Musk afirmó en este encuentro que, dentro de no mucho tiempo, la IA reemplazará todos los trabajos, de manera que solo tendrán que trabajar aquellos que deseen hacerlo. Ahora bien, no explicó cómo vamos a ganar dinero o cómo vamos a mantenernos”.

DES DEARLOVE: Martin, en el último encuentro de Thinkers50 y MIT, y tratando de la “splinternet”, recuerdo haberte preguntado si eras optimista. Contestaste rotundamente: “¡No!”. ¿Ha cambiado algo tu opinión desde entonces?

189 t50 martinMARTIN LINDSTROM: No; aunque siendo realistas, mi opinión no es relevante. Lo que cuenta es lo que piensan los demás. Me gustaría que todos se preguntasen si se sienten abrumados por la tecnología de hoy, con la IA y ChatGPT, con robots y drones involucrados en la guerra de Ucrania… Muchos nos sentimos abrumados, y creo no encontrarme solo en estas circunstancias."Hoy muchos nos sentimos abrumados por la tecnología, cuando lo realmente significativo es lo que va a ocurrir dentro de cinco o 10 años". Martin Lindstrom

Para responder a tu pregunta, diría que lo que está ocurriendo ahora no tiene importancia. Lo realmente significativo es lo que va a ocurrir dentro de cinco o 10 años, ya que sentará un precedente y un legado para las próximas generaciones. Con lo que sucede ahora no podemos ver el futuro, pero, si pudiésemos realizar simulaciones del futuro, ¿qué pasaría?

Para hacernos una idea, les recomiendo ver el vídeo de una madre coreana, Jang Ji-sung, que interacciona con el avatar de su hija de siete años, Na-Yeon, fallecida de leucemia hace tres años. Volviendo a tu pregunta, creo que hay múltiples categorías: buenas, feas y malas. Y lo malo es cuando olvidamos el rol humano. ¿Quién es el dueño de Na-Yeon? ¿Son los artistas que han desarrollado su avatar o es una corporación a la que hay que suscribirse de la misma forma que se hace con fotos o música? Si no puedes pagar, ¿no puedes estar con tu hija virtualmente? 

Si abrimos esta caja de Pandora, y luego la cerramos, tenemos un problema. Eso es lo que me preocupa. 

D.D.: Es un vídeo impactante. Sinan, Martin nos habla de lo bueno, lo feo y lo malo. Tú te has centrado mucho en social media y en cómo este entorno puede amplificar los mensajes. ¿Qué resonancia tiene para ti el concepto de Martin?

SINAN ARAL: Respecto del vídeo, tendría que pensar qué es lo malo, porque el potencial positivo es evidente. Habiendo hablado con Martin sobre ello, para mí lo feo es nuestra habilidad de conceptualizar hacia dónde va la tecnología y cómo puede evolucionar.

La razón por la cual es algo “feo” es porque solo estamos atravesando la tercera revolución tecnológica discontinua en la historia de la humanidad. Todos deberíamos reflexionar sobre esto. Vivimos la revolución agraria, luego la industrial y ahora vivimos otra. Todo va a cambiar, y lo sabemos. Estamos sobrepasados por la tecnología y nuestra habilidad para conceptualizar lo que será ese cambio se aproxima a cero.“Estamos sobrepasados por la tecnología y nuestra habilidad para conceptualizar lo que será ese cambio se aproxima a cero”. Sinan Aral

Esto se debe a que este tipo de revoluciones tecnológicas son exponenciales, mientras que nosotros somos notoriamente lineales en nuestra forma de pensar como seres humanos. Sirva este ejemplo: ChatGPT 3.5 consiguió una puntuación del 10% en los exámenes para convertirse en abogado. ChatGPT 4.0 alcanzó el percentil 90… ¡Imaginemos GPT 20! 

Este es el tipo de realidad al que nos enfrentamos y nos resulta difícil entender las potenciales promesas y los potenciales peligros. Lo malo gira alrededor de nuestra capacidad de conceptualizar y después gestionar hacia una promesa, distanciándonos de los peligros de dicha tecnología. Uno de ellos, de los más grandes, es la desinformación sobre la que he escrito mucho. Pero también la síntesis síntesis biológica y genética combinadas con la IA, las lecturas radiológicas masivas, el pliegue de proteínas… AlphaGo incrementó el descubrimiento de proteínas 200x en un solo año y podría eliminar los residuos industriales, tener implicaciones en la cura del cáncer… Lo “feo” es cómo desciframos lo que va a ocurrir y lo gestionamos hacia la promesa y lejos del peligro.

D.D.: Kate, tu trabajo gira alrededor de la humanización de la tecnología. ¿Qué piensas de lo expuesto hasta ahora?

KATE O’NEIL: El concepto de bueno, feo y malo resuena siempre que hablamos de todos estos temas a la vez.

Me defino como una optimista estratégica y me gusta reflexionar sobre el hecho de que, cuando pensamos acerca del futuro, lo hacemos de forma binaria: distopía (representación ficticia de una sociedad futura de características negativas causantes de la alienación humana) frente a utopía (representación imaginativa de una sociedad futura de características favorecedoras del bien humano). Encuadrarlo así no nos sirve, ya que la utopía ni siquiera está sobre la mesa. Eso significa que hablamos del futuro desde matices de distopía.  “Cada descubrimiento científico o innovación tecnológica la observamos desde la perspectiva del peligro inherente, y esa no es una forma positiva para pensar sobre el futuro”. Kate O'Neill

Cada descubrimiento científico o innovación tecnológica la observamos desde la perspectiva del peligro inherente, y esa no es una forma positiva de pensar sobre el futuro. Además, teniendo como tenemos los peligros ya entre nosotros, podemos pensar en ellos. Siempre que podamos reconocer que lo malo y lo feo ya ocurre en muchos casos y con muchos modelos, como las tecnologías de vigilancia y su instalación desproporcionada y desigual, podremos tener una referencia para avanzar hacia lo bueno que con esas tecnologías se puede hacer y cómo la IA puede ayudar a resolver los retos de la humanidad a escala. 

El planteamiento no puede ser y/o, separando y haciendo particiones, para tratar con el aspecto que nos gusta. Debemos tener una concepción del “todo”.

D.D.: Martin, háblanos sobre tu experimento “Engineering our Dreams”.  

M.L.: Hace dos años, nos dimos cuenta de que si dependíamos de los gobiernos y los políticos no iríamos a ninguna parte, así que decidimos ocuparnos del tema nosotros mismos. Recaudamos 22 millones de dólares creando lo que es el experimento mundial más importante diseñado para simular el futuro a través de diferentes caminos.

¿Por qué lo hacemos? La razón principal es que teníamos dos alternativas: permanecer como espectadores o involucrarnos ayudando a dar una dirección adecuada, enfocada hacia el bien común, que es lo que intentamos hacer. Decía Amy Edmondson que tenemos que hacer algo que nos de miedo al menos una vez a la semana, y nosotros lo hacemos todos los días. La idea es sencillamente crear simulaciones del futuro.

En términos del bien, una de las cosas que hacemos, y que puede servir de ejemplo, es la asociación para medicina virtual con el Hospital Cedars-Sinai y con Brennan Spiegel, su líder de VRx.

VRx es una forma de introducir a las personas en una realidad virtual, curándolas. Puede parecer una locura, pero todos tenemos una farmacia dentro de nuestro cerebro. Basándonos en la idea del placebo, y su gran fuerza de sugestión, y manipulando nuestro cerebro de la forma adecuada, podemos motivar el aumento de la liberación de ciertas sustancias químicas, curando a las personas en el proceso. La tasa de curación es del 80%, habiendo sido probada entre un grupo de 3.500 pacientes. “Cuando hablamos de problemas mentales como la ansiedad, depresión, síndromes postraumáticos y otros, tecnologías como la VRx tienen gran impacto en la cura”. Martin Lindstrom

Un ejemplo es el de las personas con desórdenes respiratorios que les impiden respirar adecuadamente. El equipo de Brennan ha conseguido convertir virtualmente el proceso de respirar en un árbol vivo. Cuando se respira de forma adecuada el árbol crece generando nuevas hojas. Lo he probado personalmente y, en pocos minutos, uno respira de manera diferente y mejor. A través de seis o siete sesiones, las personas terminan cambiando su modo de respirar para el resto de su vida. Así de profunda es la reacción.

Este tipo de tecnologías que ahora se utilizan y que se basan en nuestros sentidos y en simbolismos nos ayudan a ver el mundo de una forma diferente. Cuando hablamos de problemas mentales como la ansiedad, depresión, síndromes postraumáticos y otros, estas tecnologías tienen gran impacto. Hay todo un equipo trabajando en esta dirección, incluyendo el proceso de hacer ingeniería de sueños. Este es uno de los aspectos de lo bueno, del que estoy muy orgulloso.

Estamos hablando de aplicaciones en el sector de salud donde diría que, por defecto, las cosas acaban en contextos positivos. Ahora bien, ¿y si se utilizasen estas herramientas de manipulación para la venta de publicidad? Es aquí donde las cosas comienzan a complicarse. Por eso, usamos todos nuestros procesos de simulación para crear unos límites éticos, basándonos en lo que puede ser el resultado futuro de la simulación. 

Evidentemente, esto no puede solventarlo todo; quizás solo solucione un 1%, pero si hay algo que he aprendido es que si solo te adelantas cinco minutos a la hora de predecir el futuro, puedes estar siempre un paso por delante sobre todos los aspectos éticos."Si solo te adelantas cinco minutos a la hora de predecir el futuro, puedes estar siempre un paso por delante sobre todos los aspectos éticos". Martin Lindstrom

D.D.: El MIT tiene la merecida reputación de estar en primera línea en todos los campos de innovación. ¿Qué estás haciendo en este momento, Sinan?

189 t50 sinanS.A.: En la “Initiative on the Digital Economy”, nos enfocamos en las implicaciones sociales y económicas de las tecnologías. No estamos necesariamente involucrados en el desarrollo de los modelos de lenguaje o de la tecnología, sino en el momento en el que estas innovaciones llegan a la sociedad en términos de economía, regulaciones, gestión o implicaciones sociales. Nos centramos en cómo afectan a nuestra sociedad.

Tenemos una gran cartera de proyectos apasionantes que van desde la asimetría de las tecnologías y cómo cualquiera con un portátil puede actuar como una organización si se le aporta IA y otros tipos de tecnologías combinadas con ella, a cómo pensar sobre la centralización y descentralización simultánea y las implicaciones que tienen estas tecnologías de concentración o dispersión para las organizaciones, a la hora de operar sin ningún tipo de rol central.

Un caso es el del fondo Andreessem Horowitz, que ha invertido más de siete millones de dólares en tecnología Web3 y blockchain para desarrollar lo que denominan “consenso distribuido”, que permitirá a grupos de personas unirse en entornos donde la confianza se creará a través de algoritmos. Imaginemos un entorno Uber sin Uber o un Airbnb sin necesidad de la compañía Airbnb. Hablamos de contextos donde conductores y pasajeros, o personas que buscan alojamiento y propietarios, puedan realizar contratos entre ellos sin tenerse que ver y sin la necesidad de usar una organización particular. 

Actualmente, dada la confluencia de todas estas tecnologías, y viviendo en un mundo donde las compañías tienden a transformarse en organizaciones gigantescas, estamos pensando en qué implicaciones va a tener esto; hay mucho que reflexionar acerca de los efectos de red.

Quizás sobre lo que más pienso es en la idea de la polarización de la información. Algoritmos que nos proveen de información diferente –dependiendo de lo que hemos visto y lo que nos ha gustado antes en Facebook, TikTok u otras plataformas–, combinada con audio o vídeo sintético que tienen apariencia real. 

En esencia, estamos ante una realidad sintética que se puede realizar a un coste muy bajo y a escala de forma rápida. Además, se disemina velozmente. Si consideramos que ambas circunstancias ocurren al mismo tiempo, las implicaciones que se derivan son tremendamente profundas y, en mi opinión, capaces de llevarnos a algo que puede ser el fin de la realidad.“Hay mucho que reflexionar acerca de la polarización de la información. Estamos ante una realidad sintética que se puede realizar a un coste muy bajo y a escala de forma rápida. Además, se disemina velozmente”. Sinan Aral

Con esto quiero decir que hoy todos vivimos un mundo propio y personal de información. Nuestro mundo solo se superpone con el de otros en un cierto grado. Personas que se nos parecen tienen paquetes de información similares, que no idénticos, al nuestro. Personas muy diferentes a nosotros tienen una información que no coincide con la nuestra para nada. Si sobre esto rociamos un flujo constante de audio y vídeo sintético, que parece real pero no lo es, tenemos un terrible problema potencial en nuestras manos.

Es algo que podemos ver diariamente en el conflicto palestino-israelí. Cada misil que impacta es un punto de partida para la distorsión. En las noticias de la televisión, dependiendo del bando y de la perspectiva, se distorsiona lo sucedido hacia un lado u otro. Recibimos enfoques muy distintos de una única verdad que está ocurriendo en el terreno.“No paro de preguntarme cómo podemos solucionar crisis globales cuando, al mismo tiempo, estamos desintegrando el conocimiento común y compartido”. Sinan Aral

Cuando se realiza una investigación sobre colaboración o cooperación humana, han de existir unas necesidades fundacionales para que pueda funcionar. Una de ellas es el conocimiento común. Las personas que negocian, colaboran o cooperan han de compartir unas ciertas perspectivas y conocimientos comunes sobre el mundo. Pueden estar en desacuerdo y tener opiniones diferentes, pero han de compartir conocimientos comunes. No paro de preguntarme cómo podemos solucionar crisis globales cuando, al mismo tiempo, estamos desintegrando el conocimiento común y compartido.

Humanismo tecnológico 

D.D.: Kate, ¿en qué estás inmersa ahora? ¿Qué es lo que más ocupa tus pensamientos?

189 t50 kateK.O’N.: Reflexiono sobre cómo la IA y la tecnología nos abruman a todos. Quienes tenemos la capacidad de interactuar con líderes de corporaciones y organizaciones en países de todo el mundo, vemos cómo estos también se sienten sobrepasados ante las perspectivas de futuro de la IA y otras tecnologías.“Contar con un propósito motiva positivamente, fomentando la conexión entre personas. Y ayuda en los casos donde estas no tienen un conocimiento común”. Kate O'Neill

Lo que nos ayuda a mantener los pies en el suelo es eliminar la dicotomía entre distopía y utopía. Pensar en lo que nos ancla como humanidad y en lo que experimentamos como personas. 

Uno de los argumentos más comunes es darnos sentido. Todos buscamos sentido, propósito y capacidad de contribuir. Saber que lo que hacemos tiene importancia y contar con un propósito motiva positivamente, fomentando la conexión entre personas. Y ayuda en los casos donde estas no tienen un conocimiento común. Este es un componente crítico del trabajo de humanismo tecnológico que realizo, ayudando a los líderes a conectar con lo que hacen. “Lo que nos ayuda a mantener los pies en el suelo es eliminar la dicotomía entre distopía y utopía. Pensar en lo que nos ancla como humanidad y en lo que experimentamos como personas”. Kate O'Neill

Si estos se centran en un modelo de negocio válido y trabajan a favor de la creación de una creciente experiencia humana que tenga sentido, avanzarán. Bajo estas premisas, si utilizan la IA y las nuevas tecnologías para acelerar la alineación positiva, en vez de usarlas para alcanzar exclusivamente los objetivos de la empresa, estarán ante la oportunidad de amplificar y acelerar las magníficas ocasiones que se nos presentan como personas para dar significado y sentido a nuestra existencia. 

Estoy en cierto desacuerdo con Martin respecto de la idea de que los gobiernos no pueden seguir el ritmo y que han de ser las empresas quienes lideren el cambio. Opino que no todo es blanco y negro. Obviamente, hemos de tener en cuenta cómo las empresas pueden empujar los límites en la investigaciones y en el proceso de entender el marco ético. No obstante, también necesitamos a los gobiernos y las organizaciones intergubernamentales, y me viene a la mente Rahaf Harfoush, que ha sido nombrada participante del grupo de trabajo de la IA en las Naciones Unidas. La colaboración y la tensión entre empresas y gobiernos puede ser positiva.“La colaboración y la tensión entre empresas y gobiernos puede ser positiva para liderar el cambio”. Kate O'Neill

La acción colectiva y la democracia sirven para entender cuáles son las necesidades de las personas, de forma amplia y a escala, y cómo podemos trabajar conjuntamente para amplificar un mensaje, un sentido a través de un movimiento que sea escuchado, tanto por los líderes empresariales como por los gobiernos. “Contar con un propósito motiva positivamente, fomentando la conexión entre personas. Y ayuda en los casos donde estas no tienen un conocimiento común”. Kate O'Neill

D.D.: ¿Necesitamos repensar la democracia y el capitalismo?

 M.L.: Debemos considerar que, y cada vez más, las empresas se mueven por sus resultados trimestrales. Un CEO está al timón unos tres años y tiene un bonus cada tres meses. Los mayores accionistas son los fondos de pensiones y estos no tienen alma, por eso creo que las compañías no pueden autorregularse.

El mundo, desafortunadamente, va adonde va el dinero. Si la empresa privada no está parcialmente involucrada en este juego de demostrar éxito y empuje cuando apoya a los consumidores, a los votantes y a los políticos, perderemos la batalla. No es y/o, sino ambos.

Nosotros trabajamos con grandes empresas mundiales a las cuales decimos que a cambio de que les hagamos la predicción de ese futuro hacia donde ir, han de darnos el mandato para cambiar los estándares éticos dentro de sus organizaciones. Es un acuerdo de dos direcciones, dentro del cual luego introducimos a los gobiernos. ¿Podremos tener éxito? No tengo ni idea, pero hasta ahora hemos tenido suerte. Al final del día, creo que este es un modelo que puede funcionar. No creo que los gobiernos puedan hacerlo conseguirlo por sí solos, como tampoco las empresas; es la mezcla de ambos lo que puede triunfar.

 Regulación y valores

D.D. (moderando pregunta del público): Perdimos a mi marido en el COVID. Mi hijo ha tardado dos años en avanzar hacia el futuro. Si hubiese tenido un avatar de su padre, como el del vídeo, con el que interactuar, creo que no habría aceptado su muerte y entraría en un bucle por querer seguir viéndolo. ¿Habrá una regulación sobre la positividad emocional de la IA?

189 martin libroM.L.: Siento su pérdida. Yo también me engancharía a un avatar en un caso similar. No existen regulaciones para estos casos, aunque Corea del Sur ya ha dado algún paso. La velocidad con la que aparecen estas aplicaciones hace que las regulaciones no puedan seguirlas. Esa es la razón por la cual es importante predecir, antes de que sean implementados ciertos eventos, y están ocurriendo cosas que me asustan. 

Los cerebros de los niños alcanzan el 90% de su desarrollo a los siete años. Tenemos evidencias de que, a esa edad, la interacción con los móviles cambia los neurotransmisores cerebrales. Ante una sobredosis de estos neurotransmisores, el cerebro se modifica para siempre. Existen casos de enfermedades permanentes y problemas mentales motivados por el uso de móviles a esas edades y que no pueden ser reparadas. 

Esa es otra dimensión en la que estamos trabajando en nuestro proyecto: la inclusión de advertencias de salud mental, como las que hay en el cine o en los paquetes de tabaco. Todos los reguladores nos dicen que quieren hacerlo, pero ninguno sabe realmente por dónde empezar. Este es uno de los múltiples espacios que tendrán un impacto profundo sobre la próxima generación.

K.O’N.: No está regulado, porque es un caso límite y no esperamos que se controlen este tipo de situaciones que todavía están emergiendo. Ocurrió con el tabaco y hoy siguen apareciendo nuevas consecuencias negativas del tabaquismo que hace poco se desconocían. Eso no significa que no podamos decir, aun no teniendo datos irrefutables, que deben ponerse en marcha formas de advertencia o regulación. 

189 sinan libroS.A.: Para orientar este tema en la dirección adecuada, necesitamos remar al unísono. Ni el gobierno ni las empresas privadas son la solución. Hemos de entender que es un problema social. Esto por un lado da miedo, pero también nos confiere poder de actuación.  

La IA es un espejo, no una ventana. Dicho de otra manera, la IA refleja sobre nosotros todos nuestros defectos. Hablamos de inclusión y de prejuicios que se ratifican porque la IA se entrena con datos basados en juicios y decisiones humanas. 

“La IA es un espejo, no una ventana. Refleja sobre nosotros todos nuestros defectos”. Sinan AralDe la misma forma, nos preocupamos de los errores de la IA y vemos cómo Cruise, la empresa de coches autónomos, se enfrenta a investigaciones después de que sus vehículos hayan atropellado a una persona en San Francisco. Si reflexionamos sobre esto, sabemos que las personas tampoco somos buenos conductores. Hablando de desinformación y distorsión, somos tan culpables como la IA respecto de la forma de expresar nuestras opiniones.

Nosotros somos los responsables de diseñar regulaciones donde todos estemos alineados para navegar entre estas tecnologías. No es algo que nos esté pasando, sino que somos nosotros quienes dirigimos los códigos, el desarrollo, las pautas y los estándares éticos, así como la práctica. “Somos los responsables de diseñar regulaciones donde todos estemos alineados. No es algo que nos esté pasando, sino que somos nosotros quienes dirigimos los códigos, el desarrollo, las pautas y los estándares éticos, así como la práctica”. Sinan Aral

Volviendo al vídeo, lo que percibo es que, como padre de un niño de 10 años, me tengo que asegurar de que no destruimos el planeta. Y dado que ellos van a ser los responsables de dirigirlo y dirigir esa tecnología, la palanca más importante que tenemos no es que yo como miembro del MIT publique más trabajos, sino que infunda en mi hijo valores que se vean reflejados en cómo él se aproxima a las tecnologías en la próxima generación. Esa es la mayor palanca sobre la que se puede actuar. Educar a mi hijo para que sea una persona que tenga los valores adecuados para actuar sobre la forma en que la tecnología nos afectará en el futuro.

D.D.: ¿Y cuáles son esos valores? 

S.A.: La empatía es uno de los más importantes. Reflexionar sobre el impacto de cada uno en el mundo, en lugar de centrarnos en nosotros mismos. Hay que pensar en lo que otras personas están atravesando y cómo las acciones propias les afectan. En una conversación con un mentor mío que también tiene niños me decía que cuando su hijo vuelve a casa, en vez de preguntarle cómo había ido su día le preguntaba: “¿a quién has ayudado hoy?”. Eso le induce a pensar en los demás, y no en sí mismo.“Inculcar a nuestros hijos los valores adecuados para aproximarse a la forma en que la tecnología nos afectará en el futuro es la mayor palanca sobre la que podemos actuar”. Sinan Aral

Podría hablar de justicia, igualdad, Inclusión, diversidad, moralidad –la definamos de una forma religiosa o espiritual–, pero creo que inculcar en los niños la idea de pensar en otros, en vez de en sí mismos, es el punto de partida para adquirir el resto de esos valores. 

M.L.: Me gustaría añadir también que considerásemos algo como un cambio de conducta, y no un valor.

Algunos sabrán que no tengo teléfono desde hace siete años. De ello he aprendido tres cosas: primero, tener móvil evita que veas lo que sucede a tu alrededor. Segundo, si estás esperando a alguien en un bar, hasta que aparezca enredas con tu teléfono para no parecer un perdedor. Por último, con un teléfono nunca te aburres; pero resulta que el aburrimiento es la base de la creatividad. Es esa pausa en nuestras vidas lo que nos permite combinar cosas sencillas de una forma nueva, creando. Tenemos que transmitir a las nuevas generaciones que han de sentirse cómodos en el aburrimiento. Hoy nadie está cómodo con el aburrimiento. Esto es muy importante y no todo gira alrededor de los valores; hay cosas que giran alrededor de las conductas. 

El problema para solucionar esta conducta es que nosotros somos los modelos de los jóvenes y en casa siempre tenemos el móvil en la mano. Este intercambio de valores, aunque en un formato diferente, también es relevante.

D.D.: Sinan, si cayese en tus manos un código “mágico”, ¿qué cambiarías? 

189 t50 kate libroS.A.: Antes de responder, y ya que hemos hablado de las cosas que dan miedo, quiero hablar de las que dan esperanza. Estamos en el borde del precipicio de la creación masiva de bienestar humano. No podemos olvidar el potencial positivo de utilizar la IA y otras tecnologías para hacer el bien. Imaginemos la erradicación del cáncer, la creación de tecnologías que permiten la colaboración o cooperación entre personas, en vez de evitarlas. 

Pensemos en chicos que en lugar de recibir dopamina piensan en Duolingo, que puede ser escalable de forma masiva casi gratis y ser una magnífica forma de aprender idiomas. Puedes aprender cualquier idioma, utilizando machine learning, prácticamente gratis. El potencial para la creación de bienestar es exponencial, y en magnitudes espectaculares, en términos de salud, prosperidad, pobreza… por eso no quiero terminar sin resaltar esto. “Tenemos la oportunidad de humanizar la tecnología y el mundo de los negocios, asegurándonos de que la incorporación de todos esos valores mejorará nuestra experiencia”. Kate O'Neill

Lo que diría respecto a tu pregunta sería humanizar la tecnología. Si solo pudiese cambiar una cosa respecto de cómo nos aproximamos a la tecnología, en vez de pensar en ella como algo externo a nosotros me gustaría que pensásemos en ella como una extensión de nosotros. Esta perspectiva la transforma inmediatamente en algo más fácil sobre lo que actuar, al tiempo que nos familiarizamos con ella. 

M.L.:  Creo que tenemos que hacer que los programadores salgan de sus laboratorios. Son gente encantadora, pero viven aislados. Cuanto más expuestos estén a la empatía, mejor podrán incorporarla en las ramificaciones del trabajo.

También quisiera subrayar la importancia de no rendirse. Somos conscientes de lo sobrecogedor que todo esto resulta, pero el cambio debe empezar con cada uno de nosotros. Gandhi dijo que hemos de ser el cambio para alcanzar el mundo en el que queremos estar. Él empezó pueblo a pueblo y generó un cambio increíble.“Somos conscientes de lo sobrecogedor que todo esto resulta, pero el cambio debe empezar con cada uno de nosotros”. Martin Lindstrom

K.O’N.:Para mí, lo importante es que las tecnologías se escalan cuando las empresas las encuentran interesantes. Nuestra oportunidad es la de humanizar la tecnología y el mundo de los negocios, asegurándonos que todas estas conversaciones sobre los valores humanos –la empatía, diversidad, inclusión y todo este maravilloso discurso– se incorporan a ese trabajo. Ello, inherentemente, cambiará la manera en la que hacemos negocios y si forma parte del proceso de creación de esta tecnología mejorará la experiencia humana.


Martin Lindstrom, fundador y presidente de Lindstrom Company; Sinan Aral, director del MIT Initiative on the Digital Economy, y Kate O'Neill, fundadora, CEO and Chief Tech Humanist de KO Insights, entrevistados por Des Dearlove en Thinkers50 Awards Gala.

Imagen de apertura: Des Dearlove, cofundador de Thinkers50, moderando el debate mantenido en el emblemático Guildhall de Londres.

Entrevista publicada en Executive Excellence n189, marzo 2024.