Skip to main content

Empatía y ética en una IA sin emoción

03 de Mayo de 2023//
(Tiempo estimado: 3 - 6 minutos)
IA sin emocion

¿Podría la IA desarrollar la empatía y la ética? ¿Podrían las máquinas llegar a automatizar estrategias empresariales?... Son muchas las preguntas que asaltan en torno a esta tecnología que está revolucionando nuestro mundo, cuando apenas ha mostrado un ápice de su potencial ni tampoco todos los sectores están optimizando su uso.

En este sentido, Yuval Atsmon, senior partner de McKinsey en Londres, reflexiona sobre el uso de la IA en la estrategia. Si bien no es posible automatizar el desarrollo de estrategias, “se están perdiendo oportunidades de utilizar la IA en los componentes básicos de la estrategia que podría mejorar significativamente los resultados”, tal y como explica en una entrevista para la consultora. No nos sentimos cómodos con la capacidad de la tecnología para comprender el contexto en aplicaciones más sofisticadas

“Me gusta hacer la analogía con los asistentes virtuales. Muchos de nosotros usamos Alexa o Siri, pero muy pocas personas utilizan estas herramientas para algo más que dictar un mensaje de texto o apagar las luces. No nos sentimos cómodos con la capacidad de la tecnología para comprender el contexto en aplicaciones más sofisticadas. La IA en la estrategia es similar: es difícil que la IA sepa todo lo que sabe un ejecutivo, pero puede ayudarle con ciertas tareas”.

186 IA conexionLo mismo sucede en el ámbito del project management. Para Antonio Nieto-Rodríguez, “se habla mucho de IA y de nuevas tecnologías en la gestión de proyectos, pero la realidad es que estos se siguen gestionando con hojas de cálculo de Excel, Power Point…”. En su artículo escrito junto con Ricardo Vargas para HBR, ambos expertos profundizan en cómo la IA transformará pronto esta disciplina. “Una investigación de Gartner predice que, para 2030, el 80 % de las tareas de gestión de proyectos serán ejecutadas por IA, impulsadas por big data, aprendizaje automático y procesamiento de lenguaje natural (…). Cuando esta próxima generación de herramientas sea ampliamente adoptada, habrá cambios radicales”, afirman.

En una de sus recientes newsletters, Peter Diamandis va más allá y se pregunta si la IA podría incluso llegar a desarrollar la empatía y la ética. Para ello conversa con la doctora e investigadora científica Rana el Kaliouby, también directora general adjunta de Smart Eye. Según Rana, “estamos obsesionados con el coeficiente intelectual de la IA, pero la inteligencia emocional de una IA puede ser mucho más importante a largo plazo”. Al fin y al cabo, la inteligencia humana no solo es el coeficiente intelectual, sino también la inteligencia emocional y social.Estamos obsesionados con el coeficiente intelectual de la IA, pero la inteligencia emocional de una IA puede ser mucho más importante a largo plazo 

Durante la última década, Rana se ha centrado en la aportación de la inteligencia emocional a los dispositivos y experiencias digitales. Si bien la IA no tiene emociones, ¿podría desarrollar la empatía? Según la científica, “la clave está en que podemos simular la inteligencia emocional y la empatía”.

Como cuenta Diamandis, “el 93% de la comunicación humana es no verbal, y ese es el campo de investigación en el que se ha centrado Smart Eye. Cuando Rana estaba haciendo su doctorado en Cambridge, construyó la primera máquina artificial con inteligencia emocional utilizando el aprendizaje supervisado. Ella y su equipo recopilaron toneladas de datos de personas de todo el mundo que mostraban diversas expresiones faciales. A continuación, utilizaron esos datos para entrenar redes de aprendizaje profundo que comprendieran las expresiones faciales y las relacionaran con estados emocionales o cognitivos.

Por aquel entonces, el algoritmo solo podía entender tres expresiones: una sonrisa, un ceño fruncido y unas cejas levantadas. Pero hoy, estos algoritmos pueden entender más de 50 estados emocionales, cognitivos y de comportamiento. Pueden detectar desde el estado de alerta y la somnolencia hasta la confusión y la excitación”. Hoy los algoritmos pueden entender más de 50 estados emocionales, cognitivos y de comportamiento 

Obviamente, las aplicaciones prácticas de esta capacidad son enormes. La industria de la automoción ya se ha fijado en ello para equipar los coches con estos algoritmos, testando hasta qué punto la IA detecta el estado de distracción de un conductor y responde adecuadamente, aumentando así la seguridad en las carreteras. Este sector, al igual que las finanzas y la medicina, están apostando por la tecnología de forma intensiva.

Responsabilidad trasversal

Rana advierte de que el desarrollo ético de la IA exige tener en cuenta los posibles sesgos de los algoritmos. “Por ejemplo, si una IA se entrena con datos que reflejan prejuicios históricos de la sociedad, puede perpetuar esos prejuicios en su toma de decisiones”.

186 IAMujerSegún Amy Webb, profesora en NYU Stern School of Business y CEO de The Future Today Institute, “debemos pensar en la IA como un bien público en el que la competencia puede florecer y hemos de encontrar la manera de incentivar a las empresas para que colaboren en el mejor interés público”. Cuando Rana era consejera delegada de Affectiva, empresa surgida en el MIT, vinculó las primas de su equipo ejecutivo no solo a los ingresos, sino también a la aplicación de consideraciones éticas en los equipos de ingeniería y producto.

De acuerdo con el Informe 2023 Future Today Institute Tech Trends, “emplear a especialistas en ética para que trabajen directamente con los gestores y desarrolladores y garantizar la diversidad entre los desarrolladores –que representen diferentes razas, etnias y géneros– reducirá el sesgo inherente a los sistemas de IA”.

Tan esencial es velar por la ética en la recogida de datos, como manejarlos de forma responsable para evitar su explotación. En su charla con Peter Diamandis, Rana reconoce que “actualmente no existe una ética única y universal sobre cómo desplegar la IA: los distintos países y empresas tienen diferentes perspectivas sobre la ética, la privacidad y el uso de los datos. En muchos casos, depende de los líderes individuales garantizar un despliegue ético”. Tan esencial es velar por la ética en la recogida de datos, como manejarlos de forma responsable para evitar su explotación 

Amy Webb apunta a un compromiso más profundo y propone una colaboración global centrada en el ser humano. “Se trata de una Alianza Global para el Aumento de la Inteligencia (GAIA), una especie de Bretton Woods revisado donde todos tengan participación. Este organismo internacional incluiría a investigadores de IA, sociólogos, economistas, teóricos del juego, futuristas y politólogos de todos los países socios. Los miembros de GAIA reflejarían la diversidad socioeconómica, de género, racial, religiosa, política y sexual”.

Sea como fuere, si en algo coinciden todos los expertos es en la obligación común de hacer de la IA una tecnología que genere prosperidad compartida. ¡El reto está en marcha!


Artículo publicado en mayo de 2023.

Imágenes: © Freepik.