La responsabilidad última de los medios sociales

La responsabilidad última de los medios sociales

Los medios sociales han transformado la manera en la que interactuamos, afectando a la cultura popular, a nuestras decisiones de compra, a nuestra elección de voto… Su influencia no hace más que aumentar, así como los casos en los que un mal uso de estos medios ha tenido consecuencias nefastas. Ante este poder imparable, expertos como David Kirkpatrick, Roger McNamee y Meighan Stone se preguntaron en el Singularity University Global Summit de San Francisco hasta qué punto las plataformas sociales son responsables y qué medidas tomar para limitar sus efectos perversos, cuando –como ha quedado demostrado– la buena voluntad es insuficiente.

DAVID KIRKPATRICK: ¿Cómo deberían comportarse los propietarios de los medios sociales? Este es un tema tremendamente amplio, y en algunos casos tremendamente negativo. Cuando hablamos de medios sociales, nos referimos a las principales compañías (Facebook, Twitter y Youtube), siendo Facebook la que tiene una dominancia muy superior. Les daré sólo algunos datos de este medio social, que conozco especialmente bien a raíz de la publicación de mi libro The Facebook Effect. Nunca antes ha existido una compañía con este tamaño y objetivos a nivel global: tiene 2,25 billones de usuarios, lo cual es casi un tercio del planeta, y sus márgenes netos después de impuestos son del 45%, superando sus beneficios en 2018 los 20.000 millones (20 billones) de dólares. Desde que saliera a bolsa en 2012, ha multiplicado por 666 veces su rentabilidad.

Y este ascenso en sólo seis años se ha realizado teniendo en cuenta que su principal prioridad es la penetración en todo el mundo, incluso en Corea del Norte. Es un fenómeno extraño, porque nunca antes una empresa había dejado una huella tan fuerte a nivel global y se había transformado en “la plaza” donde se reúnen personas de todos los países.

Considerando por tanto este poder, quisiera saber qué es lo que las compañías de social media, y Facebook en particular, deberían hacer de forma diferente.

MEIGHAN STONE: Esa es la cuestión que está en el centro del debate público. Estamos ante una plataforma donde el 30% de todo el mundo está alguna vez de forma mensual y un 20% de forma diaria. Atendiendo a estas cifras, uno debe preguntarse qué analogías se dan entre esta empresa y un estado-nación o una economía global, a qué tipo de regulaciones debe estar sujeta y qué tipo de comunicación debe mantener con sus usuarios y con el resto del mundo. ¿Hay que considerar las relaciones país por país y tema por tema? Todos estos son asuntos a valorar.

Creo que contamos con muchas herramientas, pero que aún estamos en los albores a la hora de explorar las opciones. Vivimos inmersos en un periodo de corrección de errores, y tanto los periodistas como los legisladores –e incluso los propios profesionales de la compañía– están buscando el mejor modo de avanzar. Estamos creando la sociedad entre todos, y juntos debemos hallar soluciones válidas.

D.K.: ¿Podría ser un poco más específica?

M.S.: Creo que los medios sociales, en este caso Facebook, deben clarificar e insistir en las condiciones de uso, y hacer que se cumplan. En primer lugar, las compañías tienen que obligarse a ellas mismas a cumplir sus reglas, y después obligar a los demás usuarios a hacerlo. Se trata de algo fácil que podrían decidir sin ningún problema.

También hay otras cuestiones más complejas de implementar y que dependen de actores externos, pero la sociedad debería presionar para que estas empresas se obliguen a cumplir las reglamentaciones y normas que tienen, pero que en la práctica real no obligan ni vigilan.

Además, cuando se descubre el incumplimiento de estos temas, debemos apoyar a los periodistas que sacan a la luz las deficiencias y malas prácticas de las compañías que no cumplen ni tienen unos estándares éticos y morales. Esto es sano y están sirviendo a un propósito llamando la atención sobre ello.

Más allá de esto, hay que hablar de la regulación. No estamos en la misma situación que hace 10 años. Ahora es necesaria y apropiada la regulación. En mi opinión, hay que pensar en estas plataformas como en el hecho de poseer un coche. Puedes usarlo para hacer una labor social llevando o trayendo personas al hospital o distribuyendo productos, es decir, puedes crear un servicio social que además te permita vivir de él como si fuera un negocio. Pero puedes también embestir a un grupo de personas y perpetrar un acto terrorista. Por eso los coches están regulados: es necesario tener un carné de conducir, respetar la reglamentación para evitar multas y pérdidas de puntos, e incluso del carné…

Creo que estamos entrando en el proceso de pensar más en regulaciones racionales, serias y bien planificadas, y que eso es algo saludable y necesario.

ROGER McNAMEE: Personalmente identifico cuatro áreas a observar: la democracia y la seguridad en las elecciones, la salud pública y el efecto sobre la forma de pensar de las personas, la privacidad y, por último, el impacto que el monopolio tiene sobre la innovación y el emprendimiento.

Estas cuatro categorías proceden todas de un mismo grupo, que no es otro que el modelo de negocio, la economía y las interacciones de la economía que dominan a los medios sociales.

Desde mi punto de vista, esencialmente hay que decantarse:  cambiamos el modelo de negocio o desarrollamos regulaciones muy potentes para estos cuatro temas.

Si yo estuviese en el Consejo de Administración de Facebook, rogaría al equipo de gestión –como ya hice ante el equipo de Google– que reconozca que estamos ante un mundo nuevo y que nos estamos situando en el lado equivocado de la historia, y desafortunadamente también equivocado de la regulación.

Por ejemplo, las prácticas de Google violan las reglas de la UE, igual que la última regulación impuesta para la protección de datos. También violan las reglas europeas sobre conducta frente a los monopolios, hasta el punto de poder demostrarse vínculos entre Facebook y las otras plataformas.

Yo les aconsejaría que cambiasen rápidamente e implementasen la GDPR (General Data Protection Regulation), porque los costes de cumplir esto son fijos y cuanto más grande sea, menor será el coste. Si Google lo hubiera hecho desde el principio, la compañía habría sido vista de una forma diferente, y posiblemente el resto de problemas no hubieran existido; pero el hecho de que ambos –Google y Facebook– desafíen a la UE está dando lugar a un proceso que será largo y doloroso, y que no van a ganar.

La clave está en recordar que la regulación no está diseñada para hacer las cosas, sino para cambiar conductas, para pasar de pequeñas a grandes aperturas. La no adopción del GDPR, que podría haber sido algo con poco impacto sobre la base del negocio de Facebook o Google, hará que las próximas oleadas de regulaciones sean cada vez más fuertes y causen mayores perjuicios. El objetivo no es conseguir un buen resultado de la normativa, sino cambiar el comportamiento de estas empresas.

D.K.: ¿La única forma para una actuación más responsable pasa por vigilar lo que se dice públicamente en las plataformas digitales?

R.M.: Aparte de la expresión en las redes, hay toda una serie de problemas de adicción de los jóvenes que acabarán aumentando, si no somos capaces de intervenir. Al final todo se basa en la noción de que nos hemos alejado de la tecnología como una ayuda para nuestras mentes. Nos hemos alejado de una actitud tipo Steve Jobs y de las personas que inicialmente concibieron el ordenador personal como una herramienta que nos otorga más capacidad. Actualmente, con la IA se pierden estos aspectos que nos distinguen como personas. Pronto Alexa acabará haciéndonos nuestra música preferida; ¡y esto me parece inaceptable!

Debemos concienciarnos de que la tecnología desarrollada por las personas es el próximo gran evento, y estamos ante una gran oportunidad para aplicar esa actitud a las cuatro categorías que he descrito.

D.K.: Estamos diciendo que siempre que la IA se esté desarrollando para atraer la atención (y favorecer el marketing, las ventas, etc.) –y dado que captar la atención es el centro del negocio de esas compañías– significa que vamos en la mala dirección?

R.M.: El modelo que está aportando ahora la IA tiene fallos intelectuales, porque parte de premisas inciertas, como que la tecnología es neutra en valores. La razón por la que el sistema de reconocimiento visual de Google tenía problemas con la gente de color es porque no es neutra, ni siquiera se aproxima a la neutralidad.

La tecnología siempre está imbuida por los valores de quien la crea. Eso es, en parte, por lo que hemos sido tan buenos. También las limitaciones que ofrece la compañía a la tecnología hacen de ella un arte; de hecho, no fue hasta 2003 que tuvimos suficiente capacidad de almacenamiento, procesamiento y ancho de banda como para hacer un montón de cosas, con lo cual estábamos protegidos de nosotros mismos; pero cuando esa capacidad cambió, parece que no ajustamos nuestro sistema de valores.

M.S.: Más que los valores de las personas que estaban en esos equipos, yo tendría en cuenta factores como que sólo el 11% de los investigadores en IA son mujeres. Eso, evidentemente, da forma a muchísimas decisiones. Cuando existe un problema, los equipos que tienen que solucionarlo han de ser diversos; y no me refiero sólo a diversidad americana.

R.M.: Estoy totalmente de acuerdo. La noción de que el 51% de la población son mujeres y que el 80% de las decisiones de compra son tomadas por ellas es muy relevante, y las industrias tecnológicas deben considerarlo. No se trata tanto de Facebook, Twitter o Google, sino sobre todo de lo que hacemos las personas y cómo organizamos nuestro tiempo.

D.K.: Hace poco leí una estadística que afirmaba que el 40% de todos capitalistas de riesgo de los EE.UU. habían ido a Stanford o a Harvard. Si uno quiere hablar de falta de diversidad, creo este dato es de lo más significativo. Aunque sean excelentes escuelas, que el 40% de los inversores de capital riesgo de EE.UU. provengan de ellas no tiene ningún sentido.

Efectos nocivos extremos

D.K.: Los casos que han generado problemas no buscados por el uso de tecnología resultan muy ilustrativos para entender por qué hay situaciones que tienen que parar. En agosto de 2017, se estaba produciendo un brutal genocidio en Myanmar, que llevó a una minoría étnica –los rohingyas– a sufrir persecuciones horrendas y a la huida del país de varios cientos de miles de personas. Las Naciones Unidas realizó un análisis independiente y concluyó que Facebook había jugado un rol determinante.

Esto nos lleva a preguntarnos, ¿cómo es posible que Facebook se vea envuelto en un genocidio? En esos países se estaban distribuyendo comunicados de odio a través de la plataforma, y uno puede preguntarse cómo juzgar a la gente de Facebook ante algo así, pues se estaban produciendo comunicaciones sin ningún nivel de responsabilidad.

En 2010-2011, la penetración de Internet en Myanmar era de menos del 1%, y todo estaba controlado por un régimen represivo. Más tarde empezaron a eliminarse ciertas regulaciones y actualmente el 90% de la población tiene acceso a comunicación a través del móvil, lo cual representa un cambio brutal en muy poco tiempo. Según un estudio reciente, el 75% de su población está activa en Facebook, y el 60% afirmó creer que cualquier cosa que se publicase en la plataforma era verdad.

R.M.: Me gustaría poner eso en contexto. Creo que hay que entender que fueron directamente de cero –pues no existía ninguna infraestructura de comunicación previa– a Facebook, sin nada intermedio y sin tener ninguna capacidad para desarrollar los filtros y la experiencia necesarias. De hecho, Médicos Sin Fronteras aseguró que Facebook había sido utilizado para hacer una limpieza étnica de libro.

M.S.: Esto no debe sorprendernos, porque cuando ocurrieron las masacres de Ruanda la radio tuvo ese mismo papel protagonista. En el caso de Myanmar, lo dramático es que había señales de humo anteriores sobre lo que estaba pasando. En 2012 se produjeron disturbios a raíz de contenidos aparecidos en Facebook; es decir, específicamente había una causa y un efecto. Un año después, activistas del país se reunieron con civiles y con ejecutivos de alto nivel de Facebook para explicarles que había un problema, y que tenían que ocuparse de él. En aquel momento no había ni una sola persona trabajando en lengua burmese o birmano en toda la plataforma; ni un solo experto en la compañía que hablase el idioma. Hasta principios de 2015, no contrataron a nadie.

Una de las cosas más llamativas fue el testimonio de Mark Zuckerberg ante el Senado americano. Cuando se le preguntó específicamente sobre este asunto, dio muchas respuestas cargadas de buenas intenciones, pero la semana pasada –NdR: esta charla tuvo lugar en agosto de 2018–, profesionales de Reuters y algunos académicos pudieron comprobar que, un año después de este terrible genocidio, Facebook seguía sin ningún empleado en Myanmar. Solamente había subcontratado con Accenture un grupo de 60 personas –que trabajan desde otro país– para controlar los contenidos y el lenguaje de odio.

Legislación para el bien común

D.K.: Desde 2006, he estado observando a Facebook detenidamente. El libro que publiqué en 2010 se percibió como una apología de la plataforma, pero reconozco que estoy absolutamente sorprendido del énfasis exagerado que Facebook otorga al crecimiento. La plataforma prioriza su crecimiento sobre cualquier otro aspecto en todas las geografías. Incluso sabiendo que la naturaleza de la información que se estaba comunicando en Myanmar era el miedo y la rabia, contribuyó a amplificarla, en lugar de tomar medidas.

También tenemos el caso de la injerencia rusa sobre la actividad de Facebook en las presidenciales de EE.UU., aunque en realidad es algo ocurre en muchos otros países, donde se está dando una explosión de demagogos y populistas, como en Hungría, Polonia, Eslovenia, Austria, Turquía… Son países que pensábamos que iban en una buena dirección, pero ¿es una coincidencia que todo esto suceda al mismo tiempo que la penetración de Facebook aumenta en esos países? No lo creo.

Intentemos profundizar en qué podemos y debemos hacer. Recientemente, se discutió la posibilidad de un congreso de ciudadanos. Ambos estáis a favor de que los gobiernos –en este caso el americano– hagan algo al respecto, pero no existe un historial positivo sobre la intervención del gobierno en temas de tecnología.

M.S.: Creo que es interesante y honesto educar a los legisladores al respecto. Muchos cambios de la historia parten de un momento de ruptura en el que se produce una lucha, a partir de la cual se crean leyes y herramientas que ayudan a la convivencia. Así por ejemplo se han ganado los derechos de los trabajadores.

La realidad es que no todos estamos haciendo un uso honesto y razonable de la tecnología, y opino que la regulación deberá ir avanzando, porque todavía no nos ha ayudado a obtener una serie de objetivos.

D.K.: ¿Existe realmente un movimiento global a favor de la regulación?

R.M.: Sí, no hay más que mirar a Europa y sus 330 millones de habitantes. Nunca ha habido una acción antitrust hacia la tecnología que no haya tenido su lógica y cosechado buenos resultados. Si uno observa IBM, Microsoft y los componentes de AT&T, vemos cómo las cosas han ido razonablemente bien.

Lo más importante es que todos reconozcamos que los fracasos o problemas que se están produciendo no se deben a que las personas que trabajan en los medios sociales sean malas, sino porque dimos ciertas cosas por hechas, por superadas y aceptadas, cuando no lo estaban.

No se puede extender un modelo fabricado en un garaje y que acaba dando servicio a 2,5 billones de personas, sin tener una clara estrategia; hay que prever los riesgos. No es aceptable generar desastres a esa escala mundial y macro.

Los consumidores necesitan protección, incluso si ellos no quieren ser protegidos. En el fondo, todo esto son oportunidades de negocio, pero creo que estas grandes compañías no están escuchando el mensaje que el mundo les está lanzando.

Durante tres meses tuve la oportunidad de trabajar para Google, insistiendo en la importancia de anticipar el riesgo, de detectar problemas para repararlos con antelación, y ahorrar muchos costes; pero me dijeron eso no representaba un inconveniente para ellos…

D.K.: Parece que Facebook está dedicando recursos a paliar estas situaciones, y de hecho afirmó que lo sucedido en Myanmar y los esfuerzos invertidos para que algo así no vuelva a suceder iban a ralentizar de forma significativa su rentabilidad. ¿Os parece esto cierto?

M.S.: Creo que por fin estamos viendo despertar al gigante dormido y que el sistema, como siempre ocurre en los casos de activismo, no incentiva a las compañías a tomar este tipo de decisiones basadas en un valor que afecta a los resultados económicos. Siempre hay un juego de presiones dentro de las compañías, en el cual están incluidos la prensa, los consumidores, los políticos… y siempre hay personas que ven caminos más adecuados, pero a las que la presión hace cambiar.

Además, tampoco se debe tener un argumento absolutista. No todo es bueno ni malo en las plataformas sociales, sino que estos asuntos se sitúan en un área relativamente gris. Lo que sí tenemos que hacer es responsabilizarnos y corregir errores. 


David Kirkpatrick, fundador y editor jefe de Techonomy y autor de The Facebook Effect; Meighan Stone, miembro del Council on Foreing Relations en el Singularity Global Summit de San Francisco, y Roger McNamee, inversor de riesgo y músico 

Texto publicado en Executive Excellence nº 155


Imprimir