La economía del engaño digital, por Rita McGrath

Cómo las granjas de bots distorsionan las señales sociales_
En el entorno digital actual, el sentimiento se ha convertido en una moneda de cambio. La forma en que los clientes, inversores y el público en general perciben tu contenido afecta directamente a métricas de rendimiento, desde los ingresos hasta la reputación y el precio de las acciones. Pero, ¿qué sucede cuando ese sentimiento se fabrica a gran escala?
En 1993, The New Yorker publicó una viñeta de Peter Steiner que se hizo viral. Representaba una conversación entre dos perros, uno de ellos con una pata sobre el teclado de un ordenador. ¿El pie de foto? "En Internet, nadie sabe que eres un perro". Se convirtió rápidamente en una de las piezas más reimpresas de la revista y fue tan popular que, en 2023, un comprador que supuestamente había intentado adquirirla durante 30 años terminó pagando el precio más alto registrado por una tira cómica de una sola viñeta.
El anonimato que celebraba nuestro amigable canino es el mundo en el que vivimos ahora. Nos hemos adentrado en un territorio nuevo y peligroso donde la influencia artificial se está convirtiendo en un arma estratégica. Las granjas de bots –redes coordinadas de cuentas automatizadas que simulan el comportamiento humano– han evolucionado hasta convertirse en operaciones sofisticadas capaces de distorsionar la percepción del mercado, manipular el comportamiento del consumidor y proporcionar audiencias artificiales para el material publicado a la carta.Nos hemos adentrado en un territorio nuevo y peligroso donde la influencia artificial se está convirtiendo en un arma estratégica
¿Esta publicación le gustó a alguien real o a un bot?
Una investigación reciente publicada por Fast Company revelaba una realidad preocupante: la actividad de bots a gran escala se ha industrializado, con algunas granjas empleando a miles de personas que operan decenas de miles de cuentas falsas. Estas operaciones no solo publican contenido, sino que crean personajes completamente ficticios con historias creíbles, comportamientos consistentes y conexiones sociales inventadas.La actividad de bots a gran escala se ha industrializado, con granjas empleando a miles de personas que operan decenas de miles de cuentas falsas
El fenómeno de TikTok ejemplifica claramente este problema. Al ser una de las plataformas de más rápido crecimiento, con más de 1.500 millones de usuarios en todo el mundo, el descubrimiento de contenido basado en algoritmos de TikTok la hace particularmente vulnerable a la manipulación. Las operaciones de bots pueden amplificar rápidamente el contenido, creando falsas sensaciones virales que influyen en las percepciones de los usuarios reales. La opacidad de la plataforma sobre sus sistemas de moderación y amplificación de contenido agrava aún más el problema: estamos tomando decisiones comerciales basadas en tendencias que podrían ser totalmente artificiales.Las operaciones de bots pueden amplificar rápidamente el contenido, creando falsas sensaciones virales que influyen en las percepciones de los usuarios reales
Como también señala el artículo de Fast Company, al difundir publicaciones idénticas en TikTok e Instagram, se comprobó que las de TikTok tenían muchas más probabilidades de recibir "Me gusta"/ “Like”, reenvíos y comentarios, lo que sugiere que el gobierno chino u otros actores, como el gobierno ruso, pueden utilizar esa plataforma con mayor facilidad que la estadounidense. Esto refuerza el argumento de que, en cierto modo, la propiedad de TikTok representa un riesgo de seguridad para EE.UU.Estamos tomando decisiones comerciales basadas en tendencias que podrían ser totalmente artificiales
Esta evolución crea varios puntos de inflexión estratégicos que tienen consecuencias en la forma en que interactuamos con las redes sociales.
- Los mercados de información son cada vez más manipulables. Cuando una parte significativa del sentimiento online puede ser manipulada, los indicadores tradicionales de la salud de la marca pierden fiabilidad. Su empresa podría estar atravesando una verdadera crisis o simplemente ser el blanco de una negatividad artificial coordinada. Peor aún, los bots se están volviendo tan buenos imitando a los humanos que es muy difícil distinguirlos.
- La inteligencia competitiva se está corrompiendo. ¿Cómo se puede confiar en las señales del mercado cuando podrían representar campañas orquestadas, en lugar de la opinión genuina del consumidor? Los mismos datos que fundamentan las decisiones estratégicas pueden estar sistemáticamente distorsionados.
- La economía del engaño es brutalmente injusta. Cuesta muy poco utilizar un servicio de alquiler de ataques de bots, pero mucho defenderse de ellos. Esta estructura asimétrica de costes significa que incluso los pequeños actores pueden distorsionar los mercados.Las plataformas de redes sociales tienen incentivos contradictorios. Se benefician de las métricas de interacción, independientemente de su autenticidad
- Las plataformas de redes sociales tienen incentivos contradictorios. Se benefician de las métricas de interacción, independientemente de su autenticidad. Se las incentivada para permitir un cierto nivel de actividad artificial siempre que impulse la interacción del usuario y los ingresos por publicidad. Esto crea un entorno en el que no se puede confiar en las plataformas como fuentes objetivas de información de mercado.
- Nuestras propias identidades están fuera de nuestro control. Uno de los usos más descarados de la manipulación en redes sociales con los que me he topado últimamente es el fascinante (aunque un poco aterrador) caso de Martin Wolf del Financial Times, quien describe cómo una oscura operación creó avatares fraudulentos que parecían ser él mismo, utilizados para promover desde asesoramiento de inversiones hasta consejos bursátiles. Además, a pesar de los informes a Meta, propietaria de las plataformas que alojan los anuncios, los falsos “Martin” siguen proliferando.
Puntos de inflexión en la regulación y la identidad
Nos estamos acercando rápidamente a un punto de inflexión regulatorio en lo que respecta al sentimiento artificial. La Ley de Servicios Digitales de la UE y otras leyes similares emergentes a nivel mundial son intentos incipientes de abordar estos problemas, pero son solo el comienzo.
Un sistema en el que cada participante online online tenga una identidad digital única y verificada transformaría radicalmente la economía de la manipulaciónQuizá la solución más controvertida, aunque potencialmente transformadora, sea el concepto de verificación universal de identidad digital. El anonimato que una vez definió a Internet se ha convertido en una desventaja estratégica en una era de engaño industrializado. Un sistema en el que cada participante online tenga una identidad digital única y verificada transformaría radicalmente la economía de la manipulación.No se trata de eliminar la privacidad o el uso de seudónimos –ambos siguen siendo fundamentales para fines legítimos–, sino de certificar criptográficamente que detrás de cada cuenta existe exactamente un ser humano real
No se trata de eliminar la privacidad o el uso de seudónimos –ambos siguen siendo fundamentales para fines legítimos–. Se trata más bien de certificar criptográficamente que detrás de cada cuenta existe exactamente un ser humano real. Las plataformas podrían implementar sistemas de verificación escalonados donde los usuarios mantengan el anonimato y, al mismo tiempo, demuestren su identidad.
Las implicaciones empresariales serían profundas. La inversión en marketing se dirigiría a audiencias verificadas. El feedback de los clientes tendría el peso de una experiencia auténtica. La inteligencia estratégica se basaría en señales de mercado genuinas, no fabricadas.
¿Hacia dónde van las oportunidades?
Si bien el auge de las granjas de bots industrializadas presenta peligros evidentes, también crea oportunidades para las organizaciones que estén preparadas.
Hemos llegado a un punto en el que no se puede confiar en las plataformas de redes sociales como fuentes fiables de noticias o inteligencia de mercado. Cuando las tendencias en TikTok, el sentimiento en Twitter o la interacción en Instagram pueden comprarse en lugar de ganarse, estas señales pierden su valor estratégico. Podría ser ventajoso para las empresas que desarrollen sus propios ecosistemas de información fiables: redes de clientes, socios y observadores verificados cuyas aportaciones puedan autenticarse.Cuando las tendencias en TikTok, el sentimiento en Twitter o la interacción en Instagram pueden comprarse en lugar de ganarse, estas señales pierden su valor estratégico.
Esta crisis de integridad de la información genera varias oportunidades. La autenticación como servicio podría volverse cada vez más valiosa. Las empresas capaces de verificar clientes reales, sentimientos reales y señales reales del mercado establecerán relaciones premium con socios y consumidores. La confianza se convierte en un factor competitivo. Las organizaciones que construyan una reputación de autenticidad y transparencia forjarán relaciones más sólidas con clientes cada vez más recelosos de la manipulación digital. Las comunidades de clientes independientes de las plataformas proporcionarán inteligencia más confiable que las redes sociales públicas. Las empresas que establezcan relaciones directas con clientes autenticados tendrán acceso a opiniones genuinas que los competidores, que dependen de plataformas públicas, no podrán igualar.La autenticación como servicio podría volverse cada vez más valiosa. Las empresas capaces de verificar clientes reales, sentimientos reales y señales reales del mercado establecerán relaciones premium con socios y consumidores
El horizonte digital de la confianza
De cara al futuro, anticipo una reestructuración fundamental en cómo las organizaciones recopilan y validan la inteligencia de mercado. Las redes sociales en las que hemos confiado durante la última década –Twitter, Facebook, TikTok y otras– se considerarán cada vez más como fuentes de información estratégica vulnerables.
En su lugar, veremos el auge de ecosistemas de información verificada: comunidades donde se autentifica la identidad de los participantes, incluso si actúan bajo seudónimo. Esto podría surgir a partir de plataformas existentes que implementen una verificación más sólida o a través de entornos completamente nuevos, construidos con la autenticación como principio central.Las preocupaciones legítimas sobre la privacidad deben equilibrarse con la necesidad de información confiable
La transición no será simple ni rápida. Las preocupaciones legítimas sobre la privacidad deben equilibrarse con la necesidad de información confiable. Las diferencias culturales en las actitudes hacia la verificación de identidad crearán una adopción desigual; pero el imperativo estratégico es claro: las organizaciones necesitan información fiable para tomar decisiones acertadas.
Un ejemplo interesante, paralelo al desafío de la identificación digital única para las plataformas sociales, es el lanzamiento en India de un número de identificación personal único para cada persona del país. El denominado “número Aadhaar” utiliza datos biométricos para verificar la existencia de un ser humano real. Se le atribuye haber facilitado el acceso a servicios gubernamentales y de otro tipo a una gran parte de la población india y, diez años después de su adopción generalizada, se considera un éxito. Quizás en el futuro próximo, las empresas estarán obligadas a validar cuentas con un número de identificación personal tan distintivo, lo que dificultaría que los estafadores de granjas de bots pudiesen crear cientos de identidades falsas en países donde los teléfonos y la mano de obra son baratos y abundantes.
Y eso podría restaurar parte de la confianza en los sentimientos que vemos reflejados en las redes sociales.
Rita McGrath, profesora de Columbia Business School, fundadora y CEO de Valize, experta en estrategia e innovación, autora bestsellers.
Este artículo, aparecido originalmente en diversos medios digitales (Substack, ritamcgrath.com, LinkedIn...) se publica en español en Executive Excellence con la autorización expresa de su autora.
Imágenes recurso en composición de apertura © Freepik / Publicado en abril de 2025.
Últimos artículos





