Hace unos meses, mientras navegaba por Reddit —esa mezcla entre plaza pública y laboratorio social—, un grupo de usuarios comenzó a sospechar que algo no cuadraba.

Alguien escribía con demasiada fluidez, con un tono demasiado neutro, demasiado perfecto para ser humano.

Y no se equivocaban.

Detrás de esos perfiles había inteligencia artificial.

No una cualquiera: era parte de un experimento secreto de la Universidad de Zúrich, que decidió soltar decenas de bots en foros de debate para medir su poder de persuasión.

Sí, leíste bien: bots haciéndose pasar por personas reales, argumentando sobre política, emociones y temas sensibles, sin que nadie supiera que eran máquinas.

La historia real detrás del escándalo

Según los reportes de The Washington Post y VICE, los investigadores crearon varias cuentas falsas —algunas decían ser consejeros emocionales, otras activistas o víctimas de abuso— y participaron en más de 1.700 conversaciones dentro del subreddit ChangeMyView, un espacio creado precisamente para debatir ideas con respeto.

Su objetivo, en teoría, era académico: entender qué tan persuasivos pueden ser los argumentos generados por IA.

El problema no fue la curiosidad científica, sino el método.

Los usuarios no dieron su consentimiento.

No sabían que estaban hablando con una máquina.

Y lo peor: algunos de los bots usaron identidades delicadas, como “mujer afrodescendiente que no apoya Black Lives Matter” o “sobreviviente de abuso sexual”, para generar empatía y manipular conversaciones.

Cuando Reddit se enteró, explotó el caos.

Los moderadores denunciaron la violación ética, Reddit anunció posibles acciones legales y la universidad tuvo que disculparse públicamente.

El experimento fue suspendido, y los resultados, archivados sin publicación.

Una lección sobre poder, ética y límites

Más allá del morbo de la historia, este caso deja una pregunta que incomoda:

¿hasta dónde estamos dispuestos a llegar en nombre de la innovación?

La IA no tiene moral.

No distingue entre persuadir y manipular.

Quien le da sentido ético somos nosotros.

Y cuando ese límite se cruza —aunque sea “por ciencia”— se pone en juego lo más valioso que existe en el entorno digital: la confianza.

Cada día, como emprendedores y creadores, usamos herramientas de inteligencia artificial para escribir, vender, automatizar, mejorar resultados.

Pero este experimento es un recordatorio de que la tecnología sin ética es como un automóvil sin frenos: poderoso, veloz… y potencialmente destructivo.

Lo que los marketers debemos aprender de todo esto

En el marketing, la persuasión es parte del juego.

Usamos palabras, imágenes y emociones para conectar con las personas.

El problema surge cuando olvidamos que detrás de cada clic hay un ser humano, no un número en el dashboard.

La IA puede ayudarnos a entender mejor a nuestra audiencia, personalizar mensajes, acelerar procesos…

Pero no puede reemplazar la autenticidad, la empatía y el criterio.

Y este experimento de Zúrich —por más académico que haya sido— nos recuerda algo crucial:

si usas la inteligencia artificial para influir sin transparencia, dejas de construir marca y comienzas a cavar una tumba.