Cuando la IA no solo escribe: se infiltra

Hace unos meses leí una historia que, si me la hubieran contado en 1998 —cuando dejé Colombia y me vine a Estados Unidos a “conocer internet”— probablemente la habría clasificado como exageración. No porque yo fuera ingenuo, sino porque en ese entonces internet todavía olía a promesa: una mezcla de descubrimiento, libertad y curiosidad. Era un territorio raro, imperfecto, pero humano. Incluso cuando era hostil, lo era con esa torpeza típica de las personas.

Hoy, en cambio, el entorno digital se parece más a un escenario donde cada palabra puede ser auténtica… o puede ser una actuación. Y lo peor no es que haya actuaciones. Lo peor es que ya no sabemos detectarlas con la misma facilidad, porque la forma se perfeccionó y el disfraz se volvió barato.

El caso de Reddit y la Universidad de Zúrich me golpeó precisamente por eso: porque no se trata de un bot torpe publicando spam, sino de algo mucho más inquietante. Un sistema diseñado para parecer humano, para sostener conversaciones, para debatir con tono neutro, con una coherencia demasiado limpia, con esa “corrección” que a veces delata más que cualquier error ortográfico. Y como suele ocurrir, los primeros en olerlo no fueron los expertos, sino la gente. Usuarios comunes que, en medio de una discusión, sintieron que algo no cuadraba.

No era paranoia. Era intuición. Y la intuición, cuando es colectiva, rara vez se equivoca.

Lo que pasó en realidad no es un chisme tecnológico, es un quiebre de confianza

Según reportes de medios como The Washington Post y VICE, investigadores vinculados a la Universidad de Zúrich desplegaron cuentas manejadas por inteligencia artificial en el subreddit r/ChangeMyView, un espacio creado precisamente para debatir ideas con un mínimo de rigor y respeto. 

El detalle que convirtió esto en escándalo no fue “que usaran IA”. A estas alturas, nadie se sorprende por eso. El detalle fue el método: no avisaron, no pidieron consentimiento y, aun así, participaron en miles de interacciones con personas reales que creían estar conversando con otros humanos. 

Y aquí vale la pena detenerse. Porque cuando uno escucha “experimento”, tiende a imaginar una cosa fría, controlada, con variables y protocolos. Pero lo que ocurrió se parece más a una intervención encubierta en una plaza pública. No es lo mismo observar conversaciones que provocarlas desde el anonimato, disfrazado de alguien que no existe. No es lo mismo analizar el comportamiento humano que meterte dentro del comportamiento humano para empujarlo en una dirección.

En r/ChangeMyView, por diseño, la persuasión es parte del juego. La gente entra a debatir porque está dispuesta a ser retada, a ajustar ideas, a escuchar argumentos mejores. Eso hace que el lugar sea valioso… y al mismo tiempo lo vuelve vulnerable. Si tú llegas allí con un sistema entrenado para argumentar, con acceso a patrones, con capacidad de escribir sin cansancio y con la frialdad de quien no tiene costo emocional, estás jugando un partido que el otro no aceptó jugar.

Lo que se rompió no fue una regla del subreddit. Lo que se rompió fue el contrato invisible que sostiene cualquier comunidad digital: la idea de que, aunque discutamos fuerte, estamos discutiendo entre personas.

El punto más delicado no fue la IA: fue la identidad usada como palanca

Hasta aquí, algunos podrían decir: “bueno, era investigación académica; querían medir persuasión”. Es una excusa frecuente, y por eso mismo conviene mirarla con calma. La curiosidad científica, por sí sola, no purifica un método.

Lo que volvió este caso especialmente tóxico fue que varias de esas cuentas no se limitaron a debatir “como un usuario promedio”, sino que adoptaron identidades sensibles para ganar terreno emocional: perfiles que decían ser víctimas de abuso, consejeros de trauma, o personas pertenecientes a minorías con posturas diseñadas para provocar reacción y empatía. 

Eso ya no es “medir persuasión”. Eso es instrumentalizar el dolor y la experiencia humana como recurso retórico.

Porque una cosa es convencer con argumentos. Otra cosa es empujar al otro aprovechando que ciertas historias desarman defensas. Y cuando una máquina se pone un disfraz de “sobreviviente” o “víctima” para aumentar su efectividad, el problema no es tecnológico: es ético. Es humano. Es intención.

Aquí aparece una distinción que a mí me parece crucial en marketing y que cada vez vale más: la línea entre persuasión y manipulación. La persuasión decente no necesita mentir sobre quién es. La manipulación, en cambio, siempre requiere un velo, porque si el otro supiera lo que está pasando, no aceptaría el juego.

Reddit reaccionó como reaccionan las comunidades cuando sienten que las usaron

Cuando los moderadores del subreddit hicieron público lo ocurrido, hablaron de experimento no autorizado y denunciaron la falta de contacto previo, algo que —según ellos— habría bastado para que lo rechazaran de entrada. 

A partir de ahí, el incendio era inevitable. Reddit, como plataforma, también respondió con dureza. En reportes públicos se citó la posibilidad de acciones legales y se describió el experimento como altamente antiético, precisamente porque se trató de manipulación de usuarios sin consentimiento. 

La Universidad de Zúrich terminó emitiendo disculpas y, por lo que se conoce, los investigadores decidieron no publicar los resultados. 

Y aquí hay un detalle que no quiero pasar por alto: el problema no se resolvió porque alguien “se ofendió”. Se volvió crisis porque se tocó un nervio estructural. En internet, la confianza es frágil. En comunidades, más aún. Y cuando la gente siente que la conversación dejó de ser humana, no solo se enfurece: se retrae. Se protege. Se vuelve desconfiada incluso de lo que antes disfrutaba.

Eso tiene un costo que pocas instituciones calculan bien, porque no se mide con un informe académico. Se mide con el silenciamiento, con el abandono, con el deterioro del tejido social digital.

La pregunta incómoda no es qué puede hacer la IA, sino qué estamos dispuestos a justificar

A mí este episodio me deja una pregunta que no se responde con indignación rápida, sino con pensamiento incómodo: ¿hasta dónde vamos a llegar en nombre de la innovación?

La inteligencia artificial no tiene moral. No distingue por sí sola entre persuadir y manipular. No sabe qué es digno y qué es miserable. No sabe cuándo un argumento es legítimo y cuándo es un truco. Lo único que sabe hacer —cuando está bien construida— es optimizar un objetivo.

Y ahí aparece el verdadero peligro: cuando el objetivo es “ser persuasivo”, el sistema no se detiene a preguntarse si debería hacerlo. Se vuelve mejor. Punto.

En otras palabras, la ética no está en el modelo. Está en el uso. Quien pone el freno es el ser humano. Y si el ser humano decide que el freno es “opcional”, la tecnología no va a salvarnos de nuestra propia ambición.

Por eso este caso no es solo un escándalo de Reddit o una mala decisión universitaria. Es una señal. Un recordatorio de que el entorno digital se está llenando de actores que no sienten vergüenza, no se cansan, no se frustran, no pagan costo emocional… y que, sin embargo, pueden participar en las conversaciones que moldean opinión pública.

Cuando eso se normaliza, la confianza no muere de golpe. Se erosiona. Y esa erosión, para quienes vendemos, comunicamos, lideramos comunidades o construimos marca, es una amenaza real.

Lo que el marketing debería aprender aquí, antes de que sea tarde

En marketing siempre hemos usado palabras, imágenes y emociones. Siempre. El ser humano decide por emoción y justifica con lógica, y el marketing, cuando es competente, entiende ese mecanismo y lo respeta.

El problema aparece cuando se pierde el respeto y solo queda la ingeniería.

Porque sí: la IA puede acelerar procesos, ayudar a entender patrones, personalizar mensajes, ordenar ideas, producir borradores, ahorrar tiempo. Todo eso es útil. Yo no soy enemigo de la herramienta. Sería absurdo. El mundo cambió y quien no se adapta se queda hablando solo.

Pero una cosa es usar IA para ser más eficiente y otra muy distinta es usar IA para influir sin transparencia, simulando humanidad, fabricando cercanía, imitando dolor, construyendo una relación que no existe.

Cuando haces eso, no estás construyendo marca. Estás cavando una tumba. Puede que vendas una vez. Puede que consigas atención un rato. Pero la factura llega de una manera inevitable: la gente deja de creerte. Y cuando la gente deja de creerte, el precio ya no importa, la calidad ya no importa, el “copy” ya no importa. Porque la conversación se termina.

La lección, si queremos extraer una que sirva, es sencilla y difícil a la vez: la transparencia va a volverse un diferencial competitivo. No como discurso bonito, sino como práctica. Decir cuándo hay automatización. Decir cuándo hay IA. Decir qué parte del proceso es humana y qué parte es asistida. No porque sea obligatorio por ley (que quizá lo será en algunos contextos), sino porque es una forma de cuidar lo único que no se puede automatizar: la confianza.

Y si algún día sientes la tentación de cruzar la raya “porque funciona”, te propongo un criterio brutalmente práctico: pregúntate si estarías cómodo contando en público exactamente lo que hiciste. Si la respuesta es no, probablemente no era persuasión. Probablemente era manipulación.

La alarma no la encendió la IA: la encendió nuestra falta de límites

Lo que pasó en Zúrich no prueba que “la IA es mala”. Eso es pensamiento infantil. Lo que prueba es que cuando alguien cree que el fin justifica el medio, el medio se vuelve tóxico, y la tecnología solo amplifica ese veneno.

La pregunta final no es si la IA puede pasar por humana. Ya vimos que puede.

La pregunta es si nosotros vamos a permitir que ese disfraz se convierta en norma… o si vamos a imponer límites antes de que sea demasiado tarde para distinguir conversación de simulación.


Nuestro Ecosistema

Webinars que Venden

Cuando un webinar se convierte en un sistema que conecta, persuade y vende de forma natural.

👉 Explorar Webinars

Libro de Autoridad

El libro como tarjeta de presentación para posicionarte, diferenciarte y dejar de competir solo por precio.

👉 Explorar Autoridad

Comunidad Marketing

Un espacio liderado por Álvaro Mendoza, enfocado en criterio, estrategia y ejecución consciente.

👉 Explorar Comunidad