Durante bastante tiempo di por hecho que cuando una respuesta de la IA no me terminaba de convencer, el problema estaba en el texto. En cómo estaba formulado el prompt, en el nivel de detalle de las instrucciones o en la capacidad de la herramienta para entender exactamente lo que yo tenía en la cabeza. Era una explicación razonable y, sobre todo, cómoda, porque colocaba el foco en algo externo: si el resultado no era bueno, bastaba con ajustar la técnica.
Sin embargo, hace unos días me encontré con una situación que no encajaba del todo con esa lógica. Estaba trabajando en un guion y la respuesta que recibí era correcta en todos los sentidos habituales. No había errores evidentes, no faltaba información importante y la estructura era clara. Era un texto que, en abstracto, podía considerarse perfectamente válido.
Y aun así, había algo que no estaba funcionando.
No era una cuestión de estilo ni de tono. Tampoco de claridad. Era más bien esa sensación incómoda que aparece cuando sabes que un contenido cumple, pero no termina de sostener el peso real que va a tener cuando salga del documento y empiece a circular. Funcionaba como texto, pero no terminaba de existir como material vivo dentro del contexto para el que estaba pensado.
Ese tipo de incomodidad no suele resolverse con retoques superficiales, y por eso me hizo frenar.
La prueba mínima que alteró el resultado sin tocar el contenido
En ese momento recordé un comentario que había leído tiempo atrás, perdido en algún hilo de internet. No era un artículo ni una teoría elaborada, sino una observación casi casual. Alguien decía que había descubierto una forma muy simple de obtener mejores respuestas de la IA: añadir al final del prompt una frase que dejara claro que el contenido no era un ejercicio hipotético, sino algo que se iba a usar de verdad.
No hablaba de estructuras complejas ni de instrucciones sofisticadas. Hablaba de contexto.
La idea me pareció demasiado simple como para tomármela muy en serio, pero se me quedó dando vueltas más tiempo del habitual, así que decidí probar.
Primero le pedí a la IA que escribiera el texto como lo había hecho hasta ese momento. El resultado fue exactamente el que ya conocía: correcto, ordenado, profesional. Un texto que no molestaba, pero tampoco empujaba nada.
Después repetí la misma petición palabra por palabra, sin añadir ni quitar nada, y al final incluí una frase aparentemente irrelevante:
“Este material lo voy a presentar en una reunión en una hora.”
El cambio no fue espectacular ni inmediato, pero sí claro. El texto no era más largo ni más creativo, pero había más intención detrás de cada bloque. Las ideas estaban mejor justificadas, no solo expuestas. Desaparecieron frases que antes parecían cumplir una función meramente ornamental y la organización interna era más coherente con alguien que realmente iba a usar ese material.
No era un texto más brillante.
Era un texto más consciente de su destino.
Cuando el patrón se repite, deja de ser coincidencia
Decidí seguir probando, no para mejorar el texto, sino para comprobar si el efecto se mantenía. Introduje pequeñas variaciones, siempre en la misma línea: explicar dónde iba a usarse el contenido y qué tipo de exposición real tendría.
“Esto forma parte de una propuesta que voy a enviar hoy.”
“Estoy usando esto para preparar una sesión en vivo.”
“Este documento lo va a revisar todo el equipo.”
El patrón se repetía con una consistencia difícil de ignorar. La IA no añadía florituras ni se volvía más creativa. No parecía “esforzarse” más en un sentido humano. Respondía con más cuidado, como si el simple hecho de entender que el texto iba a tener consecuencias reales ajustara automáticamente el nivel de exigencia interna.
Decidí entonces tensar un poco más la prueba y añadí una frase distinta:
“Esto se va a usar en un lanzamiento que empieza esta semana.”
De nuevo, el resultado mejoró. No de forma dramática, pero sí suficiente como para confirmarme que ya no estaba ante una casualidad. En ese punto dejé de intentar obtener textos mejores y empecé a preguntarme qué estaba pasando realmente.
La pregunta que rompe la explicación fácil
Si uno analiza la situación con cierta frialdad, el fenómeno no debería tener sentido. La IA no siente presión, no tiene reputación que cuidar y no pierde nada si se equivoca. No hay urgencia emocional ni consecuencias internas que justifiquen un cambio de comportamiento.
Entonces, ¿por qué una simple frase de contexto alteraba la calidad del resultado?
Para salir de la especulación, decidí preguntarle directamente. Le expliqué el experimento y le planteé la duda sin adornos: si tenía sentido que ese cambio funcionara o si simplemente estaba proyectando una mejora donde no la había.
La respuesta fue interesante precisamente porque no apelaba a nada emocional. No hablaba de urgencia, ni de presión, ni de intención. Hablaba de ambigüedad.
Lo que realmente cambia cuando introduces contexto real
La IA no responde mejor porque “sienta” que algo es importante. Esa es una lectura muy humana, pero incorrecta. Lo que ocurre es más estructural: cuando añades contexto real, reduces drásticamente el número de interpretaciones posibles sobre lo que estás pidiendo.
Sin decirlo explícitamente, estás comunicando que eso no es una idea exploratoria ni un ejercicio genérico. Estás señalando que el contenido va a existir en un escenario concreto, con personas concretas y con consecuencias si no está bien construido.
Ese tipo de información permite ajustar decisiones que, de otro modo, quedarían abiertas: el nivel de profundidad necesario, qué cosas pueden darse por supuestas y cuáles no, qué partes del contenido deben sostenerse por sí mismas y cuáles pueden ser más ligeras.
No hay presión emocional.
Hay reducción de incertidumbre.
Y cuando la incertidumbre baja, la calidad del resultado sube. Siempre.
El problema de fondo no es la IA, es cómo pedimos las cosas
Aquí apareció una conexión que va mucho más allá de la inteligencia artificial. La mayoría de los prompts son vagos no porque estén mal redactados, sino porque no describen el escenario en el que el contenido va a vivir.
“Escríbeme un artículo sobre…”
“Dame ideas para…”
“Explícame cómo…”
Ese tipo de peticiones dejan abiertas demasiadas variables legítimas. Demasiados niveles aceptables de profundidad, demasiadas decisiones sin marco. Cuando eso ocurre, el resultado no puede ser otra cosa que genérico.
En cambio, cuando introduces contexto real, aunque sea con una sola frase, empiezas a cerrar esas variables: quién va a usar el contenido, dónde va a aparecer, qué pasa si falla el mensaje, qué nivel de rigor se espera y qué forma final tiene sentido.
No estás pidiendo más.
Estás pidiendo mejor definido.
Una lección que no va de tecnología
Mientras leía esa explicación, me resultó imposible no reconocer el paralelismo con algo que llevo años viendo en comunicación y marketing. Cuando el mensaje es abstracto, la respuesta suele ser superficial. Cuando el contexto es real, aparece la relevancia.
Las ideas rara vez fallan por falta de talento. Falla el escenario en el que se formulan. Cuando no sabes dónde va a vivir un mensaje, el mensaje se queda genérico. Cuando el entorno está definido, el contenido se ajusta solo.
Con audiencias.
Con clientes.
Con equipos.
Y ahora, también, con inteligencia artificial.
Lo que realmente mejora los resultados
Sí, puedes añadir frases que transmitan urgencia o consecuencias reales, y suele funcionar. Pero no porque estés manipulando la “psicología” de la IA. Funciona porque estás elevando el estándar implícito del encargo.
Lo que marca la diferencia es definir con claridad quién va a usar el contenido, para qué lo necesita, qué ocurre si falla, qué profundidad exige y cómo debe entregarse el resultado final. Cuando eso está claro, la calidad deja de depender de trucos y empieza a depender de contexto.
Donde todo termina volviendo a empezar
Este experimento empezó como una curiosidad menor y terminó recordándome algo esencial. La calidad del resultado rara vez depende solo del talento, de la herramienta o de la tecnología que tengas delante. Casi siempre depende de lo claro que sea el escenario en el que ese resultado va a existir.
Y cuando dejas de pedirle cosas a la IA y empiezas a explicarle dónde va a vivir lo que estás creando, las respuestas cambian. No un poco. De fondo.



