El prompt que hace temblar a las agencias de marketing

Hay un prompt que hace temblar a las agencias de marketing y es el famoso «Actúa como…», para pedirle a la inteligencia artificial que te de sugerencias sobre cualquier tema. Y es una escena que empieza a repetirse en agencias, consultoras y equipos de marketing con una frecuencia que hace apenas tres años parecía improbable.

Imagina esto. Semanas de análisis, conversaciones con la marca, lectura del mercado, observación de la competencia, restricciones presupuestarias, contexto cultural, posicionamiento histórico, intuición entrenada y decisiones tomadas con esa mezcla incómoda de método y experiencia que solo se consigue trabajando durante años. Entregas el proyecto, en una reunión destinada para ello, y explicas el contenido del documento. Resultados de los análisis, propuesta de valor, modelo de negocios, monetizacion de los activos, estructura editorial, en fin, como debe ser.

Después de todo ese proceso, el cliente ni bien recibe la documentación, abre una pestaña de GPT, y le dice:

“GPT, actúa como experto en marketing. Analiza esta estrategia y dime si está bien.”

Minutos después, el cliente te envía un whatsapp con con una frase que ya se instaló en el pequeño teatro corporativo contemporáneo:

“Hola, revisé tu documento y GPT dice que esto no es correcto.”

Y ahí comienza una de las distorsiones más curiosas —y más irritantes— de esta época. Porque el prompt Actúa como” hace temblar a las agencias de marketing, pero no porque vaya a quitarnos el trabajo, sino porque expone una confusión mucho más humana: creer que una respuesta convincente equivale a criterio, y peor aún, tratar a GPT como si fuera dueño de la verdad-

 

“Actúa como”: el peligro empieza cuando la forma se disfraza de fondo

Los modelos de lenguaje tienen una cualidad fascinante: responden rápido, ordenado y con una seguridad que haría sonrojar a más de un gerente con PowerPoint.

Listas claras. Conceptos correctos. Explicaciones lógicas. Un tono impecable. El texto se ve inteligente. Y ahí está el problema.

Porque la forma del discurso se parece muchísimo al conocimiento experto, pero no es conocimiento experto. Es una simulación lingüística bastante sofisticada de cómo suena alguien que sabe.

Los modelos de lenguaje recombinan patrones de información existentes. Trabajan sobre correlaciones estadísticas aprendidas a partir de enormes cantidades de texto. Eso les permite explicar, resumir, contrastar y proponer con una fluidez admirable. Pero esa fluidez tiene límites muy concretos: la IA no observa mercados, no gestiona empresas, no asume riesgos financieros y no carga con las consecuencias de una mala decisión.

Puede hablar de marketing porque ha leído millones de textos sobre marketing. Pero haber leído sobre marketing jamás será lo mismo que haber tomado decisiones de marketing durante treinta años, con clientes reales, presupuestos tensos, contextos cambiantes y errores suficientemente caros como para enseñarte algo que ningún prompt puede condensar del todo.

Por eso es peligroso, porque mientras más convincente suena la IA, más fácil resulta olvidar que lo suyo es lenguaje, no experiencia.

 

El conocimiento experto no vive completo en el documento

Cuando un estratega diseña una estrategia, el documento final representa apenas la capa visible del trabajo. El PDF, bonito o no, la presentación limpia o el plan ordenado en bullets son solo la superficie.

Debajo de eso existe otra cosa. Existe la memoria de campañas que funcionaron casi por accidente. La experiencia de campañas que parecían brillantes y murieron en silencio. El recuerdo de consumidores que dijeron una cosa y compraron otra. La observación de mercados que cambiaron justo cuando alguien creyó haberlos entendido. Los errores que costaron dinero. Las decisiones que salvaron marcas.

Ese conocimiento no siempre está escrito. Muchas veces ni siquiera podría escribirse por completo sin convertir cada estrategia en una enciclopedia con trauma.

Ese conocimiento está acumulado en experiencia, en la lectura de matices, en la interpretación de silencios y en la capacidad de reconocer patrones que todavía no son evidentes para otros.

La estrategia, por eso, no es simplemente un documento técnico. Es una decisión informada en condiciones de incertidumbre.

Y ahí aparece el absurdo elegante de tantas reuniones actuales: un cliente enfrenta esa complejidad con una respuesta generada en segundos y la pone sobre la mesa como si ambos insumos jugaran el mismo deporte.

 

La falsa equivalencia del promtp «actúa como».

Uno de los errores más graves en esta conversación consiste en poner al mismo nivel dos tipos de conocimiento que pertenecen a categorías distintas.

Por un lado, está el conocimiento estadístico sobre textos.
Por otro, el conocimiento práctico sobre decisiones reales.

La IA puede explicar perfectamente conceptos clásicos del marketing: diferenciación, ventaja competitiva, posicionamiento, propuesta de valor, marketing mix. Ese tipo de conocimiento está ampliamente documentado, y los modelos lo recombinan bastante bien. Siempre que quieras endener un concetpo, lo explicará muy acertadamente.

Pero aplicar esos conceptos en un mercado específico exige algo que ningún modelo posee por sí mismo: contexto.

  • Contexto del negocio.
  • Contexto del cliente.
  • Contexto del equipo.
  • Contexto del momento.
  • Contexto de lo que ya se intentó y de lo que conviene evitar aunque en teoría “suene bien”.

La estrategia vive ahí, en ese terreno algo sucio, algo ambiguo y maravillosamente poco automático donde una buena decisión rara vez surge de una fórmula general.

Por eso, cuando alguien usa una respuesta de IA para cuestionar una estrategia como si ambas cosas tuvieran el mismo peso epistemológico, lo que aparece no es un debate técnico. Aparece una falsa equivalencia vestida de modernidad.

 

Por si no sabías: la calidad de la respuesta depende profundamente de la calidad de la pregunta.

Y si.. la IA amplifica la calidad del pensamiento del usuario. Si solo tienes incertidumbres, la IA te dará más aún.

Los modelos de lenguaje responden a estímulos lingüísticos. Esa es su naturaleza. Si el prompt es preciso, contextualizado y bien delimitado, la respuesta tiende a ser más útil. Si el prompt es vago, sesgado o superficial, la respuesta también lo será, aunque venga empacada con un tono de aparente autoridad.

Y aquí entra un detalle deliciosamente incómodo.

Muchas personas usan la IA creyendo que están consultando una inteligencia externa, extraancestral y superior. En realidad, muchas veces están conversando con una máquina que amplifica su propio marco mental.

Un estratega experimentado suele preguntar usar así:

  • este es el contexto competitivo
  • estas son las restricciones operativas
  • esta es la historia de la marca
  • estas son las hipótesis detrás de la decisión
  • evalúa fortalezas, debilidades y escenarios alternativos

El usuario promedio, en cambio, suele escribir algo mucho más simple:

“Actúa como experto en marketing, analiza esta estrategia y dime si está bien.”

La IA entonces responde con patrones generales. Y cuando una estrategia concreta se somete a patrones genéricos, el resultado casi siempre parece una crítica razonable.

No porque la estrategia esté mal. Sino porque la pregunta estaba mal planteada desde el inicio.

 

El sesgo de confirmación con buena dicción.

Otro factor relevante, es que la inteligencia artificial funciona, en muchos sentidos, como un espejo. Refleja el contexto que recibe, la precisión de la pregunta y el nivel conceptual de quien la usa.

Por eso dos personas pueden preguntarle exactamente sobre el mismo documento y obtener respuestas radicalmente distintas.

Uno pregunta desde el conocimiento.
Otro desde la sospecha.
Uno busca comprensión.
Otro busca munición.

Y la IA, obediente como siempre, entrega algo útil para ambos.

Aquí entra en escena otro invitado clásico de la psicología humana: el sesgo de confirmación.

Muchos usuarios formulan preguntas que ya empujan la respuesta en una dirección determinada:

“Encuentra errores en esta estrategia.”
“Dime por qué esta estrategia podría fallar.”
“¿Qué problemas ves aquí?”

La IA hace exactamente lo que se le pidió. Busca errores. Busca debilidades. Busca inconsistencias. Luego ordena esas observaciones en un formato impecable que parece análisis experto.

Pero lo que muchas veces está ocurriendo es mucho más simple: el usuario está discutiendo con un consultor usando como respaldo una respuesta fabricada por el encuadre de su propia pregunta.

Una joyita de la época.

 

El peligro no está en la herramienta, sino en la autoridad que le regalan

Cuando el cliente te dice: “GPT dice otra cosa.” parece que hay un árbitro neutral dentro de la conversación.

Pero no lo hay.

La IA no fue neutral. Fue guiada por el prompt, por la información disponible y por las omisiones del usuario. Respondió a una versión incompleta del problema, muchas veces despojada de los elementos que realmente sostienen una decisión estratégica.

Porque lo que rara vez entra en el prompt es precisamente lo más valioso:

las conversaciones previas con la marca, las restricciones del presupuesto, las tensiones internas del equipo, las oportunidades invisibles para quien no conoce el terreno, el timing político o comercial, la intuición fundada que surge después de años viendo cómo una idea correcta puede fracasar por ejecutarse en el momento incorrecto.

Esos elementos viven en la experiencia del consultor. No en el texto que el cliente pegó en la interfaz.

Por eso el verdadero problema no aparece cuando alguien consulta la IA. Consultarla puede ser útil, interesante y hasta productivo.

El problema aparece cuando la respuesta de la IA recibe una autoridad que no merece. Cuando una herramienta de apoyo empieza a funcionar como juez final o cuando la simulación de experiencia desplaza a la experiencia real porque suena más limpia, más instantánea y más cómoda de consumir.

 

La paradoja moderna: tener respuestas se volvió fácil; tener criterio sigue siendo carísimo

La inteligencia artificial está democratizando el acceso a información. Eso es extraordinario. Permite aprender más rápido, comparar ideas, detectar vacíos, ampliar perspectivas y trabajar con una velocidad que hace pocos años parecía fantasía.

Pero también está revelando algo que siempre existió y que ahora queda obscenamente expuesto:

tener respuestas no es lo mismo que tener criterio.

 

Un modelo puede responder en cinco segundos pero un profesional puede tardar veinte años en construir el criterio que sostiene una buena decisión.

Ambas respuestas pueden verse parecidas en una pantalla y ambas pueden sonar razonables y venir escritas con tono firme y estructura impecable.

Pero una es síntesis estadística y la otra es juicio profesional.

 

Y la diferencia entre ambas se vuelve brutal cuando toca asumir las consecuencias.

Porque GPT no pierde clientes. GPT no pierde dinero. GPT no pierde reputación. GPT no se sienta frente a un directorio a explicar por qué una idea brillante en teoría fracasó en la práctica.

El experto sí. Y en el mundo real, el criterio siempre ha estado unido a esa responsabilidad incómoda, concreta y bastante menos glamorosa que una interfaz bonita.

 

Maridando

La IA jamás debería ocupar el lugar del juicio experto.

Porque el verdadero problema no está en que la IA imite autoridad. Para eso fue entrenada, en cierto sentido: para producir lenguaje útil, coherente y persuasivo.

El problema está en que tantas personas estén dispuestas a confundir esa imitación con conocimiento real.

Ahí duele.
Ahí irrita.
Ahí tiemblan las agencias de marketing, pero no porque la IA vaya a reemplazar mágicamente a los expertos.
Tiemblan porque una parte del mercado empezó a tratar el criterio como si fuera intercambiable con una respuesta bien redactada.

Y ese sí es un problema serio.

Porque “Actúa como” no es solo un prompt.
Es una manera elegante de confundir imitación con saber.
Es el pequeño atajo moderno que promete inteligencia instantánea y termina erosionando el valor del pensamiento trabajado.

La diferencia, al final, nunca estuvo en la máquina.

Siempre estuvo —y sigue estando— en quien formula la pregunta, en quien interpreta la respuesta y en quien finalmente tendrá que vivir con las consecuencias de usar una herramienta como si fuera criterio.