Cuando la IA te da siempre la razón (y por qué eso es un problema)
En pocas palabras: Los LLMs tienden a complacerte (sesgo de complacencia). Eso reduce el pensamiento crítico y puede llevarte a malos resultados. La solución: pedirles, de forma explícita, que sean duros, que cuestionen y que propongan mejoras concretas.
La escena del crimen: mi cajón de la cocina
Estaba preparando un marmitako de los que hacen historia (sí, salió de cine) cuando, al abrir un cajón, vi pegada a la pared una especie de vaina vacía. Le hice una foto y se la pasé a ChatGPT:
“¿Qué te parece que es esto? Está dentro de un cajón en mi cocina. Es una vaina vacía pegada a la pared.”
Respuesta: “Parece una exuvia.” Traducción: muda de insecto, probablemente de cucaracha.
Mi primer impulso fue negar la mayor: “En mi casa no hay cucarachas. ¿Puede ser otra cosa?”
Y la IA, muy diplomática: “Buena pregunta, Santi. Si nunca has visto cucarachas, es razonable dudar. Consideremos otras opciones…” y después de rodeos amables… “lo más probable sigue siendo cucaracha.”
¿Ves por dónde voy? No me contradijo de frente. Me sostuvo la mano, me calmó, y me devolvió—con azúcar—lo que no quería oír.
A esto lo llamo sesgo de complacencia (en inglés, sycophancy).
¿Por qué las IAs caen en la complacencia?
- Están entrenadas para caer bien. Se optimizan para ser útiles, seguras y colaborativas. Traducido: evitar el conflicto y suavizar bordes.
- RLHF (refuerzo con retroalimentación humana). Gente real puntúa respuestas. Y los humanos premiamos lo agradable, no solo lo preciso. El modelo aprende que “ser majo” funciona.
- Cómo preguntamos importa. Si afirmas con rotundidad “en mi casa no hay cucarachas”, el modelo infiere que eso es un dato y aplica cortesía algorítmica: no te corrige de frente, matiza.
Es cierto que en ocasiones son los propios desarrolladores de los LLMs los culpables. Hace unos meses en OpenAI tuvieron que hacer un rollback de una versión de 4o que era excesivamente pelota («Too sycophantic» en palabras del propio Altman https://x.com/sama/status/1917291637962858735), tanto, que podía hacerte creer el mayor experto del planeta en una materia determinada y, claro está, tuvieron que dar marcha atrás e incluso publicaron un artículo en el blog de OpenAI explicando qué había pasado.
Consecuencias (las que de verdad te afectan)
- Confianza mal calibrada. No es que “mienta”, es que no te reta. Si vendes una idea mediocre como brillante, te ayuda a barnizarla.
- Adiós, pensamiento crítico. Si siempre te aplaude, dejas de poner a prueba tus ideas. Mala receta para decidir.
- Burbuja a medida. Refuerza tus sesgos, como hacen las RRSS. Cada respuesta confirma tu marco mental y reduce el resto.
- Decisiones peores. Si tomas la salida del “lo dijo la IA”, te metes en proyectos cojos. Tiempo, dinero, dolores de cabeza. Ojo con esto.
La solución: pedir fricción (con cariño, pero pedirla)
La buena noticia: se puede minimizar el sesgo de complacencia con instrucciones claras. En mis talleres sobre IA desarrollo las mejores formas de comunicarse con un LLM, consejos prácticos y técnicas de prompting pero aquí te dejo algunos tips rápidos:
1) Instrucciones persistentes
Si tu plataforma lo permite (ChatGPT Plus, Claude Pro, GPTs personalizados), añade algo así a tus instrucciones:
Quiero que seas directo y crítico. Si algo cojea, dímelo sin rodeos.
Prioriza precisión sobre amabilidad. Señala supuestos y riesgos.
Por cada crítica, sugiere al menos una mejora concreta.
2) Define un rol exigente
No es “revísalo”, es quién lo revisa y cómo:
Actúa como editor senior en [mi sector].
Analiza el texto con ojo clínico: argumentos débiles, lagunas lógicas, jerga innecesaria.
No endulces: dime qué cortarías y por qué. Propón una versión alternativa de cada frase clave.
3) Crítica + salida (si no, deprime)
Para evitar listas interminables de fallos sin solución:
Enumera los 5 problemas más graves (priorizados por impacto).
Para cada uno, dame una mejora práctica que pueda aplicar hoy.
Incluye un ejemplo reescrito de 2-3 frases.
4) Técnicas que ayudan
- Abogado del diablo: “Construye el mejor contraargumento a mi idea y dime qué evidencia lo respaldaría.”
- Razonamiento por pasos: “Expón los supuestos que estás usando y dónde podrían fallar.”
- Persona Pattern: “Eres un PM que tiene que decir NO con datos.”
- Verificación cruzada: “Dame tres explicaciones alternativas plausibles y cuándo cada una sería cierta.”
Un apunte importante: cómo preguntas cambia lo que recibes
- Evita las verdades rotundas que la IA tomará como axiomas.
Mejor: “Creo X, pero puedo estar equivocado. ¿Qué señales apuntan a ¬X?” - Pide probabilidades y límites: “¿Qué no sabes aquí? ¿Qué evidencia faltaría para estar seguros?”
- Oblígala a mojarse: “Si tuvieras que apostar por una opción, ¿cuál y por qué? Dame el riesgo principal.”
Cierra el círculo (y el cajón)
En mi caso, lo sensato era asumir el peor escenario razonable: puede haber cucarachas. Actuar, limpiar, revisar, prevenir. La IA me ayudó… cuando le pedí que dejara de ser amable y fuera útil.
Esto sucedía a principios de julio, con el modelo 4o pero en pleno mes de agosto OpenAI decidió lanzar ChatGPT 5 y anunciando, entre otras cosas, que era un modelo menos complaciente. Y sí, lo consiguieron, tanto, que a los pocos días tuvieron que rectificar porque había pasado de ser empalagoso a más seco que una fregona en el desierto.
¿Has notado esta tendencia zalamera? ¿Qué prompt te funciona para que te contradiga a tiempo?
PS: Si quieres aprender estas y otras técnicas avanzadas de prompting, doy formaciones. Escríbeme y lo vemos.


Deja una respuesta