Por qué la IA da consejos genéricos (y qué necesita para dar respuestas útiles)
ChatGPT sabe contabilidad, pero no sabe nada de tu negocio. La diferencia entre respuestas genéricas y respuestas útiles no está en el modelo — está en el contexto.
Le preguntas a ChatGPT: "¿Puedo deducirme las comidas con clientes como gasto?" Y te responde con algo que podría estar en cualquier blog de asesoría: "Los gastos de representación pueden ser deducibles siempre que estén debidamente justificados y sean necesarios para la actividad..."
Técnicamente correcto. Pero no te ayuda a decidir si apuntar esa comida o no. Porque no sabe si eres autónomo o sociedad. No sabe tu epígrafe. No sabe si estás en estimación directa o en módulos. No sabe nada de ti — así que te contesta como si fueras cualquiera.
Ahora imagina que supiera que eres un arquitecto autónomo en estimación directa, con un volumen de gastos de representación del 3% de tu facturación. La respuesta sería otra: concreta, con los límites que aplican a tu perfil, con el criterio que suele usar Hacienda.
El modelo es el mismo. Lo que cambia es lo que sabe de ti.
El contable que te conoce vs el que no
En el artículo anterior hablamos de que la IA necesita estar donde tú trabajas. Pero estar ahí no basta — necesita saber de ti.
Piénsalo así. Tu contable no sabe más contabilidad que cualquier otro contable. Pero sabe más de ti. Sabe que en diciembre siempre te llegan facturas del mismo proveedor de madera. Que tu cliente principal paga a 60 días. Que ya tuviste un lío con Hacienda por gastos de representación. Ese conocimiento acumulado es lo que hace que su consejo sea útil, no genérico.
ChatGPT es el contable que no te conoce. Sabe contabilidad, pero nada de tu negocio. Y cada vez que abres una conversación nueva, se le olvida todo lo anterior.
Los investigadores de IA tienen un nombre para esto: context engineering — gestionar qué sabe la IA de ti, en qué formato, y en qué momento. No es solo "darle datos". Es decidir qué datos necesita, cómo estructurarlos, y cuándo cargarlos. Es lo que marca la diferencia entre una IA que da respuestas de manual y una que da respuestas útiles.
Una empresa que hace herramientas de programación (Augment Code) midió la diferencia: el mismo modelo, con acceso completo al proyecto en el que estás trabajando, rinde un 70% mejor que sin ese contexto. No cambiaron el modelo. Solo le dieron la información que necesitaba.
Tres cosas que aprendimos gestionando la memoria de una IA
Suena sencillo: dale datos y que responda mejor. En la práctica, tiene trampas que no son obvias.
La IA responde con lo que tiene, no con lo que debería buscar. Un usuario nos preguntó "¿cuánto le he facturado a María García este trimestre?" El sistema respondió solo con las facturas que había visto en esa conversación — no consultó la base de datos completa. Dijo, literalmente, que no tenía más facturas en su contexto.
Era como preguntarle a un empleado nuevo que solo recuerda lo que ha visto hoy. No estaba mintiendo — estaba respondiendo con lo que tenía. La solución no fue mejorar el modelo. Fue añadir una regla explícita: para preguntas sobre totales, consulta siempre la base de datos completa. Nunca respondas de memoria.
Parece obvio. Pero la IA no lo sabe si no se lo dices. Y no es natural tener que dar instrucciones para cosas que cualquier persona con sentido común haría sin pensar. Esa es parte de la disciplina del context engineering: codificar lo que un empleado aprendería solo.
Y las trampas no son solo de qué datos darle. También de cómo. Le preparamos un resumen de actividad reciente para que no tuviera que buscar proveedores cada vez — pero pusimos el número de factura (el que ve el cliente) antes de la referencia interna que usa el sistema. La IA cogía el número legible, el sistema lo rechazaba. Misma información, orden equivocado.
También aprendimos que la memoria de la IA se llena — como un escritorio. Y cuando se llena, no avisa: empieza a hacer las cosas mal, silenciosamente. Un usuario importó varias facturas seguidas y para la quinta la IA creó una por 0€. No porque no supiera leerla — porque no le quedaba sitio para pensar. Tuvimos que comprimir automáticamente la información antigua; tras el cambio, el tiempo de procesamiento bajó un 40%.
Gestionar esa memoria — qué cargar, en qué formato, cuándo comprimir — es parte del trabajo. Y no es algo que el usuario debiera tener que hacer.
Qué significa esto para tu negocio
Cuando pienses en usar IA, la primera pregunta no debería ser "¿qué modelo es mejor?" sino "¿qué sabe de mí?"
Si usas ChatGPT pegando datos cada vez, vas a recibir respuestas genéricas. No porque la IA sea mala — porque no tiene contexto. Y la próxima vez que abras una conversación, va a haber olvidado todo.
La diferencia entre "IA genérica" e "IA útil" no está en el modelo. Está en que tenga acceso permanente a la información de tu negocio — tus clientes, tus proveedores, tu histórico, tu régimen fiscal. Y en que alguien haya pensado en cómo gestionar esa memoria: qué cargar, en qué formato, cuándo comprimir, qué recordar siempre.
Eso conecta con lo que vimos en el artículo anterior: la infraestructura no solo pone a la IA donde trabajas — es lo que permite que el contexto fluya automáticamente, sin que tú tengas que pegarlo a mano cada vez.
Pero hay cosas que ni con todo el contexto del mundo debería hacer la IA. Puede leer una factura perfectamente — identificar al proveedor, la fecha, los conceptos. Pero cuando toca calcular base más IVA menos retención igual a total... ahí la cosa cambia. De eso va el siguiente artículo.