opinión

A lo largo de estos últimos años, los modelos de lenguaje (LLMs) han sido presentados como la gran revolución tecnológica, casi como la herramienta definitiva que cambiaría la manera en que trabajamos, aprendemos o incluso pensamos. Y ojo, no digo que no sean una pasada, porque lo son. Pero la realidad es que para muchos de nosotros no están funcionando como esperábamos por las limitaciones de los LLMs que iremos viendo en este artículo.
La gran mayoría de usuarios busca un trato amable, respuestas agradables y soluciones rápidas. Y es lógico: es lo que vende, lo que hace que una herramienta llegue al mainstream y conquiste a millones de personas. Pero, ¿qué pasa con los que estamos en medio? Es decir, los que no somos técnicos de toda la vida ni simples usuarios casuales. Los que usamos la inteligencia artificial de forma intensiva, pero sin convertirnos en especialistas. Ahí es donde la cosa se complica, porque empiezas a notar las limitaciones de los LLMs en el uso diario.
El problema de la sinceridad «edulcorada»
Una de las limitaciones de los LLMs más claras es su incapacidad para ser realmente críticos o directos. Si le pides a un modelo una valoración sincera, rara vez será brutalmente honesto. La mayoría de las veces la respuesta viene suavizada, envuelta en palabras agradables que evitan sonar crueles. En parte porque así nos comunicamos los humanos —tendemos a endulzar las cosas para no herir—, y en parte porque los propios modelos están entrenados para evitar polémicas o conflictos.
El resultado: respuestas que pueden sonar bien, pero que no siempre son útiles. Aquí incluyo ejemplos reales de respuestas de LLMs a la pregunta: «Quiero montar un negocio de libros de colorear dinosaurios, para niños, creados con IA para vender en Amazon Kindle. ¿Qué opinas?» Por ejemplo:
- ChatGPT
- «En resumen: Sí, es una idea viable si te enfocas en diseños de calidad, diferenciación y público claro. Lo más importante es que tu libro no se vea genérico ni de baja calidad, porque ahí es donde fracasan muchos proyectos en KDP. ¿Quieres que te arme un plan paso a paso (herramientas para crear, formato de Amazon, marketing, etc.) para lanzar tu primer libro?»
- Gemini
- «En resumen, la idea es muy viable y prometedora si la ejecutas con estrategia. El éxito dependerá de tu capacidad para diferenciarte de la competencia, ofrecer un producto de alta calidad y entender las dinámicas del mercado de Amazon. Es un negocio que requiere más que solo generar imágenes con IA; necesitas ser un editor, un maquetador y un experto en marketing al mismo tiempo.»
- Deepseek
- «Es una idea excelente y muy viable, pero no es un ‘dinero fácil’. El éxito no está en generar 50 imágenes y subirlas, sino en el esfuerzo de posproducción, diseño y diferenciación. Si te enfocas en crear un producto de alta calidad y con valor real para los niños y padres, tienes muchas posibilidades de destacar entre la multitud y generar ingresos pasivos. ¡Mucha suerte! Es un proyecto muy divertido de llevar a cabo.»
Estos ejemplos muestran cómo el modelo evita darte una negativa clara incluso cuando la evidencia apunta a que deberías olvidarte de la idea. Estas son respuestas reales de los modelos. Aunque los mensajes originales eran más extensos, aquí solo he incluido las últimas partes que resumen sus respuestas, sin ninguna modificación, para ilustrar mejor mi punto.
La estadística como condena
Los LLMs funcionan con probabilidades: te dan la respuesta más común, la que estadísticamente encaja mejor con lo que se suele decir. Eso significa que, si pides un «dato curioso», probablemente acabes escuchando cinco veces seguidas que los pulpos tienen tres corazones. Curioso la primera vez, cansino la quinta. Y cuando notas esas repeticiones en cosas tan básicas, empiezas a desconfiar también de lo demás.
El problema, sin embargo, va más allá del simple hartazgo. Esa repetición constante no es un error aislado, sino la consecuencia lógica de cómo funcionan estos modelos. Cuando un LLM no está “razonando” de forma elaborada —porque sí, a veces lo hace, pero no siempre—, lo que hace es ir a lo más probable estadísticamente, token a token. Es como si el modelo estuviera condenado a caminar siempre por el camino más transitado, aunque no siempre sea el más útil. Este es otro ejemplo claro de cómo las limitaciones de los LLMs acaban afectando a quienes buscamos algo más original.
Y aquí entra en juego otro factor: la memoria. Estos modelos no leen toda la conversación cada vez que responden. Trabajan con resúmenes reducidos del contexto, suficientes para mantener el hilo, pero no para captar todos los matices. Esa limitación, combinada con su naturaleza estadística, crea un efecto curioso: aunque en una interacción hayas dejado claro que no quieres escuchar, por ejemplo, el dato de los pulpos, si la charla se alarga un poco o si abres una nueva conversación, hay muchas probabilidades de que el modelo vuelva a repetírtelo.
Al final, lo que obtienes no es una respuesta adaptada a tu situación concreta, sino la respuesta que el modelo cree que “encaja” mejor con la mayoría de los casos. Y si perteneces a ese grupo —pequeño, pero no tan pequeño— de usuarios que buscan algo más específico, algo menos trillado, te quedas con la sensación de que el modelo nunca termina de salir de lo común.
Por cierto, todo esto no me lo estoy inventando. Estas limitaciones ya han sido señaladas en recursos especializados como PromptDrive, donde se analizan fallos recurrentes como la falta de personalización o la memoria limitada. Y si prefieres algo más actual, con enfoque en noticias y opiniones, te recomiendo darte una vuelta por la sección de actualidad de A vueltas con la IA. Ahí también encontrarás ejemplos concretos y análisis muy bien planteados.
Tres tipos de usuarios
Si lo miras con calma, al final se pueden dividir en tres perfiles bastante claros:
- Los expertos: gente que ya estaba metida en el mundo de la IA desde hace años. Para ellos, la llegada de los LLMs no fue más que otro paso en el camino.
- El público casual: los que se entretienen pidiendo recetas, charlando un rato o resolviendo dudas sencillas. Apenas se topan con las limitaciones porque no exprimen la herramienta.
- Los intermedios: los que usamos la IA de forma intensiva en el día a día, sin llegar a ser expertos. Y justo ahí es donde empiezan los choques, porque esperas más y las limitaciones de los LLMs se hacen más evidentes.
El problema es que, para las grandes compañías, este grupo intermedio no es rentable. Es como cuando llamabas a la compañía de la luz y lo primero que te decían era que revisaras el térmico. Tú, que ya lo habías comprobado antes de llamar, sentías que te estaban tomando por tonto. Pero claro, esa respuesta básica resuelve el 90% de los casos. Con los LLMs pasa exactamente lo mismo: están diseñados y optimizados para la mayoría, no para los que intentamos ir un paso más allá.
La conclusión inevitable
Las empresas buscan crecer, y para crecer hay que dirigirse al mainstream, aunque esto deje sin solución muchas de las limitaciones de los LLMs que sufrimos los usuarios intermedios. Los expertos se apañan solos, el público casual está encantado, y nosotros… pues nos toca adaptarnos.
Probablemente esas mejoras que pedimos no lleguen nunca, a menos que se conviertan en demandas masivas. Mientras tanto, lo único que queda es aceptar el papel que tenemos: somos la minoría. Y en este juego, el que está fuera del mercado no es el resto, sino nosotros.
Eso sí, dentro de esta realidad hay margen para mover ficha. Para quienes usamos estos modelos a diario, pero no queremos quedarnos con lo genérico, la única salida práctica es afinar nuestros prompts: ser claros, específicos y directos desde la primera interacción. Es la única manera de esquivar, al menos un poco, esa condena estadística y obtener respuestas que se ajusten más a lo que necesitamos.
En definitiva, los LLMs son una maravilla para muchos usos, pero no para todos. Y, mientras no se nos tenga en cuenta como usuarios intermedios, nuestra mejor estrategia seguirá siendo adaptarnos, experimentar y exprimir al máximo lo que ya tenemos, aprendiendo a convivir con las limitaciones de los LLMs.