¿La Inteligencia Artificial realmente "ve" lo que dicen los datos? 🤔
Imagen creada con IA Copilot. Recientemente se realizó un experimento muy curioso para poner a prueba a los modelos de lenguaje (LLMs). La idea fue tomar conjuntos de datos clásicos utilizados en R (como el famoso mtcars ) y manipularlos a propósito. 🔄 Invirtieron las relaciones entre las variables para ver si la IA era capaz de darse cuenta del cambio o si se dejaba llevar por la costumbre. ¡El resultado fue impactante! 😲 A pesar de que los gráficos mostraban datos modificados, los LLMs ignoraron la evidencia visual e interpretaron los gráficos basándose en lo que esperaban encontrar, no en lo que realmente estaba ahí. Por ejemplo, incluso si los datos sugerían algo ilógico (como que estudiar más horas bajaba las calificaciones), la IA a menudo no detectaba esta anomalía porque su "instinto" le decía lo contrario. 📉➡️📈 ¿Por qué sucede esto? 🧠 La razón está en el ADN de estas herramientas. A noviembre de 2025, un LLM funciona prediciendo la siguiente palabra más prob...