¿Pensás que Claude, Gemini o GPT-4 están pensando cuando explican paso a paso una respuesta? Apple dice que no.
En su nuevo estudio titulado The Illusion of Thinking, Apple Research investigó cómo los llamados Large Reasoning Models (LRMs) manejan tareas clásicas de razonamiento. Lo que encontraron fue demoledor: aunque los modelos generan cadenas de pensamiento que parecen lógicas, no están razonando realmente, sino repitiendo patrones memorizados.
Este hallazgo no solo tiene implicancias técnicas. También reactiva una vieja disputa filosófica:
¿Puede una máquina razonar si no puede generalizar composicionalmente?
Inspirado por autores como Jerry Fodor y Zenon Pylyshyn, y sumando evidencia empírica del nuevo estudio, analizo en este video los tres regímenes que Apple identificó (baja, media y alta complejidad) y explico por qué, cuando los problemas se vuelven realmente difíciles, la ilusión del razonamiento colapsa.
Y entonces, lo importante:
¿Qué entendemos por razonamiento?
¿Cuál es la diferencia entre razonar y simular?
¿Hasta qué punto estos modelos entienden lo que hacen?
¿Qué arquitectura necesitamos para que una IA piense de verdad?
Fuente:
https://machinelearning.apple.com/research/illusion-of-thinking
Lecturas Relacionadas:
Share this post