0:00
/
0:00
Transcripción

Apple lo confirma: las IAs no piensan como creemos

El nuevo estudio The Illusion of Thinking revela que los modelos de lenguaje más avanzados no razonan realmente.

¿Pensás que Claude, Gemini o GPT-4 están pensando cuando explican paso a paso una respuesta? Apple dice que no.

En su nuevo estudio titulado The Illusion of Thinking, Apple Research investigó cómo los llamados Large Reasoning Models (LRMs) manejan tareas clásicas de razonamiento. Lo que encontraron fue demoledor: aunque los modelos generan cadenas de pensamiento que parecen lógicas, no están razonando realmente, sino repitiendo patrones memorizados.

Este hallazgo no solo tiene implicancias técnicas. También reactiva una vieja disputa filosófica:

¿Puede una máquina razonar si no puede generalizar composicionalmente?

Inspirado por autores como Jerry Fodor y Zenon Pylyshyn, y sumando evidencia empírica del nuevo estudio, analizo en este video los tres regímenes que Apple identificó (baja, media y alta complejidad) y explico por qué, cuando los problemas se vuelven realmente difíciles, la ilusión del razonamiento colapsa.

Y entonces, lo importante:

  • ¿Qué entendemos por razonamiento?

  • ¿Cuál es la diferencia entre razonar y simular?

  • ¿Hasta qué punto estos modelos entienden lo que hacen?

  • ¿Qué arquitectura necesitamos para que una IA piense de verdad?

📺 Ver en YouTube

Si te interesan temas como razonamiento artificial, filosofía de la mente y el futuro de la IA, suscribite para recibir ensayos breves como este cada semana.

Compartir

Fuente:

https://machinelearning.apple.com/research/illusion-of-thinking

Lecturas Relacionadas:

Discusión sobre este video

Avatar de User