La carrera por desarrollar una inteligencia artificial general (AGI) aún tiene un largo camino por recorrer, según investigadores de Apple que encontraron que los principales modelos de IA todavía tienen problemas para razonar.
Las actualizaciones recientes de los principales modelos de lenguaje de gran escala (LLM) como ChatGPT de OpenAI y Claude de Anthropic han incluido modelos de razonamiento grandes (LRM), pero sus capacidades fundamentales, propiedades de escalabilidad y limitaciones “siguen siendo insuficientemente comprendidas,” dijeron los investigadores de Apple en un artículo de junio titulado “The Illusion of Thinking”.
Señalaron que las evaluaciones actuales se centran principalmente en benchmarks matemáticos y de codificación establecidos, “enfatizando la precisión de la respuesta final”.
Sin embargo, esta evaluación no proporciona información sobre las capacidades de razonamiento de los modelos de IA, dijeron.
La investigación contrasta con una expectativa de que la inteligencia artificial general está a solo unos años de distancia.
Investigadores de Apple prueban modelos de IA “pensante”
Los investigadores diseñaron diferentes juegos de rompecabezas para probar las variantes “pensantes” y “no pensantes” de Claude Sonnet, o3-mini y o1 de OpenAI, y los chatbots DeepSeek-R1 y V3 más allá de los benchmarks matemáticos estándar.
Descubrieron que “los LRMs de vanguardia enfrentan un colapso total de precisión más allá de ciertas complejidades,” no generalizan el razonamiento de manera efectiva y su ventaja desaparece con el aumento de la complejidad, contrario a las expectativas para las capacidades de AGI.
“Encontramos que los LRMs tienen limitaciones en el cálculo exacto: no utilizan algoritmos explícitos y razonan de manera inconsistente a través de los rompecabezas”.
Los chatbots de IA están sobrepensando, dicen los investigadores
Encontraron razonamiento inconsistente y superficial con los modelos y también observaron sobrepensamiento, con los chatbots de IA generando respuestas correctas al principio y luego desviándose hacia razonamientos incorrectos.
Los investigadores concluyeron que los LRMs imitan patrones de razonamiento sin internalizarlos ni generalizarlos verdaderamente, lo que queda por debajo del nivel de razonamiento de AGI.
“Estas conclusiones desafían las suposiciones prevalecientes sobre las capacidades de los LRMs y sugieren que los enfoques actuales pueden estar enfrentando barreras fundamentales para el razonamiento generalizable”,
La carrera por desarrollar la AGI
La AGI es el santo grial del desarrollo de IA, un estado en el que la máquina puede pensar y razonar como un humano y está a la par con la inteligencia humana.
En enero, el CEO de OpenAI, Sam Altman, dijo que la empresa estaba más cerca que nunca de construir AGI. “Ahora estamos seguros de que sabemos cómo construir AGI como lo hemos entendido tradicionalmente,” dijo en ese momento.
En noviembre, el CEO de Anthropic, Dario Amodei, dijo que la AGI superaría las capacidades humanas en el próximo año o dos. “Si solo observas la tasa a la que estas capacidades están aumentando, te hace pensar que llegaremos allí para 2026 o 2027,” afirmó.
Aclaración: Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.