Segundo o relatório, os sistemas mais avançados de IA até tentam “pensar passo a passo”, mas explodem de vez quando os desafios ficam mais difíceis
A Apple lançou um balde de água fria no otimismo em torno da inteligência artificial. Em um estudo publicado nesta semana, a empresa mostrou que, apesar de parecerem cada vez mais espertos, os modelos de linguagem — como o ChatGPT e seus semelhantes — ainda tropeçam feio quando o assunto é raciocínio complexo.
Segundo o relatório, os sistemas mais avançados de IA até tentam “pensar passo a passo”, mas explodem de vez quando os desafios ficam mais difíceis. Literalmente: eles travam, se contradizem ou simplesmente erram feio.
A ideia por trás do estudo
Nos últimos anos, uma tendência ganhou força no mundo da IA: os Modelos de Linguagem com Raciocínio Amplo (MLRs). A ideia é simples: fazer com que os sistemas “simulem” um pensamento estruturado antes de responder — como se fosse um “deixa eu pensar…” artificial.
Essa abordagem, usada até nos modos mais recentes de IA conversacional, parecia promissora. Mas a Apple decidiu testar seus limites com uma série de problemas lógicos e quebra-cabeças de complexidade crescente.
O que descobriram? Que a IA, no fundo, não aguenta pensar demais.
Os três níveis de raciocínio
O estudo dividiu os resultados em três categorias:
-
Problemas simples: os modelos tradicionais (sem “raciocínio”) se saem melhor, de forma rápida e direta.
-
Média complexidade: os MLRs apresentam alguma vantagem — mas ainda cometem erros e perdem consistência.
-
Alta complexidade: tudo colapsa. Nenhum modelo, mesmo os mais avançados, consegue manter um raciocínio lógico eficaz.
Ou seja: quanto mais exigimos pensamento estruturado, menos eficiente a IA se torna.
Um paradoxo de silício
Mais curioso ainda é o que os pesquisadores chamaram de “paradoxo de raciocínio”: quanto mais difícil a tarefa, menos esforço os modelos parecem fazer — mesmo quando têm recursos computacionais de sobra.
É como se o sistema perdesse a vontade de tentar quando a coisa complica. Algo bem distante da resiliência humana no raciocínio, mesmo sob pressão.
“Não se trata apenas de falta de conhecimento. É uma falha estrutural na forma como essas IAs são treinadas para pensar”, aponta o relatório da Apple.
Fim do hype da superinteligência?
Embora não seja uma sentença de morte para o desenvolvimento da IA, o estudo levanta sérios questionamentos sobre os limites atuais dos modelos que dominam o mercado — inclusive aqueles usados em produtos como Siri, ChatGPT, Gemini e outros.
A pesquisa não critica a IA por ser “burra”, mas alerta: simular raciocínio não é o mesmo que pensar de verdade. A capacidade de conectar ideias complexas, lidar com ambiguidade e manter consistência lógica ainda é um dos grandes calcanhares de Aquiles desses sistemas.
Em resumo:
-
Apple testou modelos de IA com raciocínio passo a passo (MLRs);
-
Resultado: quanto mais difícil o problema, pior o desempenho;
-
Paradoxo: IA pensa menos quando mais deveria pensar;
-
Estudo questiona o hype da “superinteligência artificial”.
O recado? As máquinas estão longe de nos substituir no quesito raciocínio complexo. Por enquanto, elas ainda “pensam” como quem só finge que está pensando.
Da Redação do Mais55