Estudo da Apple questiona capacidade de “raciocínio” de modelos de linguagem em tarefas complexas
No experimento, sistemas como Claude 3.7 e o3-mini precisaram resolver quebra-cabeças. Na Torre de Hanói, por exemplo, ambos começaram a falhar no momento em que a atividade tornou-se mais difícil, mesmo quando recebiam o algoritmo completo da solução. Além disso, em determinado momento, eles pararam de tentar resolver o problema. Os pesquisadores questionam o termo “raciocínio”, afirmando que esses modelos não pensam de forma lógica, mas tentam várias abordagens até encontrar uma resposta que pareça plausível. As informações são do site 9to5Mac.
Comentários
Postar um comentário