Estudo da Apple questiona capacidade de “raciocínio” de modelos de linguagem em tarefas complexas

No experimento, sistemas como Claude 3.7 e o3-mini precisaram resolver quebra-cabeças. Na Torre de Hanói, por exemplo, ambos começaram a falhar no momento em que a atividade tornou-se mais difícil, mesmo quando recebiam o algoritmo completo da solução. Além disso, em determinado momento, eles pararam de tentar resolver o problema. Os pesquisadores questionam o termo “raciocínio”, afirmando que esses modelos não pensam de forma lógica, mas tentam várias abordagens até encontrar uma resposta que pareça plausível. As informações são do site 9to5Mac.

Comentários

Postagens mais visitadas deste blog

O que é Flutter Engineering?

Usando Embeddings para Encontrar a Mulher Ideal

Estudo investiga como ChatGPT está influenciando a forma como as pessoas falam