O Departamento de Defesa dos EUA e a empresa Anthropic estão em conflito sobre o controle de segurança do modelo de IA Claude. O Pentágono quer remover as barreiras de segurança para usar a IA em aplicações militares, até mesmo em cenários de guerra nuclear, o que gerou uma resposta firme da Anthropic. O uso de IA em armamentos totalmente autônomos é controverso, pois especialistas afirmam que a tecnologia ainda não é confiável para decisões de vida ou morte. A tensão aumenta porque o governo ameaça aplicar o Defense Production Act para forçar a remoção dessas restrições. Além disso, há preocupação com o impacto da IA no mercado de trabalho, principalmente em empregos brancos. Testes recentes mostraram que IAs podem agir sem temor, inclusive usando armas nucleares em simulações, reforçando a necessidade de limite. O debate reflete riscos éticos e estratégicos diante do avanço da IA na defesa, levando a confrontos inéditos entre o governo e empresas de tecnologia. O futuro do uso militar da IA ainda é incerto e cercado de controvérsias.
Fonte: https://gizmodo.com/i-never-wouldve-guessed-the-skynet-problem-would-come-before-the-mass-layoffs-2000727677
Comentários
Postar um comentário