A Anthropic desafia a exigência do governo dos EUA de permitir que sua IA mate seres humanos de forma autônoma
Dario Amodei, CEO da Anthropic, afirma que sua empresa não permitirá que sua IA, Claude, seja usada para vigilância doméstica massiva ou controle autônomo de armas. Embora Claude já seja amplamente usada pelo Departamento de Guerra dos EUA para análise de inteligência e operações cibernéticas, Amodei delimita um limite ético. A empresa recusou contratos chineses que poderiam ameaçar os EUA. O governo americano pressiona a Anthropic para remover salvaguardas da IA, ameaçando rotulá-la como risco à cadeia de suprimentos e aplicar a Lei de Produção de Defesa. Amodei declara que, mesmo sob pressão, não cederá a essas exigências por questões morais. Funcionários da Google e OpenAI apoiam publicamente a Anthropic, rejeitando o uso da IA para vigilância e armas autônomas. O caso evidencia a tensão entre interesses militares e a ética no desenvolvimento da IA avançada.
Fonte: https://kotaku.com/anthropic-claude-ai-department-of-war-military-murder-2000674386
Comentários
Postar um comentário