Juiz dos EUA bloqueia, por enquanto, a inclusão do Pentágono na lista negra de atividades antrópicas.
Anthropic foi temporariamente protegido por uma decisão judicial que bloqueou sua designação como risco à cadeia de suprimentos pelo Pentágono, um rótulo usado para proteger sistemas militares contra sabotagem estrangeira. A empresa, que desenvolve o chatbot de IA Claude, alega que o secretário de Defesa ultrapassou sua autoridade e que a medida causa prejuízos financeiros e de reputação. Anthropic se recusa a permitir que sua IA seja usada para vigilância ou armas autônomas, citando preocupações com segurança e direitos civis. O governo argumenta que a recusa de Anthropic cria riscos operacionais para o Exército e justifica a designação. A decisão judicial, ainda provisória, reconhece preocupações constitucionais como a liberdade de expressão e o devido processo. A controvérsia reflete um embate entre inovação e controle militar sobre tecnologias emergentes. Além disso, Anthropic enfrenta outro processo relacionado a contratos civis governamentais. A situação destaca tensões entre interesses corporativos, segurança nacional e ética no uso de inteligência artificial.
Fonte: https://indianexpress.com/article/technology/tech-news-technology/us-judge-blocks-pentagons-anthropic-blacklisting-for-now-10603801/
Comentários
Postar um comentário