A China planeja implementar regras rigorosas para empresas de inteligência artificial, visando proteger crianças e evitar que chatbots recomendem ações que possam causar autoagressão ou violência. As normas exigirão configurações personalizadas, limites de uso e consentimento dos responsáveis antes de oferecer serviços emocionais. Conversas relacionadas a suicídio deverão ser assumidas por humanos, com notificação imediata a familiares ou contato de emergência. A regulamentação também proíbe conteúdos que prejudiquem a segurança nacional ou a unidade do país. O governo incentiva o uso seguro da IA para promover a cultura local e apoiar idosos. Empresas chinesas do setor crescem rapidamente e planejam abertura de capital. A segurança e o impacto da IA na saúde mental têm sido foco de críticas e ações judiciais, como a de uma família nos EUA contra a OpenAI. O CEO da OpenAI ressaltou a complexidade e relevância de gerenciar riscos relacionados à saúde mental, anunciando a criação de um cargo para monitoramento desses perigos. Recursos de apoio psicológico são indicados para pessoas em sofrimento emocional.
Fonte: https://www.bbc.com/news/articles/c8dydlmenvro
Comentários
Postar um comentário