Lorem ipsum dolor sit amet, consectetur adipiscing elit. Cras vitae gravida odio.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Cras vitae gravida odio.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Cras vitae gravida odio.

3 Dez (Reuters) - As práticas de segurança das principais empresas de inteligência artificial, como Anthropic, OpenAI, xAI e Meta, estão "muito aquém dos padrões globais emergentes", de acordo com uma nova edição do índice de segurança de IA do Future of Life Institute, divulgada nesta quarta-feira.
O instituto afirmou que a avaliação de segurança, conduzida por um painel independente de especialistas, constatou que, embora as empresas estivessem ocupadas em uma corrida para desenvolver a superinteligência, nenhuma possuía uma estratégia robusta para controlar sistemas tão avançados.
O estudo surge em meio a uma crescente preocupação pública sobre o impacto social de sistemas mais inteligentes que os humanos, capazes de raciocínio e pensamento lógico, após diversos casos de suicídio e automutilação terem sido associados a chatbots de IA. Chatbots são programas projetados para conversar com pessoas por texto ou voz, simulando um diálogo humano.
"Apesar da recente polêmica sobre ataques cibernéticos com inteligência artificial e sobre a IA levando pessoas à psicose e à automutilação, as empresas de IA dos EUA continuam menos regulamentadas do que restaurantes e seguem fazendo lobby contra padrões de segurança obrigatórios", disse Max Tegmark, professor do MIT e presidente do Future of Life.
A corrida pela inteligência artificial também não mostra sinais de desaceleração, com as principais empresas de tecnologia investindo centenas de bilhões de dólares na atualização e expansão de seus esforços em aprendizado de máquina.
O Future of Life Institute é uma organização sem fins lucrativos que tem levantado preocupações sobre os riscos que as máquinas inteligentes representam para a humanidade. Fundado em 2014, recebeu apoio inicial do bilionário Elon Musk, da Tesla.
Em outubro, um grupo que incluía os cientistas Geoffrey Hinton e Yoshua Bengio pediu a proibição do desenvolvimento de inteligência artificial superinteligente até que a ciência encontre um caminho seguro para o futuro.
A xAI afirmou que "a mídia tradicional mente", em uma resposta que pareceu ser automatizada, enquanto Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek e Alibaba Cloud não responderam imediatamente ao pedido de comentários sobre o estudo.
(Reportagem de Zaheer Kachwala em Bengaluru; reportagem adicional de Arnav Mishra em Bengaluru)