Filmes

Funcionários de OpenAI e DeepMind lançam carta criticando empresas de IA

Um grupo de especialistas em inteligência artificial (IA) que inclui atuais e ex-funcionários de empresas da área publicou uma carta aberta sobre os perigos dessa tecnologia. O texto tem um tom bastante crítico às companhias que atualmente desenvolvem ferramentas para o setor.

Chamada de “O direito de alertar sobre inteligência artificial avançada”, a carta é assinada por 13 pessoas. Destas, a grande maioria é ex-funcionária da OpenAI, a dona do ChatGPT.

Outros dois participantes (um atualmente empregado lá e outro que já saiu) são do DeepMind, o laboratório de IA do Google, sendo uma dessas pessoas trabalhou também para a Anthropic, do chatbot Claude.

O que diz a carta aberta sobre IA

No geral, o texto é uma crítica ao modo com que empresas de IA lidam atualmente com essa tecnologia em várias frentes, incluindo transparência. Após uma contextualização e apontamentos gerais, o grupo pede que as companhias da área concordem em seguir quatro princípios de operação.

Preocupação do grupo envolve as donas de sistemas e serviços.Fonte:  GettyImages 

Os autores dizem que reconhecem os potenciais e benefícios da IA, assim como os riscos. Na verdade, a maior preocupação deles está nessa falta de abertura por parte das companhias, que só compartilham informações com os próprios funcionários — governos, entidades independentes e a própria sociedade, por exemplo.

“As empresas de IA têm fortes incentivos financeiros para evitar uma supervisão eficaz e não acreditamos que estruturas personalizadas de governança corporativa sejam suficientes para mudar esta situação”, diz o texto.

Como regular a atividade das empresas de IA?

Os princípios defendidos pelo grupo incluem que as empresas não entrem em acordos que proíbam críticas a elas por funcionários, tenham um processo confiável e anônimo para alertas e relatos sobre riscos e apoiem uma cultura de críticas abertas.

Além disso, as responsáveis por sistemas de IA devem permitir aos funcionários relatar riscos sobre as tecnologias ao público, inclusive o compartilhamento de informações relacionadas a riscos, mesmo que confidenciais, depois que todas as medidas anteriores falharem.

Recentemente, a própria OpenAI criou um comitê de Segurança e Proteção para ‘fiscalizar’ operações com IA por conta própria. Foi ela mesma, entretanto, que usou uma voz parecida com a de Scarlett Johansson no seu chatbot mesmo após receber a negativa da atriz.

Até agora, as empresas DeepMind, OpenAI e Anthropic não se manifestaram sobre a carta aberta. Você pode ler o texto completo por este link (em inglês).

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo