Google, Meta e OpenAI firmam compromisso para identificar conteúdos gerados por Inteligência Artificial, diz governo dos EUA

Publicado em

As principais empresas de Inteligência Artificial (IA), como a OpenAI, Google e Meta, assumiram compromissos com a Casa Branca para implementar medidas que identifiquem o conteúdo gerado por IA, informou o governo dos Estados Unidos, nesta sexta-feira (21).

O presidente Joe Biden recebe, nesta sexta-feira (21), executivos de empresas de tecnologia.

As medidas podem incluir, por exemplo, a inserção de marcas d’água em textos, imagens, áudios e vídeos gerado por IA.

As empresas – que também incluem a Anthropic, Inflection e Amazon – se comprometeram a testar os sistemas antes de lançá-los e compartilhar informações sobre como reduzir riscos e investir em segurança cibernética.

A medida é vista como uma vitória do governo Biden para regulamentar tecnologias de inteligência artificial, que experimentou recentemente um boom de investimentos das empresas.

Regulação nos EUA

Desde que a IA se popularizou no mundo, especialmente após o surgimento do ChatGPT, legisladores de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia.

O líder do Senado nos EUA, Chuck Schumer, pediu em junho uma “legislação abrangente” para avançar e garantir salvaguardas para a inteligência artificial.

O Congresso está considerando um projeto de lei para exigir que anúncios políticos revelem se a IA foi usada para criar imagens ou outro conteúdo.

O presidente Joe Biden também está trabalhando no desenvolvimento de uma ordem executiva e legislação bipartidária sobre tecnologia de IA.

Sistema para ‘marca d’água’

Como parte do esforço, as empresas se comprometeram a desenvolver um sistema de “marca d’água” que deve ser usado em diferentes formas de conteúdo, desde texto, imagens, áudios e até vídeos gerados por IA, para que os usuários saibam quando a tecnologia foi usada.

Essa marca d’água, provavelmente, tornará mais fácil para os usuários identificar imagens ou áudios deep-fake que podem, por exemplo, mostrar um ato de violência que não ocorreu, criar um golpe ou distorcer uma foto de um político.

Não está claro como a marca d’água ficará evidente no compartilhamento das informações.

As empresas também se comprometeram a se concentrar em proteger a privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia não seja usada para discriminar grupos vulneráveis.

Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.

 *g1 / Foto: Florence Lo/Illustration/ Reuters

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Compartilhe

Assine Grátis!

Popular

Relacionandos
Artigos

Netanyahu fala em “dizimar” Irã, que responde com mísseis no Golfo

Israel realizou nesta sexta‑feira (20/3) uma nova série de...

Patente do Ozempic cai nesta sexta. Saiba quando o preço será reduzido

A patente da semaglutida, princípio ativo usado no Ozempic, expira...

Hospital terá que devolver valores em dobro cobrados de pacientes do SUS

Um hospital do Rio Grande do Sul foi condenado...

João Fonseca x Alcaraz no Miami Open 2026: horário e onde assistir

Depois de passar pelo húngaro Fabian Marozsan na estreia...