Comissão do Senado aprova regras para inteligência artificial no Brasil; texto vai ao plenário

Publicado em

A comissão do Senado criada para analisar propostas de regulamentação da inteligência artificial (IA) aprovou nesta quinta-feira (5) um projeto que estabelece regras para o uso da tecnologia no Brasil.

O texto, relatado e costurado pelo senador Eduardo Gomes (PL-TO), seguirá para votação no plenário principal da Casa. A proposta já consta da agenda de votações desta quinta.

A expectativa do presidente do Senado, Rodrigo Pacheco (PSD-MG), é de que o projeto seja votado na comissão e em plenário no mesmo dia.

Pacheco e o presidente da Câmara, Arthur Lira (PP-AL), definiram a regulação da IA como uma das prioridades do Congresso neste ano.

Para se tornar lei, o texto precisará ser aprovado pelo plenário do Senado e, depois, pelo conjunto dos deputados federais. Se não sofrer mudanças durante a passagem pela Câmara, a proposta seguirá para a sanção do presidente Luiz Inácio Lula da Silva (PT).

O projeto estabelece balizas para o desenvolvimento e para a exploração de sistemas de inteligência artificial.

Também abre caminho para as empresas respondam na Justiça por eventuais danos causados pela inteligência artificial a terceiros.

São definidas pela proposta, ainda, possíveis violações e punições aos responsáveis pela tecnologia, que tem se espalhado em diferentes formatos e aplicações nos últimos anos.

Segundo o texto, a fiscalização deste regramento caberá ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será criado a partir da eventual sanção da proposta. O SIA será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD).

A proposta determina que a IA deverá seguir princípios, como a proteção de grupos vulneráveis e da democracia e a integridade da informação disponibilizada pela ferramenta. Também deverão ser adotados mecanismos contra discriminação e ferramentas de supervisão humana.

Pelo projeto, sistemas de inteligência artificial deverão ser identificados com um símbolo. Essa medida servirá para que usuários saibam que estão interagindo com uma ferramenta inumana.

O texto assegura, ainda, direitos autorais aos conteúdos de terceiros utilizados para abastecer bancos de dados de aplicações de inteligência artificial. Pelo projeto, as desenvolvedoras de IA terão de remunerar os autores pelo uso de suas obras.

Riscos

As regras para a exploração da inteligência artificial no país serão baseadas no grau de risco do sistema. A avaliação levará em conta potenciais danos da tecnologia aos direitos fundamentais individuais e sociais.

Durante a análise do projeto, o relator acolheu sugestões de mudanças — bem-recebidas pelas big techs, ou gigantes de tecnologia — para excluir “exigências excessivas” na classificação dos riscos.

No nível de alto risco, por exemplo, estarão as ferramentas utilizadas em dispositivos de segurança e infraestrutura, e no recrutamento de pessoas. Para os sistemas nessa categoria, deverá haver supervisão humana para “prevenir ou minimizar os riscos para direitos e liberdades das pessoas”.

Segundo o texto aprovado, uma regulamentação posterior vai definir como se dará o processo de classificação de risco. A fiscalização caberá ao SIA.

O texto prevê ainda a possibilidade de empresas de IA se associarem para criar uma espécie de agência privada para a autorregulação do sistema. A autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:

  • compartilhamento de experiências sobre o uso de inteligência artificial;
  • definição contextual de estruturas de governança;
  • atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e
  • canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado.

O Sistema Nacional de Regulação e Governança de Inteligência Artificial deverá criar um banco de dados público com as avaliações de impacto e danos dos sistemas de IA explorados pelo país.

Na manhã desta quinta, Eduardo Gomes fez nova alteração em seu parecer — a sétima desde o início da análise das propostas na comissão, criada em agosto. Segundo o novo texto, regras a respeito da moderação de conteúdos publicados ou produzidos por meio da IA somente poderão ser definidas por meio de “legislação específica”.

Proibições

O relatório estabelece condutas proibidas para sistemas de IA. Segundo o projeto, empresas responsáveis pela tecnologia poderão — individualmente ou por meio de associações — criar códigos de boas práticas e de governança.

Entre outras hipóteses, pelo projeto, não poderão ser desenvolvidas, implementadas e utilizadas ferramentas de IA que:

  • instigam ou induzem a danos à saúde, segurança ou outros direitos fundamentais;
  • exploram vulnerabilidades de pessoas;
  • avaliam traços de personalidade — com exceção de sistemas do poder público para, por exemplo, prever “ocorrência ou a recorrência” de crimes; e de identificação de emoções;
  • produzam ou disseminem material de abuso ou exploração sexual de menores de idade;
  • avaliam e classificam cidadãos brasileiros, com base em sua personalidade; e
  • serão integrados a sistemas de armas autônomas (SAA).

De acordo com o texto, os responsáveis pela IA deverão comunicar eventuais incidentes ao SIA. O prazo e os canais de comunicação serão definidos posteriormente, depois de uma eventual sanção da proposta.

Direitos autorais

O texto estabelece que as plataformas de IA terão de identificar que estão utilizando, em suas ferramentas, conteúdos protegidos por direitos autorais.

Segundo o projeto, os “donos” das produções — como empresas jornalísticas e artistas — poderão proibir o uso de seus conteúdos nos sistemas.

As empresas também terão de pagar uma remuneração aos autores para poder ter as produções disponíveis em seus bancos de dados.

A remuneração poderá ser negociada de forma coletiva ou individual. Será devida a autores residentes no Brasil ou em países estrangeiros que tenham legislação semelhante.

O texto estabelece que o cálculo da remuneração vai considerar a razoabilidade e a proporcionalidade, além de outros critérios como o tamanho da empresa desenvolvedora.

IA generativa

A proposta também prevê a criação de regras para ferramentas de inteligência artificial generativa, que criam novos conteúdos baseados em vídeos, imagens e vozes de pessoas reais.

De acordo com o texto, quando houver geração de conteúdo novo, as ferramentas de IA deverão identificar canais de verificação de autenticidade e sinalizar os conteúdos originais.

Para mitigar riscos, o SIA — junto às empresas desenvolvedoras — também poderá definir mecanismos para identificar e rotular conteúdos criados a partir de inteligência artificial.

Nos casos em que forem utilizadas imagens, vídeos, áudios de pessoas reais, as empresas terão de respeitar os direitos de personalidade, previstos no Código Civil.

Flexibilizações

Em seu parecer, o senador Eduardo Gomes acolheu a pedidos de parlamentares e setores e criou uma série de flexibilizações às regras gerais.

Uma dessas mudanças exclui sistemas em desenvolvimento de atender ao regramento antes de serem colocados no mercado ou em serviço.

Segundo o texto oferecido pelo relator, a eventual legislação de IA também não será aplicada a tecnologias:

  • utilizadas por brasileiros de forma particular e não econômica;
  • desenvolvidas e utilizadas — “única e exclusivamente” — para a defesa nacional; e
  • utilizadas em investigações, pesquisas.

O Sistema Nacional de Regulação e Governança de Inteligência Artificial também poderá criar regimes simplificados para:

  • padrões e formatos abertos e livres;
  • incentivar a inovação e a pesquisa científica e tecnológica no ambiente produtivo; e
  • projetos de interesse público, e aos que atendam as prioridades das políticas industrial, de ciência tecnologia e inovação e à solução dos problemas brasileiros.

Punições

O descumprimento de regras da legislação poderá ser punido de forma administrativa, além da responsabilização civil por danos a terceiros.

Poderá ser aplicada multa de até R$ 50 milhões — ou 2% do faturamento, em caso de pessoa jurídica – para cada violação cometida pelas empresas de tecnologia.

Outras sanções previstas são:
  • suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA;
  • proibição de tratamento de determinadas bases de dados; e
  • proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos.

Fonte: G1/Foto: Google

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Compartilhe

Assine Grátis!

spot_imgspot_img

Popular

Relacionandos
Artigos

Dois participantes morrem em acidentes distintos durante corrida de barcos à vela na Austrália

Dois velejadores perderam a vida em acidentes distintos durante...

Coreia do Sul: Parlamento aprova impeachment de presidente interino

O Parlamento da Coreia do Sul votou pelo impeachment do presidente...

Em ofício a Dino, Lira diz que cumpriu regras ao destinar emendas

A Câmara dos Deputados enviou ao Supremo Tribunal Federal...

Últimos dias do ano devem ser de chuva em boa parte do Brasil; veja o que esperar para o Ano Novo

Os últimos dias do ano devem ser de tempo...