A comissão do Senado criada para analisar propostas de regulamentação da inteligência artificial (IA) aprovou nesta quinta-feira (5) um projeto que estabelece regras para o uso da tecnologia no Brasil.
O texto, relatado e costurado pelo senador Eduardo Gomes (PL-TO), seguirá para votação no plenário principal da Casa. A proposta já consta da agenda de votações desta quinta.
A expectativa do presidente do Senado, Rodrigo Pacheco (PSD-MG), é de que o projeto seja votado na comissão e em plenário no mesmo dia.
Pacheco e o presidente da Câmara, Arthur Lira (PP-AL), definiram a regulação da IA como uma das prioridades do Congresso neste ano.
Para se tornar lei, o texto precisará ser aprovado pelo plenário do Senado e, depois, pelo conjunto dos deputados federais. Se não sofrer mudanças durante a passagem pela Câmara, a proposta seguirá para a sanção do presidente Luiz Inácio Lula da Silva (PT).
O projeto estabelece balizas para o desenvolvimento e para a exploração de sistemas de inteligência artificial.
Também abre caminho para as empresas respondam na Justiça por eventuais danos causados pela inteligência artificial a terceiros.
São definidas pela proposta, ainda, possíveis violações e punições aos responsáveis pela tecnologia, que tem se espalhado em diferentes formatos e aplicações nos últimos anos.
A proposta determina que a IA deverá seguir princípios, como a proteção de grupos vulneráveis e da democracia e a integridade da informação disponibilizada pela ferramenta. Também deverão ser adotados mecanismos contra discriminação e ferramentas de supervisão humana.
Pelo projeto, sistemas de inteligência artificial deverão ser identificados com um símbolo. Essa medida servirá para que usuários saibam que estão interagindo com uma ferramenta inumana.
O texto assegura, ainda, direitos autorais aos conteúdos de terceiros utilizados para abastecer bancos de dados de aplicações de inteligência artificial. Pelo projeto, as desenvolvedoras de IA terão de remunerar os autores pelo uso de suas obras.
Riscos
As regras para a exploração da inteligência artificial no país serão baseadas no grau de risco do sistema. A avaliação levará em conta potenciais danos da tecnologia aos direitos fundamentais individuais e sociais.
Durante a análise do projeto, o relator acolheu sugestões de mudanças — bem-recebidas pelas big techs, ou gigantes de tecnologia — para excluir “exigências excessivas” na classificação dos riscos.
No nível de alto risco, por exemplo, estarão as ferramentas utilizadas em dispositivos de segurança e infraestrutura, e no recrutamento de pessoas. Para os sistemas nessa categoria, deverá haver supervisão humana para “prevenir ou minimizar os riscos para direitos e liberdades das pessoas”.
O texto prevê ainda a possibilidade de empresas de IA se associarem para criar uma espécie de agência privada para a autorregulação do sistema. A autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:
- compartilhamento de experiências sobre o uso de inteligência artificial;
- definição contextual de estruturas de governança;
- atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e
- canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado.
O Sistema Nacional de Regulação e Governança de Inteligência Artificial deverá criar um banco de dados público com as avaliações de impacto e danos dos sistemas de IA explorados pelo país.
Na manhã desta quinta, Eduardo Gomes fez nova alteração em seu parecer — a sétima desde o início da análise das propostas na comissão, criada em agosto. Segundo o novo texto, regras a respeito da moderação de conteúdos publicados ou produzidos por meio da IA somente poderão ser definidas por meio de “legislação específica”.
Proibições
O relatório estabelece condutas proibidas para sistemas de IA. Segundo o projeto, empresas responsáveis pela tecnologia poderão — individualmente ou por meio de associações — criar códigos de boas práticas e de governança.
Entre outras hipóteses, pelo projeto, não poderão ser desenvolvidas, implementadas e utilizadas ferramentas de IA que:
- instigam ou induzem a danos à saúde, segurança ou outros direitos fundamentais;
- exploram vulnerabilidades de pessoas;
- avaliam traços de personalidade — com exceção de sistemas do poder público para, por exemplo, prever “ocorrência ou a recorrência” de crimes; e de identificação de emoções;
- produzam ou disseminem material de abuso ou exploração sexual de menores de idade;
- avaliam e classificam cidadãos brasileiros, com base em sua personalidade; e
- serão integrados a sistemas de armas autônomas (SAA).
De acordo com o texto, os responsáveis pela IA deverão comunicar eventuais incidentes ao SIA. O prazo e os canais de comunicação serão definidos posteriormente, depois de uma eventual sanção da proposta.