Um ano depois do previsto, o projeto de lei que regulamenta a inteligência artificial no país (PL 2.338/2023) deve ser votado nesta terça-feira (3), na Comissão Temporária Interna sobre Inteligência Artificial (CTIA). O texto de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), foi incluído na pauta do plenário para quinta-feira (5) e pode ser votado, caso seja aprovado no colegiado.
Na última semana, o relator do projeto, senador Eduardo Gomes (PL-TO), leu a complementação do relatório final. O parlamentar apresentou, ainda em junho, parecer favorável ao texto, na forma de substitutivo. Entre as mudanças propostas, Eduardo Gomes estabeleceu regulação descentralizada a fim de “desburocratizar” o setor, o que poderia acontecer com uma agência centralizadora.
Previsto para ser votado antes do recesso parlamentar do meio do ano, o texto sofreu adiamentos em razão de impasses entre o setor produtivo e as big techs com o relatório apresentado. Em razão disso, o caminho encontrado por Eduardo Gomes foi o incentivo à inovação e à experimentação por meio de um regime regulatório simplificado.
Além do temor do setor de que houvesse “regulação excessiva”, outro ponto que travava a proposta era a resistência à responsabilização sobre o conteúdo. Diante disso, o senador alterou pontos da regulação que geravam mais custos ao setor produtivo e determinou que as medidas de governança sejam direcionadas às tecnologias de inteligência artificial que afetam diretamente a vida humana e os direitos fundamentais, consideradas de “alto risco”.
Entenda o que prevê o projeto
O marco regulatório propõe “normas gerais de caráter nacional para a governança responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais”. A lei, porém, não se aplica para uso particular de inteligência artificial e em condições de defesa nacional.
O texto estabelece categorização de riscos da IA. Após avaliação preliminar, as tecnologias podem ser rotuladas como:
- Risco excessivo: utilização de armas autônomas, sem intervenção humana; avaliar traços de personalidade para avaliação de risco de cometimento de crime; permitem a criação de material que caracterize abuso sexual de crianças e adolescentes.
- Alto risco: sistemas utilizados como fator determinante na tomada de decisões de seleção de estudantes em processos de ingresso a instituições de ensino; veículos autônomos; gestão de imigração; administração da Justiça.
Uma das principais preocupações em relação à inteligência artificial é a proteção ao trabalho. Conforme o projeto, o Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA), em cooperação com o Ministério do Trabalho, deve criar diretrizes para “mitigar os potenciais impactos negativos aos trabalhadores, em especial os riscos de deslocamento de emprego e oportunidades de carreira relacionadas à IA”.
Além disso, a matéria também prevê que os órgãos devem fomentar o desenvolvimento de programas de treinamento e capacitação contínua para os trabalhadores em atividade, promovendo a valorização e o aprimoramento profissional e “potencializar os impactos positivos aos trabalhadores”.
Em relação à atuação do poder público, o relatório de Eduardo Gomes aponta que a governança deve ser multissetorial, transparente e multiparticipativa, com integração entre governo, setor empresarial, terceiro setor e comunidade acadêmica. Promoção de interoperabilidade de sistemas de IA e de confiança na inteligência artificial são alguns outros pontos previstos no texto.