Archivos de la etiqueta: meio ambiente

19Sep/24
Proyecto de Ley

Projeto de Lei nº 2238/2023, Dispoe sobre o uso da Inteligencia Artificial

PROJETO DE LEI Nº 2.388, DE 2023

Dispõe sobre o uso da Inteligência Artificial.

O CONGRESSO NACIONAL decreta:

CAPÍTULO I.- DISPOSIÇÕES PRELIMINARES

Art. 1º Esta Lei estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.

Art. 2º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial no Brasil têm como fundamentos:

I – a centralidade da pessoa humana;

II – o respeito aos direitos humanos e aos valores democráticos;

III – o livre desenvolvimento da personalidade;

IV – a proteção ao meio ambiente e o desenvolvimento sustentável;

V – a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas;

VI – o desenvolvimento tecnológico e a inovação;

VII – a livre iniciativa, a livre concorrência e a defesa do consumidor;

VIII – a privacidade, a proteção de dados e a autodeterminação informativa;

IX – a promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação nos setores produtivos e no poder público; e

X – o acesso à informação e à educação, e a conscientização sobre os sistemas de inteligência artificial e suas aplicações.

Art. 3º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial observarão a boa-fé e os seguintes princípios:

I – crescimento inclusivo, desenvolvimento sustentável e bemestar;

II – autodeterminação e liberdade de decisão e de escolha;

III – participação humana no ciclo da inteligência artificial e supervisão humana efetiva;

IV – não discriminação;

V – justiça, equidade e inclusão;

VI – transparência, explicabilidade, inteligibilidade e auditabilidade;

VII – confiabilidade e robustez dos sistemas de inteligencia artificial e segurança da informação;

VIII – devido processo legal, contestabilidade e contraditório;

IX – rastreabilidade das decisões durante o ciclo de vida de sistemas de inteligência artificial como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou jurídica;

X – prestação de contas, responsabilização e reparação integral de danos;

XI – prevenção, precaução e mitigação de riscos sistémicos derivados de usos intencionais ou não intencionais e de efeitos não previstos de sistemas de inteligência artificial; e

XII – não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial.

Art. 4º Para as finalidades desta Lei, adotam-se as seguintes definições:

I – sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de producir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real;

II – fornecedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;

III – operador de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional;

IV – agentes de inteligência artificial: fornecedores e operadores de sistemas de inteligência artificial;

V – autoridade competente: órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional;

VI – discriminação: qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais como origen geográfica, raça, cor ou etnia, gênero, orientação sexual, clase socioeconômica, idade, deficiência, religião ou opiniões políticas;

VII – discriminação indireta: discriminação que ocorre quando normativa, prática ou critério aparentemente neutro tem a capacidade de acarretar desvantagem para pessoas pertencentes a grupo específico, ou as coloquem em desvantagem, a menos que essa normativa, prática ou criterio tenha algum objetivo ou justificativa razoável e legítima à luz do direito à igualdade e dos demais direitos fundamentais;

VIII – mineração de textos e dados: processo de extração e análise de grandes quantidades de dados ou de trechos parciais ou integrais de conteúdo textual, a partir dos quais são extraídos padrões e correlações que gerarão informações relevantes para o desenvolvimento ou utilização de sistemas de inteligência artificial.

CAPÍTULO II.- DOS DIREITOS

Seção I.- Disposições Gerais

Art. 5º Pessoas afetadas por sistemas de inteligência artificial têm os seguintes direitos, a serem exercidos na forma e nas condições descritas neste Capítulo:

I – direito à informação prévia quanto às suas interações com sistemas de inteligência artificial;

II – direito à explicação sobre a decisão, recomendação ou previsão tomada por sistemas de inteligência artificial;

III – direito de contestar decisões ou previsões de sistemas de inteligência artificial que produzam efeitos jurídicos ou que impactem de maneira significativa os interesses do afetado;

IV – direito à determinação e à participação humana em decisões de sistemas de inteligência artificial, levando-se em conta o contexto e o estado da arte do desenvolvimento tecnológico;

V – direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos; e

VI – direito à privacidade e à proteção de dados pessoais, nos termos da legislação pertinente.

Parágrafo único. Os agentes de inteligência artificial informarão, de forma clara e facilmente acessível, os procedimentos necessários para o exercício dos direitos descritos no caput.

Art. 6º A defesa dos interesses e dos direitos previstos nesta Lei poderá ser exercida perante os órgãos administrativos competentes, bem como em juízo, individual ou coletivamente, na forma do disposto na legislação pertinente acerca dos instrumentos de tutela individual, coletiva e difusa.

Seção II.- Dos direitos associados a informação e compreensão das decisões tomadas por sistemas de inteligência artificial

Art. 7º Pessoas afetadas por sistemas de inteligência artificial têm o direito de receber, previamente à contratação ou utilização do sistema, informações claras e adequadas quanto aos seguintes aspectos:

I – caráter automatizado da interação e da decisão em processos ou produtos que afetem a pessoa;

II – descrição geral do sistema, tipos de decisões, recomendações ou previsões que se destina a fazer e consequências de sua utilização para a pessoa;

III – identificação dos operadores do sistema de inteligencia artificial e medidas de governança adotadas no desenvolvimento e emprego do sistema pela organização;

IV – papel do sistema de inteligência artificial e dos humanos envolvidos no processo de tomada de decisão, previsão ou recomendação;

V – categorias de dados pessoais utilizados no contexto do funcionamento do sistema de inteligência artificial;

VI – medidas de segurança, de não-discriminação e de confiabilidade adotadas, incluindo acurácia, precisão e cobertura; e

VII – outras informações definidas em regulamento.

§ 1º Sem prejuízo do fornecimento de informações de maneira completa em meio físico ou digital aberto ao público, a informação referida no inciso I do caput deste artigo será também fornecida, quando couber, com o uso de ícones ou símbolos facilmente reconhecíveis.

§ 2º Pessoas expostas a sistemas de reconhecimento de emoções ou a sistemas de categorização biométrica serão informadas sobre a utilização e o funcionamento do sistema no ambiente em que ocorrer a exposição.

§ 3º Os sistemas de inteligência artificial que se destinem a grupos vulneráveis, tais como crianças, adolescentes, idosos e pessoas com deficiência, serão desenvolvidos de tal modo que essas pessoas consigam entender seu funcionamento e seus direitos em face dos agentes de inteligencia artificial.

Art. 8º A pessoa afetada por sistema de inteligência artificial poderá solicitar explicação sobre a decisão, previsão ou recomendação, com informações a respeito dos critérios e dos procedimentos utilizados, assim como sobre os principais fatores que afetam tal previsão ou decisão específica, incluindo informações sobre:

I – a racionalidade e a lógica do sistema, o significado e as consequências previstas de tal decisão para a pessoa afetada;

II – o grau e o nível de contribuição do sistema de inteligencia artificial para a tomada de decisões;

III – os dados processados e a sua fonte, os critérios para a tomada de decisão e, quando apropriado, a sua ponderação, aplicados à situação da pessoa afetada;

IV – os mecanismos por meio dos quais a pessoa pode contestar a decisão; e

V – a possibilidade de solicitar intervenção humana, nos termos desta Lei.

Parágrafo único. As informações mencionadas no caput serão fornecidas por procedimento gratuito e facilitado, em linguagem que permita que a pessoa compreenda o resultado da decisão ou previsão em questão, no prazo de até quinze dias a contar da solicitação, permitida a prorrogação, uma vez, por igual período, a depender da complexidade do caso.

Seção III.- Do direito de contestar decisões e de solicitar intervenção humana

Art. 9º A pessoa afetada por sistema de inteligência artificial terá o direito de contestar e de solicitar a revisão de decisões, recomendações ou previsões geradas por tal sistema que produzam efeitos jurídicos relevantes ou que impactem de maneira significativa seus interesses.

§ 1º Fica assegurado o direito de correção de dados incompletos, inexatos ou desatualizados utilizados por sistemas de inteligência artificial, assim como o direito de solicitar a anonimização, bloqueio ou eliminação de dados desnecessários, excessivos ou tratados em desconformidade com a legislação, nos termos do art. 18 da Lei nº 13.709, de 14 de agosto de 2018 e da legislação pertinente.

§ 2º O direito à contestação previsto no caput deste artigo abrange também decisões, recomendações ou previsões amparadas em inferencias discriminatórias, irrazoáveis ou que atentem contra a boa-fé objetiva, assim compreendidas as inferências que:

I – sejam fundadas em dados inadequados ou abusivos para as finalidades do tratamento;

II – sejam baseadas em métodos imprecisos ou estatisticamente não confiáveis; ou

III – não considerem de forma adequada a individualidade e as características pessoais dos indivíduos.

Art. 10. Quando a decisão, previsão ou recomendação de sistema de inteligência artificial produzir efeitos jurídicos relevantes ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de perfis e da realização de inferências, esta poderá solicitar a intervenção ou revisão humana.

Parágrafo único. A intervenção ou revisão humana não será exigida caso a sua implementação seja comprovadamente impossível, hipótese na qual o responsável pela operação do sistema de inteligência artificial implementará medidas alternativas eficazes, a fim de assegurar a reanálise da

decisão contestada, levando em consideração os argumentos suscitados pela pessoa afetada, assim como a reparação de eventuais danos gerados.

Art. 11. Em cenários nos quais as decisões, previsões ou recomendações geradas por sistemas de inteligência artificial tenham um impacto irreversível ou de difícil reversão ou envolvam decisões que possam gerar riscos à vida ou à integridade física de indivíduos, haverá envolvimento humano significativo no processo decisório e determinação humana final.

Seção IV.- Do direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos

Art. 12. As pessoas afetadas por decisões, previsões ou recomendações de sistemas de inteligência artificial têm direito a tratamento justo e isonômico, sendo vedadas a implementação e o uso de sistemas de inteligência artificial que possam acarretar discriminação direta, indireta, ilegal ou abusiva, inclusive:

I – em decorrência do uso de dados pessoais sensíveis ou de impactos desproporcionais em razão de características pessoais como origen geográfica, raça, cor ou etnia, gênero, orientação sexual, clase socioeconômica, idade, deficiência, religião ou opiniões políticas; ou

II – em função do estabelecimento de desvantagens ou agravamento da situação de vulnerabilidade de pessoas pertencentes a um grupo específico, ainda que se utilizem critérios aparentemente neutros.

Parágrafo único. A vedação prevista no caput não impede a adoção de critérios de diferenciação entre indivíduos ou grupos quando tal diferenciação se dê em função de objetivos ou justificativas demonstradas, razoáveis e legítimas à luz do direito à igualdade e dos demais direitos fundamentais.

CAPÍTULO III.- DA CATEGORIZAÇÃO DOS RISCOS

Seção I.- Avaliação preliminar

Art. 13. Previamente a sua colocação no mercado ou utilização em serviço, todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco, cujo registro considerará os critérios previstos neste capítulo.

§ 1º Os fornecedores de sistemas de inteligência artificial de propósito geral incluirão em sua avaliação preliminar as finalidades ou aplicações indicadas, nos termos do art. 17 desta lei.

§ 2º Haverá registro e documentação da avaliação preliminar realizada pelo fornecedor para fins de responsabilização e prestação de contas no caso de o sistema de inteligência artificial não ser classificado como de risco alto.

§ 3º A autoridade competente poderá determinar a reclassificação do sistema de inteligência artificial, mediante notificação prévia, bem como determinar a realização de avaliação de impacto algorítmico para instrução da investigação em curso.

§ 4º Se o resultado da reclassificação identificar o sistema de inteligência artificial como de alto risco, a realização de avaliação de impacto algorítmico e a adoção das demais medidas de governança previstas no Capítulo IV serão obrigatórias, sem prejuízo de eventuais penalidades em caso de avaliação preliminar fraudulenta, incompleta ou inverídica.

Seção II.- Risco Excessivo

Art. 14. São vedadas a implementação e o uso de sistemas de inteligência artificial:

I – que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança ou contra os fundamentos desta Lei;

II – que explorem quaisquer vulnerabilidades de grupos específicos de pessoas naturais, tais como as associadas a sua idade ou deficiência física ou mental, de modo a induzi-las a se comportar de forma prejudicial a sua saúde ou segurança ou contra os fundamentos desta Lei;

III – pelo poder público, para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional.

Art. 15. No âmbito de atividades de segurança pública, somente é permitido o uso de sistemas de identificação biométrica à distância, de forma contínua em espaços acessíveis ao público, quando houver previsão em lei federal específica e autorização judicial em conexão com a atividade de persecução penal individualizada, nos seguintes casos:

I – persecução de crimes passíveis de pena máxima de reclusão superior a dois anos;

II – busca de vítimas de crimes ou pessoas desaparecidas; ou

III – crime em flagrante.

Parágrafo único. A lei a que se refere o caput preverá medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal e o controle judicial, bem como os princípios e direitos previstos nesta Lei, especialmente a garantia contra a discriminação e a necessidade de revisão da inferência algorítmica pelo agente público responsável, antes da tomada de qualquer ação em face da pessoa identificada.

Art. 16. Caberá à autoridade competente regulamentar os sistemas de inteligência artificial de risco excessivo.

Seção III.- Alto Risco

Art. 17. São considerados sistemas de inteligência artificial de alto risco aqueles utilizados para as seguintes finalidades:

I – aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade;

II – educação e formação profissional, incluindo sistemas de determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudantes;

III – recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas afetadas por tais aplicações de inteligencia artificial nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria;

IV – avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços públicos de assistência e de seguridade;

V – avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito;

VI – envio ou estabelecimento de prioridades para serviços de resposta a emergências, incluindo bombeiros e assistência médica;

VII – administração da justiça, incluindo sistemas que auxiliem autoridades judiciárias na investigação dos fatos e na aplicação da lei;

VIII – veículos autônomos, quando seu uso puder gerar riscos à integridade física de pessoas;

IX – aplicações na área da saúde, inclusive as destinadas a auxiliar diagnósticos e procedimentos médicos;

X – sistemas biométricos de identificação;

XI – investigação criminal e segurança pública, em especial para avaliações individuais de riscos pelas autoridades competentes, a fim de determinar o risco de uma pessoa cometer infrações ou de reincidir, ou o risco para potenciais vítimas de infrações penais ou para avaliar os traços de personalidade e as características ou o comportamento criminal passado de pessoas singulares ou grupos;

XII – estudo analítico de crimes relativos a pessoas naturais, permitindo às autoridades policiais pesquisar grandes conjuntos de dados complexos, relacionados ou não relacionados, disponíveis em diferentes fontes de dados ou em diferentes formatos de dados, no intuito de identificar padres desconhecidos ou descobrir relações escondidas nos dados;

XIII – investigação por autoridades administrativas para avaliar a credibilidade dos elementos de prova no decurso da investigação ou repressão de infrações, para prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares; ou

XIV – gestão da migração e controle de fronteiras.

Art. 18. Caberá à autoridade competente atualizar a lista dos sistemas de inteligência artificial de risco excessivo ou de alto risco, identificando novas hipóteses, com base em, pelo menos, um dos seguintes critérios:

I – a implementação ser em larga escala, levando-se em consideração o número de pessoas afetadas e a extensão geográfica, bem como a sua duração e frequência;

II – o sistema puder impactar negativamente o exercício de direitos e liberdades ou a utilização de um serviço;

III – o sistema tiver alto potencial danoso de ordem material ou moral, bem como discriminatório;

IV – o sistema afetar pessoas de um grupo específico vulnerável;

V – serem os possíveis resultados prejudiciais do sistema de inteligência artificial irreversíveis ou de difícil reversão;

VI – um sistema de inteligência artificial similar ter causado anteriormente danos materiais ou morais;

VII – baixo grau de transparência, explicabilidade e auditabilidade do sistema de inteligência artificial, que dificulte o seu controle ou supervisão;

VIII – alto nível de identificabilidade dos titulares dos dados, incluindo o tratamento de dados genéticos e biométricos para efeitos de identificação única de uma pessoa singular, especialmente quando o tratamento inclui combinação, correspondência ou comparação de dados de várias fontes;

IX – quando existirem expectativas razoáveis do afetado quanto ao uso de seus dados pessoais no sistema de inteligência artificial, em especial a expectativa de confidencialidade, como no tratamento de dados sigilosos ou sensíveis.

Parágrafo único. A atualização da lista mencionada no caput pela autoridade competente será precedida de consulta ao órgão regulador setorial competente, se houver, assim como de consulta e de audiência públicas e de análise de impacto regulatório.

CAPÍTULO IV.- DA GOVERNANÇA DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

Seção I.- Disposições Gerais

Art. 19. Os agentes de inteligência artificial estabelecerão estruturas de governança e processos internos aptos a garantir a segurança dos sistemas e o atendimento dos direitos de pessoas afetadas, nos termos previstos no Capítulo II desta Lei e da legislação pertinente, que incluirão, pelo menos:

I – medidas de transparência quanto ao emprego de sistemas de inteligência artificial na interação com pessoas naturais, o que inclui o uso de interfaces ser humano-máquina adequadas e suficientemente claras e informativas;

II – transparência quanto às medidas de governança adotadas no desenvolvimento e emprego do sistema de inteligência artificial pela organização;

III – medidas de gestão de dados adequadas para a mitigação e prevenção de potenciais vieses discriminatórios;

IV – legitimação do tratamento de dados conforme a legislação de proteção de dados, inclusive por meio da adoção de medidas de privacidade desde a concepção e por padrão e da adoção de técnicas que minimizem o uso de dados pessoais;

V – adoção de parâmetros adequados de separação e organização dos dados para treinamento, teste e validação dos resultados do sistema; e

VI – adoção de medidas adequadas de segurança da informação desde a concepção até a operação do sistema.

§ 1º As medidas de governança dos sistemas de inteligencia artificial são aplicáveis ao longo de todo o seu ciclo de vida, desde a concepção inicial até o encerramento de suas atividades e descontinuação.

§ 2º A documentação técnica de sistemas de inteligência artificial de alto risco será elaborada antes de sua disponibilização no mercado ou de seu uso para prestação de serviço e será mantida atualizada durante sua utilização.

Seção II.- Medidas de Governança para Sistemas de Inteligência Artificial de Alto Risco

Art. 20. Além das medidas indicadas no art. 19, os agentes de inteligência artificial que forneçam ou operem sistemas de alto risco adotarão as seguintes medidas de governança e processos internos:

I – documentação, no formato adequado ao processo de desenvolvimento e à tecnologia usada, a respeito do funcionamento do sistema e das decisões envolvidas em sua construção, implementação e uso, considerando todas as etapas relevantes no ciclo de vida do sistema, tais como estágio de design, de desenvolvimento, de avaliação, de operação e de descontinuação do sistema;

II – uso de ferramentas de registro automático da operação do sistema, de modo a permitir a avaliação de sua acurácia e robustez e a apurar potenciais discriminatórios, e implementação das medidas de mitigação de riscos adotadas, com especial atenção para efeitos adversos;

III – realização de testes para avaliação de níveis apropriados de confiabilidade, conforme o setor e o tipo de aplicação do sistema de inteligencia artificial, incluindo testes de robustez, acurácia, precisão e cobertura;

IV – medidas de gestão de dados para mitigar e prevenir vieses discriminatórios, incluindo:

a) avaliação dos dados com medidas apropriadas de controle de vieses cognitivos humanos que possam afetar a coleta e organização dos dados e para evitar a geração de vieses por problemas na classificação, falhas ou falta de informação em relação a grupos afetados, falta de cobertura ou distorções em representatividade, conforme a aplicação pretendida, bem como medidas corretivas para evitar a incorporação de vieses sociais estruturais que possam ser perpetuados e ampliados pela tecnologia; e

b) composição de equipe inclusiva responsável pela concepção e desenvolvimento do sistema, orientada pela busca da diversidade.

V – adoção de medidas técnicas para viabilizar a explicabilidade dos resultados dos sistemas de inteligência artificial e de medidas para disponibilizar aos operadores e potenciais impactados informações gerais sobre o funcionamento do modelo de inteligência artificial empregado, explicitando a lógica e os critérios relevantes para a produção de resultados, bem como, mediante requisição do interessado, disponibilizar informações adequadas que permitam a interpretação dos resultados concretamente produzidos, respeitado o sigilo industrial e comercial.

Parágrafo único. A supervisão humana de sistemas de inteligencia artificial de alto risco buscará prevenir ou minimizar os riscos para direitos e liberdades das pessoas que possam decorrer de seu uso normal ou de seu uso em condições de utilização indevida razoavelmente previsíveis, viabilizando que as pessoas responsáveis pela supervisão humana possam:

I – compreender as capacidades e limitações do sistema de inteligência artificial e controlar devidamente o seu funcionamento, de modo que sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser identificados e resolvidos o mais rapidamente possível;

II – ter ciência da possível tendência para confiar automáticamente ou confiar excessivamente no resultado produzido pelo sistema de inteligencia artificial;

III – interpretar corretamente o resultado do sistema de inteligência artificial tendo em conta as características do sistema e as ferramentas e os métodos de interpretação disponíveis;

IV – decidir, em qualquer situação específica, por não usar o sistema de inteligência artificial de alto risco ou ignorar, anular ou reverter seu resultado; e

V – intervir no funcionamento do sistema de inteligência artificial de alto risco ou interromper seu funcionamento.

Art. 21. Adicionalmente às medidas de governança establecidas neste capítulo, órgãos e entidades do poder público da União, Estados, Distrito Federal e Municípios, ao contratar, desenvolver ou utilizar sistemas de inteligência artificial considerados de alto risco, adotarão as seguintes medidas:

I – realização de consulta e audiência públicas prévias sobre a utilização planejada dos sistemas de inteligência artificial, com informações sobre os dados a serem utilizados, a lógica geral de funcionamento e resultados de testes realizados;

II – definição de protocolos de acesso e de utilização do sistema que permitam o registro de quem o utilizou, para qual situação concreta, e com qual finalidade;

III – utilização de dados provenientes de fontes seguras, que sejam exatas, relevantes, atualizadas e representativas das populações afetadas e testadas contra vieses discriminatórios, em conformidade com a Lei nº 13.709, de 14 de agosto de 2018, e seus atos regulamentares;

IV – garantia facilitada e efetiva ao cidadão, perante o poder público, de direito à explicação e revisão humanas de decisão por sistemas de inteligência artificial que gerem efeitos jurídicos relevantes ou que impactem significativamente os interesses do afetado, a ser realizada pelo agente público competente;

V – utilização de interface de programação de aplicativos que permita sua utilização por outros sistemas para fins de interoperabilidade, na forma da regulamentação; e

VI – publicização em veículos de fácil acesso, preferencialmente em seus sítios eletrônicos, das avaliações preliminares dos sistemas de inteligência artificial desenvolvidos, implementados ou utilizados pelo poder público da União, Estados, Distrito Federal e Municípios, independientemente do grau de risco, sem prejuízo do disposto no art. 43.

§ 1º A utilização de sistemas biométricos pelo poder público da União, Estados, Distrito Federal e Municípios será precedida da edição de ato normativo que estabeleça garantias para o exercício dos direitos da pessoa afetada e proteção contra a discriminação direta, indireta, ilegal ou abusiva, vedado o tratamento de dados de raça, cor ou etnia, salvo previsão expressa em lei.

§ 2º Na impossibilidade de eliminação ou mitigação substantiva dos riscos associados ao sistema de inteligência artificial identificados na avaliação de impacto algorítmico prevista no artigo 22 desta Lei, sua utilização será descontinuada.

Seção III.- Avaliação de Impacto Algorítmico

Art. 22. A avaliação de impacto algorítmico de sistemas de inteligência artificial é obrigação dos agentes de inteligência artificial, sempre que o sistema for considerado como de alto risco pela avaliação preliminar.

Parágrafo único. A autoridade competente será notificada sobre o sistema de alto risco, mediante o compartilhamento das avaliações preliminar e de impacto algorítmico.

Art. 23. A avaliação de impacto algorítmico será realizada por profissional ou equipe de profissionais com conhecimentos técnicos, científicos e jurídicos necessários para realização do relatório e com independencia funcional.

Parágrafo único. Caberá à autoridade competente regulamentar os casos em que a realização ou auditoria da avaliação de impacto será necessariamente conduzida por profissional ou equipe de profissionais externos ao fornecedor;

Art. 24. A metodologia da avaliação de impacto conterá, ao menos, as seguintes etapas:

I – preparação;

II – cognição do risco;

III – mitigação dos riscos encontrados;

IV – monitoramento.

§ 1º A avaliação de impacto considerará e registrará, ao menos:

a) riscos conhecidos e previsíveis associados ao sistema de inteligência artificial à época em que foi desenvolvido, bem como os riscos que podem razoavelmente dele se esperar;

b) benefícios associados ao sistema de inteligência artificial;

c) probabilidade de consequências adversas, incluindo o número de pessoas potencialmente impactadas;

d) gravidade das consequências adversas, incluindo o esforço necessário para mitigá-las;

e) lógica de funcionamento do sistema de inteligência artificial;

f) processo e resultado de testes e avaliações e medidas de mitigação realizadas para verificação de possíveis impactos a direitos, com especial destaque para potenciais impactos discriminatórios;

g) treinamento e ações de conscientização dos riscos associados ao sistema de inteligência artificial;

h) medidas de mitigação e indicação e justificação do risco residual do sistema de inteligência artificial, acompanhado de testes de controle de qualidade frequentes; e

i) medidas de transparência ao público, especialmente aos potenciais usuários do sistema, a respeito dos riscos residuais, principalmente quando envolver alto grau de nocividade ou periculosidade à saúde ou segurança dos usuários, nos termos dos artigos 9º e 10 da Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor).

§ 2º Em atenção ao princípio da precaução, quando da utilização de sistemas de inteligência artificial que possam gerar impactos irreversíveis ou de difícil reversão, a avaliação de impacto algorítmico levará em consideração também as evidências incipientes, incompletas ou especulativas.

§ 3º A autoridade competente poderá estabelecer outros critérios e elementos para a elaboração de avaliação de impacto, incluindo a participação dos diferentes segmentos sociais afetados, conforme risco e porte económico da organização.

§ 4º Caberá à autoridade competente a regulamentação da periodicidade de atualização das avaliações de impacto, considerando o ciclo de vida dos sistemas de inteligência artificial de alto risco e os campos de aplicação, podendo incorporar melhores práticas setoriais.

§ 5º Os agentes de inteligência artificial que, posteriormente à sua introdução no mercado ou utilização em serviço, tiverem conhecimento de risco inesperado que apresentem a direitos de pessoas naturais, comunicará o fato imediatamente às autoridades competente e às pessoas afetadas pelo sistema de inteligência artificial.

Art. 25. A avaliação de impacto algorítmico consistirá em processo iterativo contínuo, executado ao longo de todo o ciclo de vida dos sistemas de inteligência artificial de alto risco, requeridas atualizações periódicas.

§ 1º Caberá à autoridade competente a regulamentação da periodicidade de atualização das avaliações de impacto.

§ 2º A atualização da avaliação de impacto algorítmico contará também com participação pública, a partir de procedimento de consulta a partes interessadas, ainda que de maneira simplificada.

Art. 26. Garantidos os segredos industrial e comercial, as conclusões da avaliação de impacto serão públicas, contendo ao menos as seguintes informações:

I – descrição da finalidade pretendida para a qual o sistema será utilizado, assim como de seu contexto de uso e escopo territorial e temporal;

II – medidas de mitigação dos riscos, bem como o seu patamar residual, uma vez implementada tais medidas; e III – descrição da participação de diferentes segmentos afetados, caso tenha ocorrido, nos termos do § 3º do art. 24 desta Lei.

CAPÍTULO V.- DA RESPONSABILIDADE CIVIL

Art. 27. O fornecedor ou operador de sistema de inteligencia artificial que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema.

§ 1º Quando se tratar de sistema de inteligência artificial de alto risco ou de risco excessivo, o fornecedor ou operador respondem objetivamente pelos danos causados, na medida de sua participação no dano.

§ 2º Quando não se tratar de sistema de inteligência artificial de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.

Art. 28. Os agentes de inteligência artificial não serão responsabilizados quando:

I – comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; ou II – comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo.

Art. 29. As hipóteses de responsabilização civil decorrentes de danos causados por sistemas de inteligência artificial no âmbito das relações de consumo permanecem sujeitas às regras previstas na Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), sem prejuízo da aplicação das demais normas desta Lei.

CAPÍTULO VI.- CÓDIGOS DE BOAS PRÁTICAS E DE GOVERNANÇA

Art. 30. Os agentes de inteligência artificial poderão, individualmente ou por meio de associações, formular códigos de boas práticas e de governança que estabeleçam as condições de organização, o regime de funcionamento, os procedimentos, inclusive sobre reclamações das pessoas afetadas, as normas de segurança, os padrões técnicos, as obrigações específicas para cada contexto de implementação, as ações educativas, os mecanismos internos de supervisão e de mitigação de riscos e as medidas de segurança técnicas e organizacionais apropriadas para a gestão dos riscos decorrentes da aplicação dos sistemas.

§ 1º Ao se estabelecerem regras de boas práticas, serão consideradas a finalidade, a probabilidade e a gravidade dos riscos e dos benefícios decorrentes, a exemplo da metodologia disposta no art. 24 desta Lei.

§ 2º Os desenvolvedores e operadores de sistemas de inteligencia artificial, poderão:

I – implementar programa de governança que, no mínimo:

a) demonstre o seu comprometimento em adotar processos e políticas internas que assegurem o cumprimento, de forma abrangente, de normas e boas práticas relativas à não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial;

b) seja adaptado à estrutura, à escala e ao volume de suas operações, bem como ao seu potencial danoso;

c) tenha o objetivo de estabelecer relação de confiança com as pessoas afetadas, por meio de atuação transparente e que assegure mecanismos de participação nos termos do art. 24, § 3º, desta Lei;

d) esteja integrado a sua estrutura geral de governança e estabeleça e aplique mecanismos de supervisão internos e externos;

e) conte com planos de resposta para reversão dos possíveis resultados prejudiciais do sistema de inteligência artificial; e

f) seja atualizado constantemente com base em informações obtidas a partir de monitoramento contínuo e avaliações periódicas.

§ 3º A adesão voluntária a código de boas práticas e governança pode ser considerada indicativo de boa-fé por parte do agente e será levada em consideração pela autoridade competente para fins de aplicação de sanções administrativas.

§ 4º A autoridade competente poderá estabelecer procedimento de análise de compatibilidade do código de conduta com a legislação vigente, com vistas à sua aprovação, publicização e atualização periódica.

CAPÍTULO VII.- DA COMUNICAÇÃO DE INCIDENTES GRAVES

Art. 31. Os agentes de inteligência artificial comunicarão à autoridade competente a ocorrência de graves incidentes de segurança, incluindo quando houver risco à vida e integridade física de pessoas, a interrupção de funcionamento de operações críticas de infraestrutura, graves danos à propriedade ou ao meio ambiente, bem como graves violações aos direitos fundamentais, nos termos do regulamento.

§ 1º A comunicação será feita em prazo razoável, conforme definido pela autoridade competente.

§ 2º A autoridade competente verificará a gravidade do incidente e poderá, caso necessário, determinar ao agente a adoção de providências e medidas para reverter ou mitigar os efeitos do incidente.

CAPÍTULO VIII.- DA SUPERVISÃO E FISCALIZAÇÃO

Seção I.- Da Autoridade Competente

Art. 32. O Poder Executivo designará autoridade competente para zelar pela implementação e fiscalização da presente Lei.

Parágrafo único. Cabe à autoridade competente:

I – zelar pela proteção a direitos fundamentais e a demais direitos afetados pela utilização de sistemas de inteligência artificial;

II – promover a elaboração, atualização e implementação da Estratégia Brasileira de Inteligência Artificial junto aos órgãos de competencia correlata;

III – promover e elaborar estudos sobre boas práticas no desenvolvimento e utilização de sistemas de inteligência artificial;

IV – estimular a adoção de boas práticas, inclusive códigos de conduta, no desenvolvimento e utilização de sistemas de inteligência artificial;

V – promover ações de cooperação com autoridades de proteção e de fomento ao desenvolvimento e à utilização dos sistemas de inteligencia artificial de outros países, de natureza internacional ou transnacional;

VI – expedir normas para a regulamentação desta Lei, inclusive sobre:

a) procedimentos associados ao exercício dos direitos previstos nesta Lei;

b) procedimentos e requisitos para elaboração da avaliação de impacto algorítmico;

c) forma e requisitos das informações a serem publicizadas sobre a utilização de sistemas de inteligência artificial; e

d) procedimentos para certificação do desenvolvimento e utilização de sistemas de alto risco.

VII – articular-se com as autoridades reguladoras públicas para exercer suas competências em setores específicos de atividades econômicas e governamentais sujeitas à regulação;

VIII – fiscalizar, de modo independente ou em conjunto com outros órgãos públicos competentes, a divulgação das informações previstas nos arts. 7º e 43;

IX – fiscalizar e aplicar sanções, em caso de desenvolvimento ou utilização de sistemas de inteligência artificial realizado em descumprimento à legislação, mediante processo administrativo que assegure o contraditório, a ampla defesa e o direito de recurso;

X – solicitar, a qualquer momento, às entidades do poder público que desenvolvam ou utilizem sistemas de inteligência artificial, informe específico sobre o âmbito, a natureza dos dados e os demais detalhes do tratamento realizado, com a possibilidade de emitir parecer técnico complementar para garantir o cumprimento desta Lei;

XI – celebrar, a qualquer momento, compromisso com agentes de inteligência artificial para eliminar irregularidade, incerteza jurídica ou situação contenciosa no âmbito de processos administrativos, de acordo com o previsto no Decreto-Lei nº 4.657, de 4 de setembro de 1942;

XII – apreciar petições em face do operador de sistema de inteligência artificial, após comprovada apresentação de reclamação não solucionada no prazo estabelecido em regulamentação; e

XIII – elaborar relatórios anuais acerca de suas atividades.

Parágrafo único. Ao exercer as atribuições do caput, o órgão competente poderá estabelecer condições, requisitos, canais de comunicação e divulgação diferenciados para fornecedores e operadores de sistemas de inteligência artificial qualificados como micro ou pequenas empresas, nos termos da Lei Complementar nº 123, de 14 de dezembro de 2006, e startups, nos termos da Lei Complementar nº 182, de 1º de junho de 2021.

Art. 33. A autoridade competente será o órgão central de aplicação desta Lei e do estabelecimento de normas e diretrizes para a sua implementação.

Art. 34. A autoridade competente e os órgãos e entidades públicas responsáveis pela regulação de setores específicos da atividade econômica e governamental coordenarão suas atividades, nas correspondentes esferas de atuação, com vistas a assegurar o cumprimento desta Lei.

§ 1º A autoridade competente manterá fórum permanente de comunicação, inclusive por meio de cooperação técnica, com órgãos e entidades da administração pública responsáveis pela regulação de setores específicos da atividade econômica e governamental, a fim de facilitar as suas competências regulatória, fiscalizatória e sancionatória.

§ 2º Nos ambientes regulatórios experimentais (sandbox regulatório) que envolvam sistemas de inteligência artificial, conduzidos por órgãos e entidades públicas responsáveis pela regulação de setores específicos da atividade econômica, a autoridade competente será cientificada, podendo se manifestar quanto ao cumprimento das finalidades e princípios desta lei.

Art. 35. Os regulamentos e as normas editados pela autoridade competente serão precedidos de consulta e audiência públicas, bem como de análises de impacto regulatório, nos termos dos arts. 6º a 12 da Lei nº 13.848, de 25 de junho de 2019, no que cabível.

Seção II.- Das Sanções Administrativas

Art. 36. Os agentes de inteligência artificial, em razão das infrações cometidas às normas previstas nesta Lei, ficam sujeitos às seguintes sanções administrativas aplicáveis pela autoridade competente:

I – advertência;

II – multa simples, limitada, no total, a R$ 50.000.000,00 (cinquenta milhões de reais) por infração, sendo, no caso de pessoa jurídica de direito privado, de até 2% (dois por cento) de seu faturamento, de seu grupo ou conglomerado no Brasil no seu último exercício, excluídos os tributos;

III – publicização da infração após devidamente apurada e confirmada a sua ocorrência;

IV – proibição ou restrição para participar de regime de sandbox regulatório previsto nesta Lei, por até cinco anos;

V – suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de inteligencia artificial; e

VI – proibição de tratamento de determinadas bases de dados.

§ 1º As sanções serão aplicadas após procedimento administrativo que possibilite a oportunidade da ampla defesa, de forma gradativa, isolada ou cumulativa, de acordo com as peculiaridades do caso concreto e considerados os seguintes parâmetros e critérios:

I – a gravidade e a natureza das infrações e a eventual violação de direitos;

II – a boa-fé do infrator;

III – a vantagem auferida ou pretendida pelo infrator;

IV – a condição econômica do infrator;

V – a reincidência;

VI – o grau do dano;

VII – a cooperação do infrator;

VIII – a adoção reiterada e demonstrada de mecanismos e procedimentos internos capazes de minimizar riscos, inclusive a análise de impacto algorítmico e efetiva implementação de código de ética;

IX – a adoção de política de boas práticas e governança;

X – a pronta adoção de medidas corretivas;

XI – a proporcionalidade entre a gravidade da falta e a intensidade da sanção; e

XII – a cumulação com outras sanções administrativas eventualmente já aplicadas em definitivo para o mesmo ato ilícito.

§ 2º Antes ou durante o processo administrativo do § 1º, poderá a autoridade competente adotar medidas preventivas, incluída multa cominatória, observado o limite total a que se refere o inciso II do caput, quando houver indício ou fundado receio de que o agente de inteligência artificial:

I – cause ou possa causar lesão irreparável ou de difícil reparação; ou

II – torne ineficaz o resultado final do processo.

§ 3º O disposto neste artigo não substitui a aplicação de sanções administrativas, civis ou penais definidas na Lei nº 8.078, de 11 de setembro de 1990, na Lei nº 13.709, de 14 de agosto de 2018, e em legislação específica.

§ 4º No caso do desenvolvimento, fornecimento ou utilização de sistemas de inteligência artificial de risco excessivo haverá, no mínimo, aplicação de multa e, no caso de pessoa jurídica, a suspensão parcial ou total, provisória ou definitiva de suas atividades.

§ 5º A aplicação das sanções previstas neste artigo não exclui, em qualquer hipótese, a obrigação da reparação integral do dano causado, nos termos do art. 27.

Art. 37. A autoridade competente definirá, por meio de regulamento próprio, o procedimento de apuração e critérios de aplicação das sanções administrativas a infrações a esta Lei, que serão objeto de consulta pública, sem prejuízo das disposições do Decreto-Lei nº 4.657, de 4 de setembro de 1942, Lei nº 9.784, de 29 de janeiro de 1999, e demais disposições legais pertinentes.

Parágrafo único. As metodologias a que se refere o caput deste artigo serão previamente publicadas e apresentarão objetivamente as formas e dosimetrias das sanções, que conterão fundamentação detalhada de todos os seus elementos, demonstrando a observância dos critérios previstos nesta Lei.

Seção III.- Medidas para fomentar a inovação

Art. 38. A autoridade competente poderá autorizar o funcionamento de ambiente regulatório experimental para inovação em inteligência artificial (sandbox regulatório) para as entidades que o requererem e preencherem os requisitos especificados por esta Lei e em regulamentação.

Art. 39. As solicitações de autorização para sandboxes regulatórios serão apresentadas ao órgão competente por meio de projeto cujas características contemplem, entre outras:

I – inovação no emprego da tecnologia ou no uso alternativo de tecnologias existentes;

II – aprimoramentos no sentido de ganhos de eficiência, redução de custos, aumento de segurança, diminuição de riscos, benefícios à sociedade e a consumidores, entre outros;

III – plano de descontinuidade, com previsão de medidas a serem tomadas para assegurar a viabilidade operacional do projeto uma vez encerrado o período da autorização do sandbox regulatório.

Art. 40. A autoridade competente editará regulamentação para estabelecer os procedimentos para a solicitação e autorização de funcionamento de sandboxes regulatórios, podendo limitar ou interromper o seu funcionamento, bem como emitir recomendações, levando em consideração, dentre outros aspectos, a preservação de direitos fundamentais, de direitos dos consumidores potencialmente afetados e a segurança e proteção dos dados pessoais que forem objeto de tratamento.

Art. 41. Os participantes no ambiente de testagem da regulamentação da inteligência artificial continuam a ser responsáveis, nos termos da legislação aplicável em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem.

Art. 42. Não constitui ofensa a direitos autorais a utilização automatizada de obras, como extração, reprodução, armazenamento e transformação, em processos de mineração de dados e textos em sistemas de inteligência artificial, nas atividades feitas por organizações e instituições de pesquisa, de jornalismo e por museus, arquivos e bibliotecas, desde que:

I – não tenha como objetivo a simples reprodução, exibição ou disseminação da obra original em si;

II – o uso ocorra na medida necessária para o objetivo a ser alcançado;

III – não prejudique de forma injustificada os intereses econômicos dos titulares; e

IV – não concorra com a exploração normal das obras.

§ 1º Eventuais reproduções de obras para a atividade de mineração de dados serão mantidas em estritas condições de segurança, e apenas pelo tempo necessário para a realização da atividade ou para a finalidade específica de verificação dos resultados da pesquisa científica.

§ 2º Aplica-se o disposto no caput à atividade de mineração de dados e textos para outras atividades analíticas em sistemas de inteligencia artificial, cumpridas as condições dos incisos do caput e do § 1º, desde que as atividades não comuniquem a obra ao público e que o acesso às obras tenha se dado de forma legítima.

§ 3º A atividade de mineração de textos e dados que envolva dados pessoais estará sujeita às disposições da Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais).

Seção IV.- Base de dados pública de inteligência artificial

Art. 43. Cabe à autoridade competente a criação e manutenção de base de dados de inteligência artificial de alto risco, acessível ao público, que contenha os documentos públicos das avaliações de impacto, respeitados os segredos comercial e industrial, nos termos do regulamento.

CAPÍTULO IX.- DAS DISPOSIÇÕES FINAIS

Art. 44. Os direitos e princípios expressos nesta Lei não excluem outros previstos no ordenamento jurídico pátrio ou nos tratados internacionais em que a República Federativa do Brasil seja parte.

Art. 45. Esta Lei entra em vigor um ano após a sua publicação.

JUSTIFICAÇÃO

O desenvolvimento e a popularização das tecnologias de inteligência artificial têm revolucionado diversas áreas da atividade humana.

Além disso, as previsões apontam que a inteligência artificial (IA) provocará mudanças econômicas e sociais ainda mais profundas num futuro próximo.

Reconhecendo a relevância dessa questão, algumas proposições legislativas foram recentemente apresentadas, tanto no Senado Federal quanto na Câmara dos Deputados, com o objetivo de estabelecer balizas para o desenvolvimento e a aplicação de sistemas de inteligência artificial no Brasil.

Em particular, destacam-se o Projeto de Lei (PL) nº 5.051, de 2019, de autoría do Senador Styvenson Valentim, que estabelece os princípios para o uso da Inteligência Artificial no Brasil; o PL nº 21, de 2020, do Deputado Federal Eduardo Bismarck, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá otras providências, e que foi aprovado pela Câmara dos Deputados; e o PL nº 872, de 2021, do Senador Veneziano Vital do Rêgo, que dispõe sobre o uso da Inteligência Artificial.

Em 3 de fevereiro de 2022, esses três projetos passaram a tramitar conjuntamente no Senado Federal e, em sequência, em 17 de fevereiro do mesmo ano, por meio do Ato do Presidente do Senado Federal nº 4, de 2022, de minha autoria, por sugestão do Senador Eduardo Gomes, tendo em mente a elaboração de um texto legal com a mais avançada tecnicidade, foi instituída a Comissão de Juristas destinada a subsidiar a elaboração de minuta de substitutivo a eles.

Composta por notórios juristas, a comissão teve como membros grandes especialistas nos ramos do direito civil e do direito digital, aos quais agradeço o tempo, a dedicação e o compartilhamento do texto final, que ora apresento.

Integraram o colegiado: o Ministro do Superior Tribunal de Justiça, Ricardo Villas Bôas Cueva (Presidente); Laura Schertel Ferreira Mendes (Relatora); Ana de Oliveira Frazão; Bruno Ricardo Bioni; Danilo Cesar Maganhoto Doneda (in memoriam); Fabrício de Mota Alves; Miriam Wimmer; Wederson Advincula Siqueira; Claudia Lima Marques; Juliano Souza de Albuquerque Maranhão; Thiago Luís Santos Sombra; Georges Abboud; Frederico Quadros D’Almeida; Victor Marcel Pinheiro; Estela Aranha; Clara Iglesias Keller; Mariana Giorgetti Valente e Filipe José Medon Affonso. Não poderia deixar de agradecer, ademais, ao corpo técnico do Senado Federal, em especial à Consultoria Legislativa e aos servidores que prestaram suporte ao colegiado: Reinilson Prado dos Santos; Renata Felix Perez e Donaldo Portela Rodrigues.

A referida Comissão realizou uma série de audiências públicas, além de seminário internacional, ouvindo mais de setenta especialistas sobre a matéria, representantes de diversos segmentos: sociedade civil organizada, governo, academia e setor privado. Abriu ainda oportunidade para a participação de quaisquer interessados, por meio de contribuições escritas, tendo recebido 102 manifestações, individualmente analisadas e organizadas de acordo com suas propostas. Finalmente, a Comissão demandou à Consultoria Legislativa do Senado Federal estudo sobre a regulamentação da inteligência artificial em mais de trinta países integrantes da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), o que permitiu analizar o panorama normativo mundial da matéria.

Com base em todo esse extenso material, em 6 de dezembro de 2022, a Comissão de Juristas apresentou seu relatório final, juntamente com anteprojeto de lei para regulamentação da inteligência artificial.

Nesse contexto, a presente iniciativa se baseia nas conclusões da citada Comissão e busca conciliar, na disciplina legal, a proteção de direitos e liberdades fundamentais, a valorização do trabalho e da dignidade da pessoa humana e a inovação tecnológica representada pela inteligência artificial.

O projeto tem um duplo objetivo. De um lado, estabelece direitos para proteção do elo mais vulnerável em questão, a pessoa natural que já é diariamente impactada por sistemas de inteligência artificial, desde a recomendação de conteúdo e direcionamento de publicidade na Internet até a sua análise de elegibilidade para tomada de crédito e para determinadas políticas públicas. De outro lado, ao dispor de ferramentas de governança e de um arranjo institucional de fiscalização e supervisão, cria condições de previsibilidade acerca da sua interpretação e, em última análise, segurança jurídica para inovação e o desenvolvimento tecnológico.

A proposição parte da premissa, portanto, de que não há um tradeoff entre a proteção de direitos e liberdades fundamentais, da valorização do trabalho e da dignidade da pessoa humana face à ordem econômica e à criação de novas cadeias de valor. Pelo contrário, seus fundamentos e a sua base principiológica buscam tal harmonização, nos termos da Constituição Federal.

Estruturalmente, a proposição estabelece uma regulação baseada em riscos e uma modelagem regulatória fundada em direitos. Apresenta ainda instrumentos de governança para uma adequada prestação de contas dos agentes econômicos desenvolvedores e utilizadores da inteligência artificial, incentivando uma atuação de boa-fé e um eficaz gerenciamento de riscos.

O texto proposto, inicialmente, define fundamentos e principios gerais para o desenvolvimento e utilização dos sistemas de inteligencia artificial, que balizam todas as demais disposições específicas.

Dedica capítulo específico à proteção dos direitos das pessoas afetadas por sistemas de inteligência artificial, no qual: garante acesso apropriado à informação e adequada compreensão das decisões tomadas por esses sistemas; estabelece e regula o direito de contestar decisões automatizadas e de solicitar intervenção humana; e disciplina o direito à nãodiscriminação e à correção de vieses discriminatórios.

Além de fixar direitos básicos e transversais para todo e qualquer contexto em que há interação entre máquina e ser humano, como informação e transparência, intensifica-se tal obrigação quando o sistema de IA produz efeitos jurídicos relevantes ou impactem os sujeitos de maneira significativa (ex: direito de contestação e intervenção humana). Assim, o peso da regulação é calibrado de acordo com os potenciais riscos do contexto de aplicação da tecnologia. Foram estabelecidas, de forma simétrica aos direitos, determinadas medidas gerais e específicas de governança para, respectivamente, sistemas de inteligência artificial com qualquer grau de risco e para os categorizados como de alto risco.

Ao abordar a categorização dos riscos da inteligência artificial, a proposição estabelece a exigência de avaliação preliminar; define as aplicações vedadas, por risco excessivo; e define as aplicações de alto risco, sujeitas a normas de controle mais estritas.

No que tange à governança dos sistemas, o projeto elenca as medidas a serem adotadas para garantir a transparência e a mitigação de vieses; fixa medidas adicionais para sistemas de alto risco e para sistemas governamentais de inteligência artificial; e normatiza o procedimento para a avaliação de impacto algorítmico.

O texto ainda aborda as regras de responsabilização civil envolvendo sistemas de inteligência artificial, definindo inclusive as hipótesis em que os responsáveis por seu desenvolvimento e utilização não serão responsabilizados.

Conforme a gradação de normas de acordo com o risco imposto pelo sistema – que permeia toda a minuta da proposição – faz-se uma diferenciação importante no capítulo da responsabilidade civil: quando se tratar de sistema de IA de alto risco ou de risco excessivo, o fornecedor ou operador respondem objetivamente pelos danos causados, na medida da participação de cada um no dano. E quando se tratar de IA que não seja de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.

O projeto também reforça a proteção contra a discriminação, por meio de diversos instrumentos, como o direito à informação e compreensão, o direito à contestação, e em um direito específico de correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos, além das medidas de governança preventivas. Além de adotar definições sobre discriminação direta e indireta – incorporando, assim, definições da Convenção Interamericana contra o Racismo, promulgada em 2022 –, o texto tem como ponto de atenção grupos (hiper)vulneráveis tanto para a qualificação do que venha ser um sistema de alto risco como para o reforço de determinados direitos.

Ao dispor sobre a fiscalização da inteligência artificial, o projeto determina que o Poder Executivo designe autoridade para zelar pelo cumprimento das normas estabelecidas e especifica suas competências e fixa sanções administrativas.

São também previstas medidas para fomentar a inovação da inteligência artificial, destacando-se o ambiente regulatório experimental (sandbox regulatório).

Com isso, a partir de uma abordagem mista de disposições ex-ante e ex-post, a proposição traça critérios para fins de avaliação e desencadeamento de quais tipos de ações devem ser tomadas para mitigação dos riscos em jogo, envolvendo também os setores interessados no processo regulatório, por meio da corregulação.

Ainda, em linha com o direito internacional, traça balizas para conformar direitos autorais e de propriedade intelectual à noção de que os dados devem ser um bem comum e, portanto, circularem para o treinamento de máquina e o desenvolvimento de sistema de inteligência artificial – sem, contudo, implicar em prejuízo aos titulares de tais direitos. Há, com isso, desdobramentos de como a regulação pode fomentar a inovação. Diante do exposto, e cientes do desafio que a matéria representa, contamos com a colaboração dos nobres colegas para o aperfeiçoamento dessa proposta.

Sala das Sessões, Senador Rodrigo Pacheco