Regulamentação da Inteligência Artificial no Brasil: em busca do equilíbrio entre os avanços da aplicação da inteligência artificial e a proteção dos direitos humanos


Regulamentação da Inteligência Artificial no Brasil: em busca do equilíbrio entre os avanços da aplicação da inteligência artificial e a proteção dos direitos humanos


Por Ana Paula Terra, Deborah Avelar Freitas, Lorena Pretti Serraglio, Laura Vieira Acedo*

A transformação digital está presente na rotina de todos cada vez mais, e com ela também está a aplicação da Inteligência Artificial, seja por meio do uso de aplicativos para traduções automatizadas, controle do trânsito nas cidades, recomendações personalizadas a cada indivíduo, e mais recentemente o tão falado “chatgtp”, dentre outras situações. Em virtude disto com o objetivo de garantir o desenvolvimento e propulsão da Inteligência Artificial e todos os benefícios que ela possa trazer estão em trâmite conjunto no Senado Federal os Projetos de Lei nºs 5.051 de 2019, 21 de 2020 e 872 de 2021 e o Texto Substitutivo, elaborado por uma comissão de juristas acerca do tema, conforme detalhado abaixo. O objetivo é regulamentar o uso da Inteligência Artificial no Brasil em sintonia com princípios consagrados no âmbito internacional de respeito aos direitos humanos, não discriminação, privacidade de dados e livre iniciativa.    

Histórico 

A Inteligência Artificial foi definida no Projeto de Lei n.º 21 de 2020 como um sistema computacional que, a partir de objetivos previamente definidos pode fazer previsões, recomendações e até tomar decisões que podem influenciar ambientes reais ou virtuais (“Inteligência Artificial” ou “IA”). A discussão em torno da IA é global e de extrema relevância, pois a sua utilização impacta diretamente na sociedade, conforme exemplos mencionados anteriormente. Por conta disso, diversos organismos internacionais dissertam a respeito de sua regulamentação, de maneira multidisciplinar, afinal de contas as previsões legais devem estar em consonância com o desenvolvimento da tecnologia. Exemplos que podem ser citados são: (i) o Relatório da OCDE - Organização para a Cooperação Econômica para o Desenvolvimento, em 2016, que demonstrou preocupação em torno da implementação das Inteligências Artificiais, pois poderiam gerar desemprego, crescimento da distorção na distribuição de renda e o possível comprometimento dos resultados pela falta de supervisão humana; além disso (ii), em 2019, a União Europeia publicou um Guia de Ética Confiável para a IA, ressaltando a necessidade de centralização da política da IA no ser humano, com lastro nos Direitos Humanos; ainda, (iii) a Unesco propôs, em 2021, um acordo sobre ética no uso da Inteligência Artificial com assinatura de 193 países, buscando a restrição ao uso desmedido desse mecanismo. 

Brasil 

No Brasil, a discussão acerca da regulamentação era refletida em três Projetos de Lei (nºs 5.051 de 2019, 21 de 2020 e 872 de 2021) sobre o assunto, demonstrando a preocupação formal com o tema. Diante da evolução do assunto e, principalmente, da experiência internacional, uma comissão, composta principalmente por juristas foi instalada em março de 2022, promovendo a discussão sobre o tema da Inteligência Artificial, por meio da realização de reuniões, seminários, audiências públicas e culminou com a entrega ao Presidente do Senado de um texto Substitutivo aos referidos Projetos de Lei, contando com pouco mais de 40 artigos e tendo por objetivo instruir a apreciação dos projetos de lei mencionados acima. Este teve o seu Relatório Final aprovado no dia 06 de dezembro de 2022, e apresenta uma abordagem a respeito dos limites éticos do uso da inteligência artificial aproximando-se inclusive da regulação europeia sobre o tema, além de incluir e integrar na discussão a sociedade civil, a academia e organizações setoriais (como centros de saúde e laboratórios de inovação, etc.). No dia 09 de dezembro de 2022, o texto substitutivo foi publicado no Diário do Senado Federal, com o objetivo de instruir a apreciação pelo Senado Federal dos PL 5051/19, PL 21/20 e PL 872/21. 

Alguns dos principais assuntos abordados foram: (i) a abordagem de risco, (ii) a orientação em relação ao uso e desenvolvimento dessa tecnologia - prevendo a existência de uma autoridade para implementação, fiscalização e consequente imposição de sanções administrativas e (iii) a necessidade da coexistência dos direitos de privacidade (recentemente alçado a nível de direito fundamental) e não discriminação, frente a esse paradigma tecnológico, sob pena de aplicações de sanções. 

Em relação ao risco, é importante dizer que ele seria diretamente proporcional às obrigações provenientes do uso da Inteligência Artificial, com uma abordagem dividida em três categorias, quais sejam: (i) a utilização de IA de risco inaceitável ou excessivo deveria ser proibida; (ii) a utilização de alto risco poderia ser feita, mas é dependente de avaliação prévia dos impactos causados; e, por fim, (iii) a utilização de baixo risco, que poderia ser amplamente realizada, mas devendo obedecer às disposições gerais da regulamentação. Para a classificação de risco deveriam ser observados os critérios estabelecidos no Texto Substitutivo.  

Ainda, o regime de responsabilidade civil também foi tratado, sendo relacionado ao grau de risco das Inteligências Artificiais. Nesse sentido, de acordo com o Relatório, as IAs de alto risco dariam ensejo a uma responsabilidade objetiva ao fornecedor e operador da tecnologia e, as que não se configuram nesse nicho, poderiam resultar em presunção de culpa com inversão de ônus da prova em favor do ofendido. Em relação à aplicação de sanções, uma preocupação relevante também foi mencionada - o cuidado para evitar a dupla penalização, no caso de um incidente que envolva tanto as normas da Lei Geral de Proteção de Dados, quanto do marco regulatório em questão (devido à grande intersecção entre os temas). 

Devido à especificidade que o uso da IA pode atingir, a orientação em relação à regulação do uso e desenvolvimento dessa tecnologia, foi de que essa deveria ser setorial. Nesse sentido, muitos dos integrantes da Comissão que elaborou o Texto Substitutivo sugeriram a necessidade de mecanismos de governança multissetorial, aliando o Governo com empresas, academia e a sociedade civil. 

Em relação à necessidade de coexistência dos avanços da IA e dos direitos humanos, foram previstas sanções administrativas, desde simples advertências, até multa simples (limitada a 50 milhões de reais por infração) - no caso de pessoa jurídica de direito privado, a multa limitar-se-ia a 2% do faturamento do seu grupo ou conglomerado no Brasil no último exercício, excetuando-se os tributos. Além disso, outras formas possíveis de sancionamento seriam: a publicização da infração, a exclusão de regime de sandbox regulatório1, suspensão (parcial ou total, provisória ou definitiva) do desenvolvimento e proibição do tratamento de determinadas bases de dados. 

Por fim, a ética também foi muito levada em consideração na elaboração do Relatório apresentado, já que a Inteligência Artificial pode vir a integrar situações de alto risco, como a contratação de novos funcionários, a decisão da entrada de pessoas em um determinado país, ou o escolhido para uma vaga de emergência em determinado hospital. Sendo assim, o Texto Substitutivo preocupou-se em considerar a Estratégia Brasileira de Inteligência Artificial (EBIA), instituída pela Portaria MCTI nº 4.617 de 06 de abril de 2021 e alterada pela Portaria MCTI nº 4.979 de 13 de julho de 2021 , que busca garantir a explicação e interpretação das decisões tomadas por essa inteligência, além da Lei Geral de Proteção de Dados, visto que no artigo 20 prevê que o titular dos dados tem direito a solicitar revisão de decisões tomadas unicamente por tratamento automatizado, quando voltadas a definição de perfil pessoal, profissional, de consumo ou de crédito, além de aspectos de sua personalidade. A partir desses parâmetros, busca-se permitir a utilização da Inteligência Artificial respeitando a centralidade da pessoa humana, o respeito aos direitos humanos e aos valores democráticos, a privacidade e a proteção de dados.  

Direito comparado 

Em comparação com outros países, destaca-se que Alemanha, em 2018, publicou a Estratégia de Inteligência Artificial do Governo Federal Alemão, que propôs o estabelecimento de um observatório alemão para a Inteligência Artificial, revelando, ainda, o apoio na criação de estruturas similares na Europa e no mundo. Em relação ao meio jurídico, um marco legal ainda não foi firmado, no entanto, assim como o Brasil, o país instaurou uma Comissão em 2020, a fim de desenvolver estudos para garantir o uso transparente, compreensível e seguro da IA através da legislação. 

A Austrália, por outro lado, já efetuou a criação do Centro Nacional de IA, vinculado à Agência Nacional de Ciências da Austrália, buscando, através disso, o fortalecimento da Inteligência Artificial no país, a atração de novos investimentos e o auxílio a pequenas e médias empresas no desenvolvimento da IA. 

Em 2019, a Estratégia Nacional para IA da Dinamarca determinou, que o desenvolvimento e uso da inteligência artificial deveriam estar em conformidade com a estrutura legislativa relevante, e, consequentemente, com os princípios básicos do regulamento geral de proteção de dados.  

Os Estados Unidos também se encontram em situação similar à do Brasil, com a criação do Comitê Consultivo Nacional de Inteligência Artificial que possui a tarefa de aconselhar tanto o Presidente, quanto o Escritório Nacional, a respeito da Iniciativa Nacional de IA. Além disso, um marco regulatório merece destaque - a Ordem Executiva nº 13.859 de 2019, que em sua Seção 6 define orientações para a Regulação de Aplicações da Inteligência Artificial, determinando que os chefes de todas as agências deverão informar o desenvolvimento das abordagens regulatórias e não regulatórias a respeito dos setores que utilizam a IA, a fim de alinhar a inovação com o respeito às liberdades civis, à privacidade e aos valores norte-americanos. A partir disso, um memorando foi feito e aberto aos comentários da sociedade civil antes de sua finalização. 

Dessa forma, o Brasil caminha em conformidade com países com influência importante no assunto, buscando alinhar o desenvolvimento tecnológico do país, a partir das políticas de desenvolvimento da Inteligência Artificial, sem deixar, no entanto, de considerar os direitos civis, os riscos e as consequentes maneiras de responsabilização.

Referências:

1 Ambiente regulatório experimental com o fito de suspender, temporariamente, a obrigatoriedade no cumprimento de determinadas normas. Isso é feito em busca de garantir menos burocracia nos casos em que empresas buscam lançar novos produtos ou serviços (BARRETO, Alex. O Sandbox regulatório como instrumento de inovação para o sistema financeiro. Revista Científica Virtual, São Paulo, 35ª edição, p. 37, 2020).