O “Eu” do robô: considerações sobre o poder decisório e a responsabilidade da inteligência artificial


O “Eu” do robô: considerações sobre o poder decisório e a responsabilidade da inteligência artificial


Por Fernanda Santiago e Ana Luiza de Deus Mendonça

O ano é 2030. Você é médico e está em seu carro autônomo quando, de repente, outro carro autônomo colide com o seu em velocidade compatível com os limites permitidos pelas leis de trânsito local, devido a alguma falha do sistema do veículo. De quem é a culpa? Enquanto espera pela seguradora, você recebe uma notificação do seu app de controle de casos sensíveis dizendo que, durante a cirurgia de um de seus pacientes mais antigos, o robô que a executava - Grey - sofreu uma falha técnica, resultando em erro irreversível que levou ao falecimento do paciente. Quem será responsabilizado por isso? 

Não precisamos ir muito longe em nossa imaginação e nem avançar na história, para perceber que, desde carros autônomos, robôs médicos, chats de conversação com linguagem humana (como o Chat GPT) e, até mesmo, os mais novos pets robôs interativos, estamos cada vez mais cercados pela inteligência artificial e, consequentemente, pelos riscos inerentes a ela.

Nesse momento, você deve estar pensando: “Ora, a atividade humana também implica risco!” Pura verdade! Mas até que ponto o risco de certos atos deve ser atribuído a um ser humano (ou a uma pessoa jurídica) quando o assunto é inteligência artificial?

De acordo com a Organização para a Cooperação e Desenvolvimento Econômico (“OCDE”), um sistema de inteligência artificial (“IA”) é um “sistema baseado em máquina que, para objetivos explícitos ou implícitos, infere, a partir das informações que recebe, como gerar resultados como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”¹.

Em outras palavras, a IA é, por essência, um conjunto de ferramentas e tecnologias que se desenvolve e se capacita à medida em que é alimentado, utilizado e treinado por seus operadores. Ocorre que as mais valiosas promessas em torno da utilização de ferramentas com IA se baseiam, justamente, na capacidade das máquinas de aprender e, gradualmente, melhorar sua precisão (machine learning) para, a partir daí, executar suas tarefas de forma autônoma e independente do controle humano.

Nesse cenário, a pergunta é: em que momento a responsabilidade pelos atos praticados por um sistema de IA “passa para” a máquina? E, havendo essa transferência, ela é definitiva? Teria a IA capacidade de tomar decisões por si própria, com base em seu “livre arbítrio”? Se sim, de acordo com quais princípios?

Diversas iniciativas já foram promovidas em termos globais, buscando o adequado tratamento e regulamentação da IA. Adotados em maio de 2019, os princípios de IA da OCDE defendem o uso da IA de forma inovadora e confiável, respeitando os direitos humanos e valores democráticos. Dentre os referidos princípios, a OCDE apontou as semelhanças, mas, principalmente, as diferenças entre os termos “responsibility” e “accountability”, afirmando ser, este último, o mais apropriado no âmbito da discussão sobre a responsabilidade por atos praticados por meio da IA, uma vez que ele leva em consideração não apenas aspectos legais da responsabilidade civil, mas também aspectos morais e éticos, que não podem ser negligenciados neste contexto.

No que se refere à regulação da IA, a iniciativa mais avançada, sem dúvida, está nas resoluções do Parlamento Europeu, que, ao longo dos últimos anos, divulgou proposições e recomendações para melhor regulamentar a IA na União Europeia, sem perder de vista a inovação, os princípios éticos e a confiança na tecnologia. A relevância do tema no contexto europeu se tornou tamanha que culminou na recente (em 13 de março de 2024) aprovação do Artificial Intelligence Act (“AI Act”), a primeira lei do mundo a regulamentar o uso da inteligência artificial.

A nova lei se baseia, dentre outros princípios relevantes, na necessidade de analisar e classificar os diferentes sistemas de IA com base no risco que oferecem aos seus usuários, sendo que os diferentes níveis de risco implicarão em maior ou menor necessidade de regulação. O AI Act classifica os sistemas que envolvem “riscos inaceitáveis” como proibidos; regula os sistemas de “risco elevado”, sujeitando-os a determinados requisitos para seu desenvolvimento e operação; e se propõe a flexibilizar a regulação dos sistemas de “risco baixo ou mínimo”. A título de exemplo, serão proibidos sistemas que tenham potencial significativo de manipular pessoas ou explorar vulnerabilidades de grupos específicos, como crianças ou pessoas com deficiência, de modo a distorcer o seu comportamento e lhes causar danos físicos ou psicológicos.

No Brasil, algumas iniciativas foram adotadas no legislativo nos últimos anos. A mais atual, e cujo texto base está sendo discutido pelos parlamentares desde o ano passado, é a do Projeto de Lei 2338/2023 (“PL 2338”), de autoria do atual presidente do Senado Federal, Rodrigo Pacheco. O PL 2338 se propõe a estabelecer não apenas princípios norteadores da aplicação e uso consciente da IA, mas, também, direitos e deveres dos agentes envolvidos na operação de sistemas de IA, bem como categorização de riscos das atividades executadas por tais sistemas. Além disso, considerando que é um projeto substitutivo aos projetos de lei anteriores sobre o tema que tramitavam no Congresso Nacional, o PL 2338 também traz regras específicas a respeito da responsabilidade civil de atos praticados por sistemas de IA, para além de outras questões relevantes como governança, supervisão e fiscalização.

Quanto a direitos e deveres, o PL 2338 propõe que o cidadão tenha direito ao acesso apropriado à informação prévia e à explicação das decisões tomadas por sistemas de IA; à contestação de decisões automatizadas e à solicitação de intervenção humana; à não discriminação e à correção de vieses discriminatórios; bem como à privacidade e à proteção de dados pessoais. Já no que tange à responsabilidade civil, o texto original do Projeto de Lei propõe uma regra geral de responsabilidade objetiva (em que não é necessário provar a culpa ou dolo do agente) para casos que envolvam sistemas de IA de alto risco ou de risco excessivo. Fora dessa hipótese, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.

Mas será que isso vai funcionar? Profissionais do ramo da tecnologia defendem que é necessário haver um diálogo entre as regulamentações da IA, visto que um mesmo sistema poderá ser utilizado em diferentes setores com exposições a níveis de risco distintos (como na saúde, na educação ou no setor financeiro, por exemplo) e, ainda, dentro de um mesmo setor da economia, o nível do risco atrelado à IA pode variar significativamente.

Ademais, ainda não sabemos até que ponto o ser humano conseguirá efetivamente implementar os mencionados princípios no desenvolvimento e na operação da IA, uma vez que a lógica algorítmica da ferramenta - isto é, a lógica de funcionamento pré-determinada pelo operador - pode vir a ser alterada pelo próprio sistema à medida em que ele é submetido a experiências e interações com o mundo externo. Esse comportamento decisório da IA, além de ser potencialmente imprevisível, é o cerne de uma das maiores polêmicas acerca dessa tecnologia, principalmente em atividades de alto risco e assuntos sensíveis, em que a moral e a ética das decisões estão em evidência. 

Há notícias na mídia de que carros autônomos em desenvolvimento por montadoras seriam programados para salvar, preferencialmente, o motorista e os passageiros, ao invés de pedestres e demais veículos em seu entorno. A vida dos usuários destes carros valeria mais do que a das outras pessoas envolvidas em um eventual acidente? Infringiria, essa regra, princípios definidos pela OCDE, como, por exemplo, a busca de resultados benéficos para a sociedade e para o planeta? Neste caso, se o sistema desses carros conseguirem desenvolver um “livre arbítrio” próprio, a partir da interação e experiências com o mundo externo, é possível que sua programação inicial sofra alterações que acarretem resultados diferentes dos esperados, causando danos maiores que os benefícios inicialmente programados.

A IA é uma revolução tecnológica que promete alterar drasticamente, como já vem alterando, a forma como vivemos, produzimos, trabalhamos e nos relacionamos. Ainda não conhecemos profundamente as situações e consequências que podem advir dessa nova forma de operar o mundo, e, tal como você, leitor, também temos muitas dúvidas oriundas das discussões aqui abordadas. Mas, em meio às indagações acerca da IA generativa e aos desafios inerentes à sua implementação e regulamentação, as únicas certezas são que: (i) a sociedade deve se preparar para uma fase de profundas transformações; e (ii) “surfará nessa onda” quem melhor se adaptar a estas mudanças.

No mundo do Direito não será diferente: o surgimento da IA é mais um dos grandes marcos na história, ao qual o nosso ordenamento jurídico deverá se ajustar para lidar com os impactos dessas transformações, sobretudo na salvaguarda dos direitos e deveres dos cidadãos. Resta saber se, nessa odisseia tecnológica, os legisladores serão capazes de acompanhar a rapidez com que os robôs irão avançar. Vamos juntos descobrir essa resposta?

Referências:

¹ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). Princípios de Inteligência Artificial. Paris: OCDE, 2019. Disponível em: https://oecd.ai/en/ai-principles. Acesso em: 16 de março de 2024.

UNIÃO EUROPEIA. Regulamento do Parlamento Europeu e do Conselho, relativo a regras harmonizadas sobre inteligência artificial (Inteligência Artificial Act). Bruxelas: União Europeia, 2024. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX:52021PC0206

EUROPEAN PARLIAMENT. ARTIFICIAL INTELLIGENCE ACT. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf. Acesso em: 13 de março de 2024.

SENADO FEDERAL. Projeto de Lei n° 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Senado Federal, Brasília, 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 13 de março de 2024.

MIRANDA BARBOSA, Mafalda. “Responsabilidade civil pelos danos causados por entes dotados de inteligência artificial”. Direito Digital e Inteligência Artificial – Diálogos entre Brasil e Europa, Editora Foco, 2021, p. 157-179.

MEDON, Filipe. Tendências para a responsabilidade civil da inteligência artificial na Europa: a participação humana ressaltada. Migalhas, São Paulo, 03 de novembro de 2020. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-responsabilidade-civil/335801/tendencias-para-a-responsabilidade-civil-da-inteligencia-artificial-na-europa--a-participacao-humana-ressaltada. Acesso em: 21 de março de 2024.

UNITREE ROBOTICS. Go2 - Intelligent New Species. Unitree Robotics, 2023. Disponível em: https://m.unitree.com/go2/. Acesso em: 21 de março de 2024. 

GARATTONI, Bruno; SANES, Daniel; PUJOL, Leonardo. A nova fase do carro autônomo. Superinteressante, São Paulo, 20 de dezembro de 2023. Disponível em: https://super.abril.com.br/tecnologia/a-nova-fase-do-carro-autonomo. Acesso em: 15 de março de 2024.