ChatGPT: os riscos do futuro que já é o agora


ChatGPT: os riscos do futuro que já é o agora


Por Lorena Pretti Serraglio, Ingrid Bandeira Santos, Carolina Simioni Perdomo e Bruna Evellyn Pereira Bigas 

Nos últimos meses uma nova tecnologia tem viralizado em diversos lugares do mundo: um robô virtual interativo que compõe textos, músicas, responde as mais variadas perguntas sobre os mais diversos temas, elabora petições, poesias e piadas, além de poder ser utilizado como assistente virtual e em outras aplicações de Inteligência Artificial (IA). Recentemente, no Brasil, foi utilizado inclusive para elaboração do Projeto de Lei 36/2023, no Estado de Santa Catarina.  Trata-se do ChatGPT, um chatbot (programa de computador que simula e processa conversas humanas) desenvolvido pela startup norte-americana OpenAI, lançado em novembro de 2022. Além da OpenAI, outras empresas como Google e Microsoft têm anunciado seus próprios chatbots baseados em IA (“Bard” e “Sydney”, respectivamente). 

“ChatGPT”, em tradução livre, significa “Transformador Pré-treinado Generativo de Bate-Papo” (Chat Generative Pre-trained Transformer). A Inteligência é capaz de gerar diálogos similares aos desenvolvidos entre humanos, utilizando bilhões de pontos de dados, a partir de parâmetros inseridos pelo usuário, permitindo, assim, interações com pessoas reais. Não à toa atingiu mais de 1 milhão de usuários em sua versão de teste gratuita em apenas uma semana de seu lançamento. 

Paralelamente à “febre” do ChatGPT, despontaram algumas questões sobre a confiabilidade de suas respostas, além de discussões sobre ética, proteção de dados pessoais, propriedade intelectual, responsabilidade civil, impactos na educação e nos modos de trabalho/produção, terrorismo, discriminação, dentre outras.  

Um dos principais problemas possíveis de se identificar na interação com o ChatGPT é relacionado à falta de atributos humanos, afinal a tecnologia se trata de um robô que utiliza inteligência artificial em constante aprendizado (por meio das interações que recebe), sem, contudo, ter entendimento e exatidão sobre o que informa. Assim, é possível que os resultados apresentados contenham erros factuais, falta de bom senso ou lógica, humor deturpado, vieses discriminatórios, dentre outros problemas. Um exemplo1 foi uma resposta que o ChatGPT forneceu com “evidências que suportam que a Terra seria plana”. Outro exemplo ocorreu em consulta de trecho escrito por Guimarães Rosa na obra Grande Sertão: Veredas, em que, ao ser completado pelo ChatGPT, referiu-se ao “carvalho”, uma árvore que não é mencionada no livro.2

O uso de ferramentas como ChatGPT também alimenta o debate sobre o processamento secundário dos dados pessoais para finalidades diversas daquelas pelos quais eles foram obtidos, uma discussão que envolve princípios e fundamentos de leis de proteção de dados ao redor do mundo. Em pouco tempo veremos discussões acerca da existência de uma base legal para o processamento de informações quando oriundas de bancos de dados utilizados para formar a inteligência artificial. Mas não é só. Ainda em matéria de proteção de dados pessoais, há que se ficar atento à segurança das informações. A própria OpenAI informa, em sua página de perguntas frequentes (FAQ), que as conversas ChatGPT podem ser vistas e avisa para o usuário não compartilhar informações sensíveis3. Por fim, pelo fato de o ChatGPT ser um robô de código aberto, pessoas com conhecimento técnico podem (i) acessar e modificar o código e usá-lo de forma prejudicial; (ii) utilizar informações obtidas para enviar e-mails de phishing (aqueles que parecem ser de fonte conhecida, mas não são, através dos quais se busca obter ilicitamente informações pessoais); (iii) fazer uso de malware (software usado para roubar ou sequestrar dados); e (iv) botnets (redes de computadores usadas para promover ataques como os que derrubam sites).4  

Encontraremos discussões também quando o assunto for a produção de conteúdo e sua autoria. Aquele que utilizar o ChatGPT para escrever um capítulo de um livro deve indicar, em seu documento, que o conteúdo foi elaborado através do uso da plataforma? Se o conteúdo em questão for para uma relação de consumo, deve o autor, pautado no dever de transparência previsto no Código de Defesa do Consumidor, fazer esse apontamento? E no exemplo citado no início deste artigo, poderia o parlamentar, em razão dos princípios da administração pública, utilizar a ferramenta para gerar o projeto de lei? Inúmeras discussões surgirão, e todos nós precisamos estar prontos para enfrentá-las.  

Não se discute, porém, que a tecnologia pode trazer inúmeros avanços à sociedade. E, de nosso lado, quisemos saber da própria inteligência artificial o que ela pensa sobre o tema, de modo que fizemos ao ChatGPT a seguinte pergunta:  

“Olá, chat! Bom dia. Estou escrevendo um artigo sobre o uso do ChatGPT e gostaria de saber se você acha que o uso da sua tecnologia pode trazer riscos à população, ou seja, há algum ponto negativo em utilizar essa tecnologia?”.  

Ao que a tecnologia nos respondeu:  

“Claro, vou tentar explicar de forma mais simples! O ChatGPT é uma tecnologia que pode ser muito útil para as pessoas obterem informações, esclarecer dúvidas e obter suporte em vários tópicos. No entanto, existem alguns pontos negativos a serem considerados. Um problema é que o ChatGPT pode ter preconceitos e estereótipos porque é treinado com informações fornecidas pelos usuários. Isso significa que, se as pessoas que fornecem essas informações não são diversas o suficiente, o modelo pode reproduzir e ampliar preconceitos e estereótipos. Outro problema é que o ChatGPT pode lidar com informações confidenciais, como informações médicas ou financeiras. Se essas informações não forem protegidas adequadamente, pode haver violações de privacidade. Por fim, o ChatGPT é um modelo baseado em inteligência artificial que pode produzir respostas que não são precisas ou relevantes para uma determinada situação. É importante garantir que as pessoas que utilizam o ChatGPT sejam responsáveis pelas informações que fornecem. Mas, como disse antes, muitos desses riscos podem ser gerenciados com práticas de design e desenvolvimento adequadas. Como modelo de linguagem, o ChatGPT tem potencial para melhorar a vida das pessoas, desde que seja usado de maneira responsável e consciente”. 

Olhando para o futuro próximo, será importante acompanhar o desenvolvimento de regulamentações em elaboração no Brasil (Projeto de Lei 872/2021, em tramitação no Senado), na Europa (Artificial Intelligence Act da Comissão Europeia) e no restante do mundo relativas ao uso de inteligência artificial. Além, é claro, de toda a discussão produzida pela sociedade civil, acadêmicos e setores regulados.

Referências:

1,2. Moody, Glyn. ChatGPT is a privacy disaster waiting to happen. Disponível em: <https://www.privateinternetaccess.com/blog/chatgpt-privacy/>. Acesso em 24 fev 2023.

3. OpenAI. ChatGPT General FAQ. Disponível em <https://help.openai.com/en/articles/6783457-chatgpt-general-faq>. Acesso em 24 fev 2023.

4. Al Husrom, Mohamed. Uncovering the hidden risks of ChatGPT: Keeping your data secure. Disponível em: <https://medium.com/nextray-ai/uncovering-the-hidden-risks-of-chatgpt-keeping-your-data-secure-99911f3ed777>. Acesso em: 23 fev 2023.