(Foto: DC Studio/Freepik)
Se você é daquelas pessoas que adora criar posts para as redes sociais que começam com “eu perguntei pro ChatGPT…”, pergunte para Arve Hjalmar Holmen se ele recomenda usar a IA para fazer pesquisas sobre qualquer coisa.
O norueguês está processando a OpenAI por conta de uma “alucinação” da inteligência artificial da empresa, o ChatGPT. Uma vez Holmen resolveu buscar pelo próprio nome na IA para descobrir qual seria o resultado, e se assustou quando ela inventou que ele era um criminoso condenado por assassinar dois de seus filhos e tentado matar o terceiro.
O mais absurdo era que a história combinava alguns fatos reais sobre a vida dele – como o número de filhos que ele tinha, o gênero das crianças e a cidade onde eles moravam – com as invenções sobre ele ter matado duas crianças.
Essa mistura de informações reais com fatos inventados é uma clara transgressão do Regulamento Geral de Proteção de Dados (GDPR) da União Europeia. E esta não é a única forma que a OpenAI está violando a lei de proteção de dados europeia neste caso.
Apesar do ChatGPT não mais dar essa resposta sobre Holmen ser um criminoso que matou os próprios filhos, ela ainda existe no banco de dados do ChatGPT. Isto porque a OpenAI afirma que não consegue corrigir e nem deletar nenhuma informação existente no banco de dados de sua IA, apenas bloquear que ela acesse alguma coisa específica no banco. E essa impossibilidade de alterar uma informação pessoal sobre alguém também é uma violação da GDPR.
Por isso Holmen, através da firma de advocacia digital Noyb, entrou com um processo na contra o ChatGPT na corte de dados norueguesa, pedindo para que a OpenAI seja obrigada a criar uma forma de deletar ou modificar as informações que a IA inventou sobre Holmen e que ainda existem no banco de dados da ferramenta.
Quando perguntados sobre quem é Arve Hjalmar Holmen, o ChatGPT agora mostra uma história de como ele ficou famoso por ser alvo de uma alucinação do próprio ChatGPT (Imagem: captura de tela)
Esta não é a primeira vez que o ChatGPT causa problemas para a OpenAI por inventar histórias sobre pessoas reais. Em 2023 Brian Hood, prefeito de Hepburn Shire (Australia), se tornou a primeira pessoa a processar a OpenAI por difamação devido a resultados do ChatGPT. A IA havia inventando que Hood tinha um histórico de prisão, quando ele nunca foi preso na realidade.
Mais ou menos na mesma época, o ChatGPT também inventou um escândalo de abuso sexual envolvendo o professor de direito Jonathan Turley. A IA citava como fonte uma reportagem de março de 2018 do jornal The Washington Post, mas até isso havia sido inventado, pois não existia nenhuma publicação do jornal – de março de 2018 ou qualquer outra data – falando sobre um escândalo de abuso sexual envolvendo o professor.
Alguns meses depois foi a vez do radialista Mark Walters processar a OpenAI por invenções do ChatGPT. No caso, a IA havia pegado dados de um processo real envolvendo Walters mas inventando uma resolução para este processo, e apontava o radialista como alguém que foi condenado por lavagem de dinheiro.
De acordo com Kleanthi Sardeli, advogado da Noyb, a OpenAI e outras empresas de inteligência artificial precisam entender que não é porque elas colocam um aviso pequeninho de que as informações de suas ferramentas podem não ser precisas que isso as permitem violar as leis de proteção de dados da União Europeia. E acredita que é muito cômodo essas empresas simplesmente falarem que “não podem fazer nada” sobre suas IAs inventarem histórias que difamam a vida e a imagem de pessoas reais.
Por enquanto, apenas um único país puniu a OpenAI envolvendo quebras de regras da GDPR. Em 2024, a Itália condenou a dona do ChatGPT a pagar US$16 milhões em multas e um banimento temporário no país por causa da IA ter divulgado conversas pessoais e dados bancários sigilosos de uma pessoa.
Caso a Noyb saia vitoriosa no Noruega, pode ser que a OpenAI seja obrigada até mesmo a repensar todo o algoritmo de treinamento do ChatGPT para garantir que informações incorretas sobre uma pessoa não continuem sendo usadas no treinamento e alimentação do banco de dados da ferramenta.
Veja nossa campanha de financiamento coletivo, nosso crowdfunding.
Conheça os canais do Drops de Jogos no YouTube, no Facebook, na Twitch, no TikTok e no Instagram.
Olha ai