Enquanto muita gente tenta te convencer que a inteligência artificial vai te substituir, nos EUA ela está ajudando a deixar assassinos em liberdade. De acordo com o jornal Cleveland Plain Dealer, todas as provas de uma investigação de assassinato que ocorreu em fevereiro de 2024 estão sendo anuladas por causa do uso de inteligência artificial.
O caso aconteceu na cidade de Cleveland (EUA) e envolve o assassinato de Blake Story, que morreu durante uma tentativa de assalto. Durante todo o processo a polícia trabalhava com apenas um único suspeito, que havia sido flagrado por uma das câmeras de segurança do local.
O problema é que ao invés de fazer uma investigação tradicional como manda o manual, a primeira coisa que os detetives fizeram foi passar a filmagem pelo software da Clearview, uma IA de reconhecimento facial que a polícia da cidade havia adquirido recentemente. Este software identificou o suspeito do vídeo como Qeyeon Tolbert, e os policiais rapidamente conseguiram um mandado de busca e apreensão para a residência de Tolbert, onde teriam achado outras provas que confirmavam o envolvimento dele no crime.
E foi justamente essa “pressa” no uso da IA que pode fazer com que a família de Story acabe não encontrando justiça. Como a Clearview é um software polêmico e o estado de Ohio não possuem leis que regem o uso de IA pela polícia, um juiz deu como procedente o pedido da defesa de que tudo que os investigadores tinham contra Tolbert foi levantado por procedimento ilegal e deveria ser desconsiderado.
A polícia ainda pode recorrer da decisão, mas se ela foi confirmada o caso pode acabar nunca sendo solucionado. Isto ocorre porque, como todas as provas conseguidas pela polícia foram baseadas no resultado de um software de reconhecimento facial que não é reconhecido legalmente como parte do processo de investigação, elas deverão ser anuladas e não poderão ser usadas mesmo que uma nova investigação seja aberta.
Clearview: uma IA polêmica
Não é a primeira vez que a Clearview tem a sua ferramenta de reconhecimento facial por IA envolvida em polêmicas com a polícia. Recentemente, uma investigação do Washington Post descobriu que pelo menos oito pessoas nos EUA foram condenadas erroneamente por causa desta IA. Essas oito pessoas foram reconhecidas pelo software como as responsáveis por um crime que não cometeram. Em todos esses oito casos, a pessoa identificada erroneamente pela IA era negra.
A Clearview se defende das acusações, alegando que existe uma mensagem no website que a empresa não garante a precisão dos resultados de seu sistema de identificação facial. Mas esse argumento meio que cai por terra ao acessar o site da empresa, que afirma com orgulho possuir um banco de dados com +50 bilhões de imagens e uma taxa de acerto maior do que 99% em todas as demografias.

(Imagem: Captura de tela/Rafael Silva)
Enquanto a empresa se gaba de ser uma das companhias que mais cresce nos EUA, o uso indiscriminado de softwares de reconhecimento facial por IA tem sido usados por cada vez mais instituições no mundo. Algumas delas são extremamente mesquinhas, como o dono de um dos mais tradicionais times da NBA, em uma das maiores cidades do mundo, usar software de reconhecimento para identificar pessoas que falaram mal dele no Twitter e expulsar dos jogos do time.
Mas como sempre, o problema não está na tecnologia em si. Está é na forma como usamos ela para tornar nossa sociedade cada vez mais parecida com aquelas distopias que os autores de ficção científica nos alertaram a não copiar.
Veja nossa campanha de financiamento coletivo, nosso crowdfunding.
Conheça os canais do Drops de Jogos no YouTube, no Facebook, na Twitch, no TikTok e no Instagram.
** Este texto não reflete, necessariamente, a opinião do Portal UAI.