ONG brasileira LGBTQIA+ cria Inteligência Artificial anti-ódio e processa redes sociais em R$ 100 milhões - Drops de Jogos

ONG brasileira LGBTQIA+ cria Inteligência Artificial anti-ódio e processa redes sociais em R$ 100 milhões

Dia da Visibilidade Trans – Código Não Binário transformou a onda de ódio do caso Boyceta de seu podcast em soluções inéditas: uma IA contra ódio anti-LGBTQIA+ e uma coalizão que busca danos morais coletivos na justiça contra Meta, Google, X e Tiktok por cumplicidade algorítmica.

  • por em 29 de janeiro de 2026
Raimond Spekking / CC BY-SA 4.0 (via Wikimedia Commons)

Raimond Spekking / CC BY-SA 4.0 (via Wikimedia Commons)

Do Código Não Binário. Em data simbólica para a comunidade trans no Brasil – país que mais mata pessoas trans no mundo – a ONG Código Não Binário lança a TybyrIA, primeira inteligência artificial totalmente aberta para detectar discurso de ódio anti-LGBTQIA+ em português, e anuncia que protocolou Ação Civil Pública (ACP) contra as gigantes Meta (Instagram, Facebook, WhatsApp etc), Google (YouTube), X e ByteDance (TikTok). A ACP, que tem participação de IBRAT, Fonatrans e AzMina, marca uma importante virada: grupos minorizados não apenas denunciam violência digital, mas criam tecnologia de ponta e lideram processos de responsabilização das Big Techs, levando o já famoso lema da comunidade, “nada sobre nós sem nós”, para as áreas da Inteligência Artificial e Litigância Estratégica.

DO PODCAST À RESPOSTA TECNOLÓGICA E JURÍDICA

A ação é resultado de uma resposta inédita no Brasil e no mundo. Em maio de 2024, nos primeiros 90 dias, o podcast Entre Amigues da Código Não Binário viralizou com 3,4 milhões de visualizações – 2,1 milhões só no TikTok, onde nesse mês da reportagem o corte sobre boycetas conta com 1,6 milhão de visualizações. O conteúdo foi assunto mais falado do Brasil no X / Twitter por 2 dias, contendo em grande parte discurso de ódio anti-LGBTQIA+. Primeiro o algoritmo do TikTok impulsionou para milhões e em seguida perfis de extrema-direita como um deputado com 26 milhões de seguidores amplificaram o ataque.

Buscando apoio com fundos filantrópicos nacionais e internacionais, o grupo conseguiu preservar sua saúde mental durante os ataques e respondeu com habilidade técnica: desenvolveu metodologia própria de extração de dados (plataformas não oferecem ferramentas adequadas), classificou manualmente 2 mil comentários e treinou neles um modelo de IA especializado que escalou a análise para mais de 12 mil comentários. Com isso, produziu o relatório técnico “Anatomia de uma Onda de Ódio” contendo análise robusta e trazendo conclusões importantes que agora fundamentam a Ação Civil Pública, que tem evidências que comprovam cumplicidade algorítmica das plataformas.

TYBYRIA: INTELIGÊNCIA ARTIFICIAL CONTRA O ÓDIO ANTI-LGBTQIA+

O nome da IA, “TybyrIA”, homenageia Tybyra do Maranhão, primeira pessoa vítima oficial de LGBTfobia durante a colonização do nosso território. É rico em simbolismo já que a tecnologia é exemplo prático de combate ao colonialismo digital, que muitos cientistas do Brasil já vem denunciando há anos, principalmente pelas práticas extrativistas de dados e riquezas de países do Sul Global para grandes conglomerados de tecnologia do Norte Global, principalmente dos EUA.

TybyrIA se destaca por ser totalmente aberta – código, modelo, dataset e metodologia públicos –, gratuita e por provar que modelos de IA pequenos e especializados (SLM), que não têm o mesmo impacto ambiental do que grandes modelos (LLM) – por não precisarem de datacenters, pois rodam até mesmo em hardware comum como notebooks – podem substituir os famosos serviços de IA (como o ChatGPT) em tarefas específicas.

A nova ferramenta pode ser visto no site da organização (www.codigonaobinario.org/tybyria) ou em seus canais no Hugging Face e GitHub (plataformas voltadas a pessoas desenvolvedoras de IA e Software). Desde a publicação dos primeiros testes no fim de 2025 até hoje, o modelo já alcançou no Hugging Face 244 downloads e o dataset 438 downloads, demonstrando adoção crescente pela comunidade técnica global.

No fim de 2025 a Código Não Binário já apresentou TybyrIA em eventos especializados em tecnologia e direitos digitais e humanos como na Advocacia-Geral da União, no Mozilla Festival em Barcelona e na Conferência de Cooperativismo de IA em Istambul – nessa última a tecnologia foi premiada com o Du Bois Prize (Menção Especial).

Especialistas e organizações já estão estudando a tecnologia na Turquia, Holanda e Reino Unido, com destaque para uma aula já realizada sobre o caso da Código Não Binário na Universidade de Westminster em Londres. A organização foi também vencedora de seleção do Fundo Elas+, o que possibilitou levar a IA do estado de protótipo para produto final. A organização agora busca novos financiamentos para melhorar ainda mais a ferramenta e replicá-la internacionalmente em outras línguas.

AÇÃO CIVIL PÚBLICA: COALIZÃO POR RESPONSABILIZAÇÃO E INDENIZAÇÃO

A ACP questiona o modelo e a arquitetura de lucro das plataformas e comprova, com evidências técnicas e dezenas de estudos nacionais e internacionais, que a moderação de conteúdo é seletiva e baseada em interesses comerciais. As plataformas removem violações de direitos autorais de forma prioritária e sistemática, mas recusam-se a remover discurso de ódio – mesmo quando denunciado repetidamente. Pesquisas demonstram que 97% das ações de moderação da Meta eram proativas até 2024; com as mudanças anunciadas pela plataforma, esse percentual cai drasticamente, afetando potencialmente 277 milhões de conteúdos de ódio. A análise técnica demonstra que algoritmos são projetados para amplificar conteúdo que gera engajamento (70% do tempo no YouTube é determinado por recomendação algorítmica), incluindo ódio, que plataformas monetizam ativamente esse conteúdo (políticos pagaram para impulsionar 124 publicações anti-trans só em um ano), e que as Big Techs removeram coordenadamente proteções específicas contra LGBTfobia de suas políticas – permitindo patologização e discriminação. Não há estrutura efetiva de combate, mas impunidade algorítmica sistêmica e lucrativa.

A ação solicita Plano de Devida Diligência em Direitos Humanos específico para população LGBTQIA+, incluindo revisão de algoritmos que amplificam ódio, canais de denúncia dedicados, transparência via relatórios semestrais públicos, auditoria independente e parcerias com sociedade civil. Pede também indenização de R$ 100 milhões por danos morais coletivos, com destinação vinculada à causa LGBTQIA+, além de inversão do ônus probatório e julgamento com perspectiva de gênero.

Raimond Spekking / CC BY-SA 4.0 (via Wikimedia Commons)

Raimond Spekking / CC BY-SA 4.0 (via Wikimedia Commons)

A organização preparou por mais de um ano a ACP e escolhe lançar em momento estratégico: o STF reinterpretou o Marco Civil (2024) exigindo diligência ativa e responsabilização das plataformas, e o ECA Digital (2025) provou ser viável regular Big Techs estrangeiras no Brasil – criando cenário legal favorável para responsabilização estrutural.

** Este texto não reflete, necessariamente, a opinião do Portal UAI.

Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments