A detecção de discurso de ódio do Google encontrou dificuldades com exemplos simples.

by Code Avancado
Simple typos tripped up Google
Imagem: TomasHa73/StockVault
PCMag
Imagem: astrovariable/Flickr

Manter-se diante da negatividade online é desafiador, especialmente considerando que cerca de 20% dos americanos já enfrentaram sérios casos de assédio online. A ferramenta de Inteligência Artificial do Google, chamada Perspectiva, foi desenvolvida para lidar com essas questões, porém parece não ser tão eficaz quanto esperado.

De acordo com o TNW, um grupo de pesquisadores da Universidade Aalto e da Universidade de Pádua encontrou que a inteligência artificial do Google pode ser facilmente ludibriada, e que os modelos avançados de detecção de discurso de ódio só são eficazes quando avaliados com os mesmos dados usados no treinamento. Algumas estratégias simples para enganar a IA do Google incluem: introduzir erros de digitação; inserir espaços entre as palavras; ou adicionar palavras que não estão relacionadas com a frase original.

O Google utiliza um método de detecção de discurso de ódio que consiste em atribuir uma pontuação de toxicidade a um trecho de texto, considerando-o como agressivo, desrespeitoso ou irracional a ponto de fazer com que a pessoa que o lê queira sair da conversa. No entanto, o sistema de inteligência artificial não é capaz de compreender o contexto de palavras ofensivas, e uma simples alteração entre “Eu te amo” e “Eu te amo” resulta em uma mudança na pontuação de 0,02 para 0,77.

De acordo com o artigo, a “toxicidade”, conforme definida atualmente, não se traduz necessariamente em discurso de ódio em nenhum sentido concreto (ou jurídico). Da mesma forma, a utilização de dígitos ou “leetspeek” (substituindo letras por números, como transformar “GEEK” em “G33K”, por exemplo) pode ser eficaz para ludibriar a inteligência artificial, preservando a compreensão da mensagem original e seu impacto emocional.

VOCE VAI GOSTAR:  A Amazon possui insights sobre alto-falantes inteligentes que o Facebook não compartilha.

O termo “amor”, que contrasta com manifestações de ódio, também desafia as convenções linguísticas e sociais, chegando a reduzir drasticamente níveis de toxicidade em determinados contextos.

Com várias plataformas de mídia social, como Facebook, Twitter e YouTube, enfrentando desafios para discernir entre discursos ofensivos e aceitáveis, uma inteligência artificial prontamente utilizável certamente traria vantagens evidentes.

Recentemente, o Twitter recebeu críticas por suspender temporariamente a conta do teórico conservador da conspiração Alex Jones, enquanto outras plataformas optaram por remover suas contas e a do Infowars, onde Jones é colaborador, permanentemente. O Twitter justificou sua decisão afirmando que Jones não havia infringido as regras da plataforma. No entanto, após uma audiência no Comitê do Senado, a empresa suspendeu as contas @realalexjones e @infowars.

Infelizmente, diante desta informação e dos casos recentes de chatbots com inteligência artificial, como o caso do conteúdo racista do Tay da Microsoft, parece ser necessário que a IA seja aprimorada antes de ser liberada para interagir na seção de comentários.

Assunto: Inteligência Artificial

You may also like

Deixe um comentário

Conectamos você às inovações tecnológicas que transformam o mundo.

Receba as últimas notícias

Assine minha Newsletter para receber novas postagens do blog, dicas e novas fotos. Vamos ficar por dentro!

@2025 Todos os direitos reservados. Projetado e desenvolvido por CodeAvançado