

Manter-se diante da negatividade online é desafiador, especialmente considerando que cerca de 20% dos americanos já enfrentaram sérios casos de assédio online. A ferramenta de Inteligência Artificial do Google, chamada Perspectiva, foi desenvolvida para lidar com essas questões, porém parece não ser tão eficaz quanto esperado.
De acordo com o TNW, um grupo de pesquisadores da Universidade Aalto e da Universidade de Pádua encontrou que a inteligência artificial do Google pode ser facilmente ludibriada, e que os modelos avançados de detecção de discurso de ódio só são eficazes quando avaliados com os mesmos dados usados no treinamento. Algumas estratégias simples para enganar a IA do Google incluem: introduzir erros de digitação; inserir espaços entre as palavras; ou adicionar palavras que não estão relacionadas com a frase original.
O Google utiliza um método de detecção de discurso de ódio que consiste em atribuir uma pontuação de toxicidade a um trecho de texto, considerando-o como agressivo, desrespeitoso ou irracional a ponto de fazer com que a pessoa que o lê queira sair da conversa. No entanto, o sistema de inteligência artificial não é capaz de compreender o contexto de palavras ofensivas, e uma simples alteração entre “Eu te amo” e “Eu te amo” resulta em uma mudança na pontuação de 0,02 para 0,77.
De acordo com o artigo, a “toxicidade”, conforme definida atualmente, não se traduz necessariamente em discurso de ódio em nenhum sentido concreto (ou jurídico). Da mesma forma, a utilização de dígitos ou “leetspeek” (substituindo letras por números, como transformar “GEEK” em “G33K”, por exemplo) pode ser eficaz para ludibriar a inteligência artificial, preservando a compreensão da mensagem original e seu impacto emocional.
O termo “amor”, que contrasta com manifestações de ódio, também desafia as convenções linguísticas e sociais, chegando a reduzir drasticamente níveis de toxicidade em determinados contextos.
Com várias plataformas de mídia social, como Facebook, Twitter e YouTube, enfrentando desafios para discernir entre discursos ofensivos e aceitáveis, uma inteligência artificial prontamente utilizável certamente traria vantagens evidentes.
Recentemente, o Twitter recebeu críticas por suspender temporariamente a conta do teórico conservador da conspiração Alex Jones, enquanto outras plataformas optaram por remover suas contas e a do Infowars, onde Jones é colaborador, permanentemente. O Twitter justificou sua decisão afirmando que Jones não havia infringido as regras da plataforma. No entanto, após uma audiência no Comitê do Senado, a empresa suspendeu as contas @realalexjones e @infowars.
Infelizmente, diante desta informação e dos casos recentes de chatbots com inteligência artificial, como o caso do conteúdo racista do Tay da Microsoft, parece ser necessário que a IA seja aprimorada antes de ser liberada para interagir na seção de comentários.
Assunto: Inteligência Artificial