A LLYC lança The Purple Check, uma inteligência artificial que ajuda a falar e a informar melhor sobre a violência de género. A ferramenta funciona de forma simples. Introduzimos um título e a solução verifica se as palavras que utilizámos estão em conformidade com as regras de boas práticas decorrentes das diretrizes de United Nations Development Programme (UNDP) e de Mediterranean Network of Regulatory Authorities (MNRA). Caso contrário, recomendará como dizer a mesma coisa de forma a informar sem promover a desigualdade e, assim, devolver o foco à comunicação. The Purple Check é uma ferramenta de livre acesso porque a luta contra a violência de género é um assunto de todos na defesa dos direitos humanos.
Aqui está um exemplo da alternativa que The Purple Check dá a um título que apareceu num meio de comunicação social:
Luisa García, Sócia e COO Global da LLYC: “The Purple Check reflete o nosso compromisso para com a igualdade. É um contributo que damos através da inovação e da nossa ferramenta própria de IA para gerar consciencialização social. Precisamos de um tratamento da informação mais objetivo, equilibrado e justo. A solução permite-nos focar as notícias com perspetiva de género. Apenas se todos detetarmos a parcialidade é que podemos fazer da linguagem mais uma ferramenta de mudança.”
The Purple Check resulta das conclusões do relatório “Desfocadas: Como opinar e informar melhor sobre a violência de género” realizado pela LLYC no âmbito do dia 8 de Março, Dia Internacional da Mulher. O estudo conclui que, embora os meios de comunicação social consciencializem, sensibilizem e previnam a violência de género duas vezes mais do que as redes sociais, ainda há muito trabalho a fazer. Ainda assim, 20% das notícias publicadas justificam as agressões e uma em cada seis viola a intimidade das vítimas, através da exposição de dados pessoais que estas prefeririam evitar. Além disso, no geral, sabemos muito sobre as vítimas e pouco sobre o agressor. 75% mais menções aos atributos das vítimas. O negacionismo alimenta-se a si próprio: uma insinuação nos meios de comunicação social multiplica-se por quatro na conversa social.
Para a elaboração deste relatório, a equipa de Deep Learning da LLYC analisou 226,2 milhões de artigos de notícias gerais, 5,4 milhões de notícias sobre violência de género e 14 milhões de mensagens na rede social X relacionadas com a violência de género nos 12 países onde a consultora está presente (Argentina, Brasil, Chile, Colômbia, Equador, Espanha, Estados Unidos, México, Panamá, Peru, Portugal e República Dominicana). A investigação utilizou Large Language Models (LLM- GPT4) para identificar e isolar descritores direcionados à vítima e ao agressor nas notícias públicas obtidas através de modelos de scrapers, bem como técnicas de Processamento de Linguagem Natural (NLP) em 4 idiomas para analisar o cumprimento de 21 regras de boas práticas decorrentes das diretrizes de UNDP e MNRA.
A APAV (Associação Portuguesa de Apoio à Vítima) associa-se à divulgação desta iniciativa da LLYC.
“Aqueles que participam na conversa social sabem que dar visibilidade à violência de género é fundamental para avançar na sua erradicação. No entanto, fazê-lo mal pode ser contraproducente, gerando sensacionalismo e provocando uma dupla vitimização. Na LLYC, queremos não só evidenciar este risco, mas também fornecer ferramentas para evitá-lo”, afirma Luisa García.
O Fernando é o diretor do InforGames. O seu primeiro computador foi o ZX Spectrum, e foi aqui que começou a interessar-se pelo mundo dos videojogos. Apesar de já ter jogado em várias plataformas, o PC continua a ser a sua plataforma de eleição. No que diz respeito a jogos, gosta de estratégia, corridas e luta.