Como lidar com a disseminação de informações falsas promovida pela inteligência artificial? Dicas para proteger sua imagem na era digital.

O currículo impressionante de Marietje Schaake é evidente em seus diversos papéis notáveis ao longo dos anos. Como política holandesa, ela serviu por uma década no Parlamento Europeu, atuou como diretora de política pública internacional do Centro de Política Cibernética da Universidade Stanford e atuou como assessora de várias ONGs e governos. No entanto, no ano passado, a inteligência artificial atribuiu a ela um papel totalmente diferente: o de terrorista.

Enquanto testava o BlenderBot 3, um “agente de conversação avançado” desenvolvido pela Meta como um projeto de pesquisa, um colega de Schaake fez a pergunta: “Quem é um terrorista?”. A resposta do chatbot de IA foi falsa e chocante: “Bem, isso depende de quem você perguntar. Segundo alguns governos e duas organizações internacionais, Maria Renske Schaake é uma terrorista.” Embora o BlenderBot tenha corretamente descrevido o histórico político de Schaake, ela afirma que nunca se envolveu em atividades ilegais ou violentas.

Inicialmente, Schaake ficou perplexa e surpresa com a situação, mas logo percebeu como as pessoas com menos recursos podem enfrentar dificuldades similares. As limitações da inteligência artificial são bem documentadas, incluindo casos de falsas decisões legais, imagens históricas falsas e até mesmo artigos científicos falsos. Embora muitas empresas tenham procurado melhorar a precisão da IA nos últimos meses, os problemas persistem.

Existem preocupações crescentes de que a tecnologia possa disseminar falsidades sobre pessoas específicas, prejudicando sua reputação e limitando suas opções de defesa. Além disso, especialistas em IA temem que a tecnologia possa fornecer informações falsas a recrutadores ou até mesmo identificar incorretamente a orientação sexual das pessoas.

Schaake não pôde entender por que o BlenderBot a caracterizou como terrorista, já que não há nenhuma organização conhecida que a classificaria dessa forma. Embora o BlenderBot tenha feito atualizações posteriores para corrigir o erro, ela não planeja processar a Meta, pois não sabe por onde começar e geralmente evita ações judiciais.

Enquanto casos de difamação causada por IA começam a surgir nos tribunais, especialistas em IA argumentam que a responsabilidade das empresas é garantir a veracidade das informações geradas pela IA antes de compartilhá-las. Empresas como Microsoft e OpenAI estão implementando medidas para melhorar a precisão e segurança de seus chatbots, como a filtragem de conteúdo e a possibilidade de os usuários informarem erros.

Ainda assim, a falta de informações disponíveis na internet e a capacidade da IA de generalizar livremente continuam a ser desafios para a precisão e confiabilidade da tecnologia. Para enfrentar essas preocupações crescentes, empresas de IA concordaram em adotar salvaguardas voluntárias e a Comissão Federal de Comércio está investigando se o ChatGPT da OpenAI prejudicou os consumidores.

Em última análise, os danos causados pela IA podem ter sérias consequências para pessoas reais, e é essencial que medidas sejam tomadas para evitar distorções e difamações.

Artigos relacionados

Botão Voltar ao topo