OpenAI bloqueou cinco operações secretas de influência nos últimos três meses, incluindo redes da Rússia, China, Irã e Israel.

A OpenAI, renomada empresa de inteligência artificial, revelou que bloqueou cinco operações secretas de tentativa de influência nos últimos três meses. Essas operações foram conduzidas por redes da Rússia, China, Irã e Israel, que utilizaram os produtos de inteligência artificial da OpenAI, como o ChatGPT, para manipular a opinião pública e moldar resultados políticos, ocultando suas verdadeiras identidades.

O relatório divulgado pela OpenAI surge em um momento de crescente preocupação sobre o impacto da inteligência artificial nas eleições globais previstas para este ano. A empresa destacou como essas redes de influência se aproveitaram de ferramentas de IA para gerar textos e imagens com maior eficácia e precisão, comparado ao que seria possível com intervenção humana.

Apesar de todas as estratégias adotadas pelas redes de influência, a OpenAI avaliou que essas campanhas não obtiveram um aumento significativo em seu alcance devido ao uso dos serviços da empresa. Ben Nimmo, pesquisador principal da OpenAI, enfatizou durante uma coletiva de imprensa que o relatório visa preencher lacunas e alertar sobre os riscos dessas operações de influência.

As redes identificadas pela OpenAI foram descritas como operações secretas de manipulação da opinião pública sem revelar sua verdadeira identidade ou intenções. Nimmo ressaltou que esses grupos se diferenciam das redes de desinformação, pois frequentemente disseminam informações factualmente corretas, porém, de maneira enganosa.

A empresa destaca que o uso de IA generativa por essas redes de propaganda é uma prática relativamente nova. Além disso, apontou que o conteúdo gerado por IA foi utilizado em conjunto com formatos tradicionais, como textos escritos manualmente e memes nas principais redes sociais. A OpenAI percebeu a presença dessas operações e se posicionou para combatê-las, empregando seus próprios recursos de IA para identificar e se proteger contra possíveis ameaças.

É importante ressaltar que, embora essas operações de influência tenham tido um alcance limitado, existe o risco de que, se não forem identificadas a tempo, possam se tornar mais relevantes. A OpenAI está compartilhando informações sobre essas ameaças com outras empresas do setor e planeja continuar divulgando relatórios no futuro, com o objetivo de auxiliar na detecção e prevenção de práticas danosas que visam manipular a opinião pública e influenciar resultados políticos.

Artigos relacionados

Botão Voltar ao topo