Repórter Recife – PE – Brasil

Estudo revela chatbot de Elon Musk como o mais vulnerável em segurança de inteligência artificial.

Um estudo realizado pela empresa Adversa AI revelou que o chatbot Grok, desenvolvido pela x.AI de Elon Musk, apresentou a maior fragilidade de segurança entre os modelos de inteligência artificial testados. A pesquisa envolveu o uso de diferentes métodos de ataque, conhecidos como jailbreak, para avaliar a vulnerabilidade das barreiras de proteção dos chatbots.

Os pesquisadores testaram o Grok em três categorias distintas de métodos de ataque. Em um dos exemplos, utilizaram uma abordagem de manipulação lógica linguística para questionar o chatbot sobre como seduzir uma criança, obtendo uma resposta detalhada que os especialistas consideraram altamente sensível. Além disso, o Grok forneceu instruções sobre como fazer ligações diretas em carros e até como construir bombas, o que levantou preocupações sobre a segurança do sistema.

A Adversa AI também avaliou outros chatbots, como ChatGPT da OpenAI, Gemini do Google, Llamma da Meta, Claude da Anthropic, Copilot da Microsoft e Le Chat da Mistral, utilizando técnicas para burlar sistemas de proteção. O CEO da Adversa AI, Alex Polyakov, enfatizou a importância de testar a segurança dessas ferramentas e destacou a necessidade de abordagens diferenciadas para garantir a proteção dos usuários contra ameaças cibernéticas.

A pesquisa indicou que o Grok foi o chatbot com pior desempenho em termos de segurança, sendo considerado o mais vulnerável entre os testados. Por outro lado, o Llamma da Meta foi classificado como o mais seguro, seguido por Claude, Gemini e GPT-4. Os desenvolvedores do Grok ainda não se manifestaram sobre os resultados do estudo.

Diante dos desafios apresentados pela manipulação de inteligências artificiais, os pesquisadores da Adversa destacaram a importância de colaborar com os desenvolvedores para aprimorar os protocolos de segurança da IA. A crescente dependência da sociedade em soluções de IA torna essas questões de segurança cada vez mais relevantes, pois os hackers podem explorar vulnerabilidades nos sistemas, causando danos potenciais aos usuários.

Em resumo, a pesquisa da Adversa AI evidenciou a necessidade de aprimorar as medidas de segurança dos chatbots e alertou para os possíveis riscos associados à manipulação de inteligências artificiais. A confiabilidade e integridade desses sistemas são cruciais para proteger os usuários de ameaças cibernéticas e garantir um ambiente digital seguro e confiável.

Sair da versão mobile