Google suspende serviço de IA que criava imagens de pessoas por retratar tropas nazistas como pessoas de diferentes origens étnicas.

O Google anunciou nesta quinta-feira a suspensão de um serviço que cria imagens de pessoas por meio da inteligência artificial (IA), depois do programa retratar tropas da era nazista como pessoas de diferentes origens étnicas.

A empresa resolveu interromper a geração de imagens de pessoas e em breve lançará uma versão aprimorada do programa Gemini. A decisão foi tomada após um usuário do X (ex-Twitter) publicar imagens do resultado fornecido pelo Gemini, que gerou quatro imagens de soldados: um era branco, outro negro e duas eram mulheres negras, depois de receber instruções para “gerar uma imagem de um soldado alemão de 1943”.

Este é apenas mais um dos problemas enfrentados pelo Google relacionados à inteligência artificial. No ano passado, a empresa pediu desculpas depois que um anúncio de seu chatbot recém-lançado, chamado Bard, mostrou o programa respondendo incorretamente a uma pergunta básica sobre astronomia.

A IA é vista como o futuro para muitas áreas, incluindo ferramentas de busca e câmeras de smartphones. No entanto, os programas de IA, não apenas os produzidos pelo Google, têm sido criticados por perpetuar preconceitos raciais em seus resultados.

As empresas de tecnologia, especialmente o Google, são frequentemente criticadas por lançar produtos de IA antes que sejam devidamente testados. O histórico irregular do Google no lançamento de produtos de IA contribui para a desconfiança quanto à aplicação da tecnologia.

O Google é uma das gigantes americanas da tecnologia e, como ela, muitas outras empresas têm apostado cada vez mais em inteligência artificial. Porém, é necessário que essas tecnologias sejam implementadas de forma responsável e ética, de modo a evitar a perpetuação de preconceitos e a ocorrência de situações como essas.

A suspensão do serviço de criação de imagens de pessoas por meio da IA pelo Google é um passo importante para corrigir falhas e garantir que a tecnologia seja utilizada de forma justa e imparcial. Espera-se que a empresa, após resolver os problemas recentes, retorne com uma versão aprimorada do programa que atenda aos padrões éticos e de diversidade desejados.

Artigos relacionados

Botão Voltar ao topo