O relatório aponta que o LAION-5B contém links para fotos facilmente identificáveis desses jovens, com informações como quando e onde foram tiradas as fotografias, e até mesmo os nomes de alguns deles presentes nas legendas ou URLs das imagens. A Laion, organização alemã responsável pelo gerenciamento do LAION-5B, confirmou a presença das fotos no conjunto de dados e prometeu removê-las, mas discordou que os modelos de IA reproduzem dados pessoais de forma literal.
O LAION-5B é um dataset aberto que conta com cerca de cinco bilhões de pares de imagem e texto, permitindo a qualquer empresa ou indivíduo acessar as informações. A Laion destaca que o conjunto de dados aumenta as possibilidades de treinamento em larga escala em diversas línguas, sendo uma prática comum no setor de IA.
No entanto, a Human Rights Watch encontrou 170 fotos de crianças de pelo menos dez estados brasileiros no LAION-5B, levantando preocupações sobre a privacidade e segurança desses jovens. A disponibilidade dessas imagens no dataset pode facilitar a produção de deepfakes e outras formas de manipulação que colocam em risco a dignidade e privacidade das crianças e adolescentes envolvidos.
Diante desse cenário, a organização recomenda que o governo adote políticas urgentes para proteger os dados das crianças contra uso indevido impulsionado por IA. Além disso, propõe que a legislação brasileira sobre inteligência artificial incorpore proteções de privacidade específicas para crianças, visando evitar danos e garantir a justiça e reparação em caso de violação.
Esse é um tema que demanda atenção e ação rápida por parte das autoridades e empresas envolvidas, a fim de resguardar os direitos e a segurança das crianças e adolescentes brasileiros na era da inteligência artificial.