O acordo foi estabelecido por 16 empresas de tecnologia, incluindo gigantes como OpenAI, Google DeepMind e Anthropic, além do idealizador do ChatGPT. Essas empresas concordaram em seguir diretrizes para garantir o desenvolvimento seguro da IA, seguindo um consenso alcançado durante a primeira cúpula sobre IA realizada em Bletchley Park, no Reino Unido, no ano passado.
O primeiro-ministro britânico, Rishi Sunak, comemorou o compromisso das empresas, afirmando que elas se comprometeram a oferecer transparência e prestar contas sobre seus planos para desenvolver uma IA segura. O governo britânico destacou que as empresas que não divulgaram ainda como avaliam os riscos associados à tecnologia deverão publicar essas diretrizes.
Além disso, o acordo estabelece que as empresas de IA definirão quais perigos são considerados “intoleráveis” e estabelecerão protocolos para garantir que não ultrapassem esses limites. Em casos extremos, as empresas se comprometeram a não desenvolver ou implantar um modelo ou sistema se as políticas de mitigação não forem capazes de manter os riscos em níveis toleráveis.
Essa iniciativa reflete um importante passo no sentido de garantir o desenvolvimento seguro e responsável da IA, considerando os potenciais impactos e desafios éticos envolvidos nessa tecnologia. A transparência e o comprometimento das empresas são fundamentais para assegurar que a IA seja utilizada de maneira ética e segura em benefício da sociedade.