ONU já tem equipa global para se dedicar à “conversa” sobre a governação da IA
Desde a estrondosa "chegada" da Inteligência Artificial (IA), há cerca de um ano, que as autoridades governamentais, bem como as empresas, falam da necessidade de a regulamentar. Ora, a Organização das Nações Unidas (ONU) criou, agora, uma equipa global para se dedicar à "conversa" sobre a governação da tecnologia.
Ainda não é bem aquilo que as empresas e os especialistas passaram largos meses a pedir. Contudo, trata-se, para já, de um grupo global consultivo, cuja missão passará por avaliar os riscos da IA e por apresentar propostas sobre como a cooperação internacional pode ajudar a enfrentar os desafios que ela impõe.
Sem entrar numa série de cenários apocalípticos, já é claro que o uso malicioso da IA pode minar a confiança nas instituições, enfraquecer a coesão social e ameaçar a própria democracia.
Disse o secretário-geral da ONU, António Guterres, observando que a equipa promoverá uma "conversa global multidisciplinar", que incluirá as várias partes interessadas.
I launched my High-Level Advisory Body on Artificial Intelligence.
This is the starting point for a global conversation on the governance of AI, so that its benefits to all of humanity are maximized, and the risks contained & diminished. pic.twitter.com/ULVC762LYo
— António Guterres (@antonioguterres) October 27, 2023
Os membros desta equipa global foram selecionados pelo enviado do secretário-geral da ONU para a tecnologia, com contribuições de outras organizações como a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO), e serão liderados por dois copresidentes: Carme Artigas, secretária de estado da Digitalização e Inteligência Artificial de Espanha, e James Manyika, vice-presidente sénior da Google-Alphabet.
Na lista, consta também o nome de Natasha Crampton, diretora responsável pela IA da Microsoft, e Mira Murati, diretora de tecnologia da OpenAI. Ao todo, são 39 especialistas, oriundos dos quatro cantos do mundo.
Conforme alertou Guterres, o conhecimento sobre a IA está, hoje, concentrado em apenas um grupo de empresas e países, uma realidade que pode "aprofundar as desigualdades globais e transformar as divisões digitais em abismos".
Qual o propósito deste órgão consultivo para a IA?
Há uns tempos, Sam Altman, CEO da OpenAI, empresa responsável pelo ChatGPT, alertou para a necessidade de uma organização semelhante à Agência Internacional de Energia Atómica (AIEA), para regulamentar a IA e assegurar que a sua utilização se regia por linhas orientadoras.
Considerando que "se esta tecnologia der errado, pode dar muito errado", o executivo sugeriu que o órgão poderia, por exemplo, conceder licenças aos sistemas de IA, ou retirá-las, se não garantissem o cumprimento dos padrões de segurança.
Embora António Guterres tenha concordado com um órgão deste tipo, regulador e de alcance global, admitiu não poder criá-lo, uma vez que apenas os Estados-membros têm capacidade para o fazer.
Então, o órgão consultivo da ONU planeou rever, periodicamente, os acordos de governação da IA e fazer recomendações a esse respeito. No final de 2023, será publicado um primeiro relatório intercalar, com o final a chegar antes de 31 de agosto de 2024.
De acordo com um documento divulgado pela ONU, o relatório poderá oferecer "recomendações detalhadas sobre as funções, forma e prazos de uma nova agência internacional para a governança da IA".
Além do novo órgão da ONU, estão em curso duas outras grandes iniciativas internacionais em matéria de IA.
Um delas diz respeito à primeira cúpula global de segurança da IA, que será realizada, em novembro, com líderes de todo o mundo, no Reino Unido; a outra é da responsabilidade dos países do G7, que concordaram, em setembro, elaborar um código de conduta não vinculativo. Espera-se que uma primeira proposta seja apresentada antes do final do ano.
Este artigo tem mais de um ano
Imagem: Freepik
Noticia o Expresso, em 30/10/2023, que, enquanto a UE prepara o seu “IA Act”, “Biden assina ordem executiva para regulamentar uso da inteligência artificial”.
A ordem, com força de lei, segue-se a um compromisso voluntário de 15 empresas, como Google, Microsoft e OpenAI, que em julho concordaram em aderir a certas regras.
Foram consultados os governos de Austrália, Brasil, Canadá, Chile, União Europeia, França, Alemanha, Índia, Israel, Itália, Japão, Quênia, México, Holanda, Nova Zelândia, Nigéria, Filipinas, Singapura, Coreia do Sul, Emirados Árabes Unidos e Reino Unido.
A ordem divide-se em oito áreas: segurança da IA, privacidade dos cidadãos, proteção da equidade e direitos civis, utilização na área da saúde, impacto no mercado laboral, inovação e concorrência, cooperação internacional e utilização responsável pelo governo.
Aponto um aspeto:
“Exigir que os programadores dos sistemas de IA mais poderosos compartilhem os seus resultados de testes de segurança e outras informações críticas com o governo dos EUA. De acordo com a Lei de Produção de Defesa, a Ordem exigirá que as empresas que desenvolvem qualquer modelo fundamental que represente um sério risco para a segurança nacional, a segurança económica nacional ou a saúde e segurança pública nacionais notifiquem o governo federal ao treinar o modelo e compartilhem os resultados de todos os testes de segurança. Essas medidas garantirão que os sistemas de IA sejam seguros, protegidos e confiáveis antes que as empresas os tornem públicos.”
Não estou a ver os EUA ou a China a compartilhar os segredos das suas IA relativos à segurança nacional, segurança económica e segurança pública. . O que vai fazer a UE ou a ONU no meio disto, não sei.