Todos os dias surgem notícias dos avanços da tecnologia em torno da Inteligência Artificial, e todos os dias ouvem-se vozes que alertam mais os perigos desta tecnologia e do seu desenvolvimento acelerado. Há um grupo de grandes líderes da indústria de topo que lançou mais um alerta, com uma frase impactante.
Mitigar o risco de extinção da IA deve ser uma prioridade global, tal como é feito com outros riscos de escala social, como pandemias e guerra nuclear.
Esta frase pode ser lida numa declaração assinada por grandes nomes da indústria, publicada no Center for AI Safety. Na lista de assinaturas constam nomes como Sam Altman, CEO da OpenAI, Demis Hassabis, CEO da Google DeepMind e os investigadores Geoffrey Hinton e Yoshua Bengio, considerados por muitos como os padrinhos da IA moderna.
Especialistas em IA, jornalistas, formuladores de políticas e o público estão a discutir cada vez mais um amplo espectro de riscos importantes e urgentes da IA. Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada. Esta curta declaração, segundo é indicado, visa superar esse obstáculo e abrir a discussão.
Também visa criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada.
Ainda falta avaliar riscos e regular
Esta é a segunda declaração do género nos últimos meses. Já em março Elon Musk e Steve Wozniak, com mais de 1000 outras personalidades da tecnologia e da ciência, tinham pedido para que o desenvolvimento dos sistemas de IA parassem de ser alimentados com informação para haver tempo de regular e criar regras para a utilização da Inteligência Artificial.
Embora a IA não seja propriamente autoconsciente, como alguns temiam, ela já apresenta riscos de uso indevido e danos através de deepfakes, desinformação automatizada e muito mais. Os LLMs também podem mudar a forma como o conteúdo, a arte e a literatura são produzidos, afetando potencialmente vários empregos.
Por todo o mundo, os governos estão já empenhados em encontrar as melhores estratégias de regulação e, em vários países, soluções como o ChatGPT já foram mesmo banidas. Na União Europeia, a OpenAI já disse que poderia sair do território caso as regras que estão a ser escritas sejam um incómodo… Podendo não ter condições para cumprir com as exigências impostas.