OpenAI, mãe do ChatGPT, dissolve equipa dedicada aos riscos da IA a longo prazo
O público está ciente dos riscos e das potencialidades da Inteligência Artificial (IA). De algumas pelo menos, pois as implicações reais são um tanto desconhecidas, estando apenas as empresas conscientes do que vão desenvolvendo (à partida). Apesar disto, um ano após ter criado uma equipa dedicada aos riscos da tecnologia a longo prazo, a OpenAI dissolveu-a.
De acordo com uma pessoa familiarizada com o assunto, citada pela CNBC, a OpenAI dissolveu a sua equipa focada nos riscos a longo prazo da IA, apenas um ano após a empresa ter anunciado o grupo. A pessoa, que falou sob condição de anonimato, disse que alguns dos membros da equipa estão a ser transferidos para várias outras equipas dentro da empresa.
A notícia, divulgada pela primeira vez pela Wired, surge dias depois de ambos os líderes de equipa - o cofundador da OpenAI, Ilya Sutskever, e Jan Leike - terem anunciado a sua saída da empresa. Na sexta-feira, este último escreveu que a "cultura e processos de segurança da OpenAI ficaram em segundo plano em relação a produtos «shiny»".
A equipa Superalignment da OpenAI, anunciada no ano passado, concentrou-se em "avanços mais inteligentes do que nós". Na altura, a OpenAI disse que direcionaria 20% do seu poder de computação para a iniciativa ao longo de quatro anos - o que parece não ter acontecido, pela falta de meios relatada.
A OpenAI não forneceu um comentário e, em vez disso, direcionou a CNBC para o post recente do cofundador e diretor-executivo, Sam Altman, no X, onde ele partilhou que estava triste por ver Leike sair e que a empresa tinha mais trabalho a fazer:
i'm super appreciative of @janleike's contributions to openai's alignment research and safety culture, and very sad to see him leave. he's right we have a lot more to do; we are committed to doing it. i'll have a longer post in the next couple of days.
— Sam Altman (@sama) May 17, 2024
No sábado, o cofundador da OpenAI, Greg Brockman, declarou que a empresa "aumentou a consciencialização sobre os riscos e oportunidades da Inteligência Artificial Geral (em inglês, AGI) para que o mundo possa preparar-se melhor para isso".
We’re really grateful to Jan for everything he's done for OpenAI, and we know he'll continue to contribute to the mission from outside. In light of the questions his departure has raised, we wanted to explain a bit about how we think about our overall strategy.
First, we have… https://t.co/djlcqEiLLN
— Greg Brockman (@gdb) May 18, 2024
Após o anúncio da saída, Jan Leike escreveu, também no X, que entrou na OpenAI, porque pensou que a empresa seria o melhor lugar do mundo para fazer investigação.
No entanto, tenho discordado da liderança da OpenAI sobre as principais prioridades da empresa há algum tempo, até que finalmente chegamos a um ponto de rutura.
Escreveu Leike, alegando acreditar que a empresa deveria focar-se consideravelmente mais na segurança, proteção, monitorização e impacto social.
Construir máquinas mais inteligentes do que os humanos é um esforço inerentemente perigoso. A OpenAI está a assumir uma enorme responsabilidade em nome de toda a humanidade.
Mas, nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano relativamente a produtos "shiny".
Para Leike, a OpenAI tem de se tornar uma "empresa de AGI que dá prioridade à segurança".
Leia também:
Ou seja, não quer entraves! Se for para dizimar a humanidade, que seja!
Desde quando a destruição da humanidade foi algum entrave para alcançar o lucro!? pena é ser uma morte muito lenta!
Dumb move
As empresas têm de ter responsabilidade social, não podem controlar sozinhas uma ferramenta com a inteligência artificial, os governos andam a dormir e as empresas aproveitam-se com a falta de regulação.
Só quando as primeiras vitimas começarem a surgir é que vão fazer alguma coisa, e ai… já vão tarde demais.
O engraçado é que este tópico não tem sido motivo de conversa eleitoral, se não me falha a memoria só o Livre é que tentou pegar no tema (não defendo partidos políticos), mas rapidamente o tema nem interessou aos entrevistadores.
Mas uma coisa é certa, a partir de 2026 final 2025 os governos vão ser apanhados desprevenidos e vai ser interessante como irão reagir.