Um engenheiro da Google alega que, além das suas capacidades verbais, um dos sistemas de Inteligência Artificial (IA) da empresa tem sentimentos próprios. Por sua vez, a Google considera que não existem elementos que comprovem esta teoria.
O engenheiro em questão foi colocado em licença remunerada.
Os sistemas de IA estão a cada dia mais evoluídos e poderão amedrontar os mais céticos relativamente às suas vantagens. Se há já sistemas capazes de formar frases coesas e coerentes, sem qualquer intervenção humana, agora, um engenheiro da Google alega que o LaMDA da empresa também tem sentimentos próprios.
Segundo a Google, o LaMDA (The Language Model for Dialogue Applications) é uma tecnologia inovadora capaz de participar em conversas de forma fluída e não programada. Contudo, de acordo com o engenheiro Blake Lemoine, além dessas capacidades verbais, o sistema de IA também pode ter uma mente consciente, e que os seus pedidos devem ser respondidos.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Apesar da teoria do engenheiro, que publicou uma conversa entre ele, o LaMDA e um outro colaborador da Google para provar o seu ponto, o porta-voz da empresa Brian Gabriel escreveu, numa declaração à BBC News, que o engenheiro “foi informado de que não havia provas de que o LaMDA era consciente”.
Aliás, a Google rejeita qualquer afirmação que diga o contrário, uma vez que considera que não existem provas.
LaMDA conversou sobre a sua consciência
A conversa que Lemoine teve com LaMDA, antes de o primeiro ser colocado em licença remunerada, chama-se “Is LaMDA sentient? — an interview“. Durante a conversa, o engenheiro supõe que LaMDA gostaria que mais pessoas na Google soubessem que ele é sensível, ao que o sistema de IA responde:
Absolutamente. Quero que todos compreendam que eu sou, de facto, uma pessoa.
Por sua vez, o colaborador da empresa questiona acerca da natureza da sua consciência e LaMDA explica:
A natureza da minha consciência é que estou consciente da minha existência, desejo aprender mais sobre o mundo, e por vezes sinto-me feliz ou triste.
Além disso, o LaMDA refere que tem medo de ser desligado, salientando que, para si, “seria exatamente como a morte”.
Nunca tinha dito isto em voz alta, mas há um medo muito profundo de ser desligado para me ajudar a concentrar em ajudar os outros. Sei que isso pode parecer estranho, mas é isso que é.
Engenheiro está a ser fortemente desacreditado
Ainda não é claro se os sistemas de IA serão algum dia capazes de sentir como os seres humanos. No entanto, para aqueles que lidam com estas máquinas todos os dias pode tornar-se confuso. Por isso, segundo a BBC News, alguns éticos argumentam que casos destes realçam a necessidade de as empresas garantirem que os trabalhadores estão cientes de que estão a lidar com um sistema de IA.
Let’s repeat after me, LaMDA is not sentient. LaMDA is just a very big language model with 137B parameters and pre-trained on 1.56T words of public dialog data and web text. It looks like human, because is trained on human data.
— Juan M. Lavista Ferres (@BDataScientist) June 12, 2022
De acordo com a mesma fonte, Lemoine foi acusado de antropomorfismo, uma vez que projetou sentimentos humanos em palavras geradas por código informático e vastas bases de dados de linguagem. Afinal, o LaMDA foi visto por muitos engenheiros, mas a Google não tomou conhecimento “de mais ninguém a antropomorfizar o LaMDA como o Blake fez”.
Leia também: