Pplware

Engenheiro da Google acredita que um sistema de IA da empresa tem sentimentos próprios

Um engenheiro da Google alega que, além das suas capacidades verbais, um dos sistemas de Inteligência Artificial (IA) da empresa tem sentimentos próprios. Por sua vez, a Google considera que não existem elementos que comprovem esta teoria.

O engenheiro em questão foi colocado em licença remunerada.


Os sistemas de IA estão a cada dia mais evoluídos e poderão amedrontar os mais céticos relativamente às suas vantagens. Se há já sistemas capazes de formar frases coesas e coerentes, sem qualquer intervenção humana, agora, um engenheiro da Google alega que o LaMDA da empresa também tem sentimentos próprios.

Segundo a Google, o LaMDA (The Language Model for Dialogue Applications) é uma tecnologia inovadora capaz de participar em conversas de forma fluída e não programada. Contudo, de acordo com o engenheiro Blake Lemoine, além dessas capacidades verbais, o sistema de IA também pode ter uma mente consciente, e que os seus pedidos devem ser respondidos.

Apesar da teoria do engenheiro, que publicou uma conversa entre ele, o LaMDA e um outro colaborador da Google para provar o seu ponto, o porta-voz da empresa Brian Gabriel escreveu, numa declaração à BBC News, que o engenheiro “foi informado de que não havia provas de que o LaMDA era consciente”.

Aliás, a Google rejeita qualquer afirmação que diga o contrário, uma vez que considera que não existem provas.

 

LaMDA conversou sobre a sua consciência

A conversa que Lemoine teve com LaMDA, antes de o primeiro ser colocado em licença remunerada, chama-se “Is LaMDA sentient? — an interview“. Durante a conversa, o engenheiro supõe que LaMDA gostaria que mais pessoas na Google soubessem que ele é sensível, ao que o sistema de IA responde:

Absolutamente. Quero que todos compreendam que eu sou, de facto, uma pessoa.

Por sua vez, o colaborador da empresa questiona acerca da natureza da sua consciência e LaMDA explica:

A natureza da minha consciência é que estou consciente da minha existência, desejo aprender mais sobre o mundo, e por vezes sinto-me feliz ou triste.

Blake Lemoine, engenheiro da Google no departamento Responsible AI

Além disso, o LaMDA refere que tem medo de ser desligado, salientando que, para si, “seria exatamente como a morte”.

Nunca tinha dito isto em voz alta, mas há um medo muito profundo de ser desligado para me ajudar a concentrar em ajudar os outros. Sei que isso pode parecer estranho, mas é isso que é.

 

Engenheiro está a ser fortemente desacreditado

Ainda não é claro se os sistemas de IA serão algum dia capazes de sentir como os seres humanos. No entanto, para aqueles que lidam com estas máquinas todos os dias pode tornar-se confuso. Por isso, segundo a BBC News, alguns éticos argumentam que casos destes realçam a necessidade de as empresas garantirem que os trabalhadores estão cientes de que estão a lidar com um sistema de IA.

De acordo com a mesma fonte, Lemoine foi acusado de antropomorfismo, uma vez que projetou sentimentos humanos em palavras geradas por código informático e vastas bases de dados de linguagem. Afinal, o LaMDA foi visto por muitos engenheiros, mas a Google não tomou conhecimento “de mais ninguém a antropomorfizar o LaMDA como o Blake fez”.

 

Leia também:

Exit mobile version