‘Padrinho’ da Inteligência Artificial alerta para perigos da tecnologia
Muito se tem falado sobre a inteligência Artificial e são também já muitos que têm alertado para os perigos da tecnologia. Há quem refira mesmo que a Inteligência Artificial pode "matar" a indústria do software. O 'padrinho' da inteligência artificial, que se demitiu do Google, advertiu recentemente para os perigos da tecnologia.
Inteligência Artificial pode-se tornar um risco para a própria humanidade
Geoffrey Hinton saiu da Google e deixou o alerta, “em breve”, os 'chatbots' podem ser mais inteligentes que os humanos. Geoffrey Hinton é considerado um dos grandes pioneiros da inteligência artificial, tendo renunciado, aos 75 anos, ao cargo que ocupava na Google depois de alertar para os perigos desta tecnologia.
Em entrevista ao jornal norte-americano New York Times, Hinton tem fortes receios de que a inteligência artificial se torne num risco para a própria humanidade.
Geoffrey Hinton demitiu-se da Google por estar livre para falar, segundo revela numa publicação no Twitter:
In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly.
— Geoffrey Hinton (@geoffreyhinton) May 1, 2023
Em entrevista à BBC, Hinton referiu que os chatbots mais avançados, como é o exemplo o ChatGPT ou o Bard, criado pela Google, “ainda não são mais inteligentes do que nós, mas penso que em breve poderão vir a sê-lo".
Este artigo tem mais de um ano
Mais algumas ideias de Hinton na entrevista à BBC:
“Na IA as redes neurais são sistemas semelhantes ao cérebro humano na maneira como aprendem e processam informações. Eles permitem que as IAs aprendam com a experiência, como uma pessoa faria. Chama-se a isso aprendizagem profunda (deep learning). Neste momento, o que estamos a ver é que coisas como o GPT-4 eclipsam uma pessoa na quantidade de conhecimento geral e por uma larga margem. Em termos de raciocínio, não é tão bom, mas já faz um raciocínio simples. E, dada a taxa de progresso, espera-se que as coisas melhorem muito rapidamente. Então precisamos nos preocupar com isso.”
Foi essa aceleração inesperada que, diz a BBC, levou a que dezenas de especialistas de AI assinassem a conhecida carta de Musk, dizendo que era necessário dar um passo atrás.
Hinton não concorda com a paragem no desenvolvimento da IA porque: “No curto prazo a IA trará muito mais benefícios do que riscos. A competição internacional significaria que uma pausa seria difícil, ou seja, mesmo que todos nos EUA parassem o desenvolvimento da IA, a China teria uma grande vantagem”.
Por fim, o Dr. Hinton também disse que era um especialista em ciência, não em política, e que era responsabilidade do governo garantir que a IA fosse desenvolvida “com muita reflexão sobre como impedi-la de se tornar desonesta”.
A questão é esta: vamos parar a IA? Vamos parar a evolução? É possível sabermos e não avançarmos mais…., numa linguagem bíblica, é possível termos o objeto do desejo nas nossas mãos sem pecarmos? Até quando? Todo o conhecimento é uma caixa de pandora! Deixem-se de moralismos. A energia atómica é tão má e tão boa quanto a IA…
São coisas totalmente diferentes. A energia atómica não tem capacidade para tomar decisões ou, está próximo de ser possível, executar ações de forma totalmente autónoma.
Aproxima-se a uma velocidade acelerada a singularidade tecnológica …
As dúvidas e receios apresentados por quem bem conhece a tecnologia não são infundados; acredito que a tecnologia começa a estar numa encruzilhada que certamente decidirá muito do futuro da humanidade como a conhecemos.
Obrigado até enfim, li um comentário feito com o cérebro
O que eu disse foi que desde sempre o conhecimento e a investigação…, atómica, genética, por exemplo, a manipulação genética, e agora a IA, sempre tiveram consequências boas e más e provocaram medos e esperança, a caixa de Pandora…..
A evolução é positiva desde que não seja exponencial, que é o caso que está a acontecer. É impossivel manter o ritmo de crescimento exponencial. Não há recursos suficientes na Terra. Como sociedade ainda nem sabemos definir a digitalização e as suas consequências e já estamos a saltar para a IA. Pensam que estamos preparados para daqui a 5-10 anos aparecerem evoluções que nem imaginamos? Evoluir nos próximos 5-10 anos o que evoluimos em 500? Achas mesmo que evoluir começa a ser benéfico para a humanidade? Sem crescimento sustentável, é o nosso fim.
Curioso, como caminhamos aceleradamente para o cenário traçado nos filmes do exterminador!
A humanidade constrói suas realidades acima das ficções criadas por ela mesma.