Uso da inteligência artificial prejudica a sua inteligência real? Cientistas investigaram
A crescente integração de ferramentas de inteligência artificial (IA), como o ChatGPT, no nosso quotidiano levanta uma questão pertinente: estará o seu uso a comprometer a nossa própria inteligência?
O que revelou o estudo do MIT?
Desde o surgimento do ChatGPT, o debate sobre o impacto da IA na aprendizagem tem sido intenso. Por um lado, são vistas como ferramentas valiosas para uma educação personalizada; por outro, como potenciais facilitadoras de fraude académica.
A principal preocupação, contudo, reside na possibilidade de um "emburrecimento" generalizado, uma diminuição da nossa capacidade de pensamento crítico. O receio é que, ao recorrerem prematuramente a estas ferramentas, os estudantes não desenvolvam as competências essenciais de raciocínio e resolução de problemas.
Uma investigação recente conduzida por cientistas do Massachusetts Institute of Technology (MIT) parece validar estas preocupações. Segundo os investigadores, a utilização do ChatGPT para auxiliar na redação de textos pode resultar numa "dívida cognitiva" e numa "provável diminuição das competências de aprendizagem".
Durante quatro meses, a equipa do MIT solicitou a 54 adultos que redigissem uma série de três ensaios. Os participantes foram divididos em três grupos: um utilizou IA (ChatGPT), outro um motor de pesquisa tradicional, e o terceiro recorreu apenas ao seu próprio cérebro (o grupo "apenas cérebro"). O envolvimento cognitivo foi medido através da análise da atividade elétrica cerebral e da análise linguística dos ensaios.
Os resultados foram claros: o envolvimento cognitivo do grupo que utilizou IA foi significativamente inferior ao dos outros dois. Este grupo demonstrou também maior dificuldade em recordar citações dos seus próprios textos e manifestou um menor sentimento de autoria sobre o trabalho produzido.
Numa fase final, os participantes trocaram de papéis para um quarto ensaio. O grupo que passou da IA para o "apenas cérebro" teve um desempenho inferior e um nível de envolvimento apenas ligeiramente superior ao do outro grupo na sua primeira sessão.
Os autores do estudo afirmam que isto demonstra como o uso prolongado de IA levou os participantes a acumularem uma "dívida cognitiva", sendo incapazes de replicar o desempenho ou o envolvimento dos restantes quando finalmente tiveram de usar as suas próprias capacidades.
Será que a IA nos torna realmente menos inteligentes?
Apesar dos resultados, é precipitado concluir que a IA nos torna menos inteligentes. Os próprios autores do estudo alertam que apenas 18 participantes completaram a quarta e última sessão, o que torna as conclusões preliminares e a necessitar de mais investigação.
Uma análise mais crítica sugere que os resultados podem ser explicados pelo desenho específico do estudo. A melhoria na conectividade neural do grupo "apenas cérebro" ao longo das três primeiras sessões pode dever-se ao chamado "efeito de familiarização". À medida que os participantes repetem uma tarefa, tornam-se mais eficientes e a sua estratégia cognitiva adapta-se.
Quando o grupo da IA teve de realizar a tarefa "apenas com o cérebro", fê-lo pela primeira vez, não tendo tido a oportunidade de desenvolver a mesma familiaridade.
Da mesma forma, o facto de o grupo que passou do cérebro para a IA ter utilizado o ChatGPT de forma mais estratégica pode ser explicado pela natureza da tarefa final, que exigia a escrita sobre um dos três tópicos anteriores.
Como a escrita sem assistência exigiu um maior envolvimento, estes participantes tinham uma melhor recordação do que haviam escrito, utilizando a IA principalmente para refinar ideias e procurar informação complementar.
O futuro da avaliação na era da inteligência artificial
Para compreender a situação atual, podemos traçar um paralelo com a introdução das calculadoras. Nos anos 70, o seu impacto foi regulado tornando os exames mais difíceis. Em vez de realizarem cálculos manuais, esperava-se que os alunos usassem as calculadoras e dedicassem o seu esforço cognitivo a tarefas de maior complexidade.
Na prática, a fasquia foi elevada, o que obrigou os estudantes a trabalhar tanto ou mais do que antes.
O desafio com a IA é que, na sua maioria, o sistema de ensino ainda não elevou a fasquia de forma a tornar a sua utilização uma parte necessária do processo. Os educadores continuam a exigir as mesmas tarefas e os mesmos padrões de há cinco anos.
Neste cenário, a IA pode, de facto, ser prejudicial, permitindo que os alunos deleguem o envolvimento crítico na ferramenta, resultando em "preguiça metacognitiva".
Leia também:
Pode ser que prejudique quem fica na preguiça e não busca aprender!
Mas trás muitas oportunidades também para quem quer evoluir, como ter uma renda extra, e assim sobrar tempo livre para estudar e buscar mais conhecimento, por exemplo no site: https://socialx.web.app/ da para se cadastrar como afiliado e divulgar ferramentas de IA para ganhar dinheiro! Assim da pra ganhar uma renda extra e usar essa renda para continuar estudando e aprendendo!
Não vou dizer “se sim ou se não” numa questão dessas, vou apenas contar uma particularidade dos chatbots:
– Os dados da evolução das cotações nos mercados internacionais do Brent, da gasolina, do gasóleo, do dólar, do bitcoin etc, são apresentados em gráficos, por exemplo, no site, Trading Economics. Fazendo o ponteiro percorrer o gráfico obtém-se o valor em cada data. Só raramente são apresentados em tabelas.
– Os chatbots não são capazes de ler esses gráficos.
– Pedi a um chatbot (Perplexity Pro) as cotações da gasolina e do gasóleo em três datas. Respondeu-me: “isso não tenho, mas tem aqui as cotações do Brent nessas datas, segundo a fonte” – e deu-me os valores que eu tinha escrito num comentário a um post, com o link para o post. Deu também um link para uma fonte com o gráfico onde eu podia encontrar os valores que pretendia. O texto escrito pelo chatbot era também uma reelaboração, muito bem feita – e até melhor do que eu tinha escrito.
Achei piada, mas dá para perceber os riscos de aceitar a informação da IA sem a confirmar. sobretudo em questões importantes. Mas, uma vez que vai buscar valores aos comentários dos posts – se for os meus, tenho o cuidado para que estejam certos (mas posso-me enganar) … mas se for buscar os valores dos comentários do @Manuel da Rocha, que os inventa, vai ser bonito 🙂
Em todos os cenários, a IA não pode, de facto, ser prejudicial, porque não permite, (2+2=4) que os alunos deleguem (WaterMark immutable IA Tools) e entreguem produtos apenas resultantes da “preguiça metacognitiva”.