Especialistas preveem o impacto que a IA terá no futuro do trabalho
Com a emergência do ChatGPT e a Inteligência Artificial (IA) no centro do debate, é natural que os mais desatentos e receosos estranhem os conceitos e, em alguns casos, cheguem a temê-los. Por isso, e para esclarecer as mentes mais agitadas, trazemos a opinião de cinco especialistas sobre o impacto que os modelos de linguagem poderão ter no futuro do trabalho.
Os avanços tecnológicos agitam sempre o mercado de trabalho, por introduzirem soluções que descartam os profissionais, ainda que gerem novos cargos e novas áreas. Ora, remetendo aos temas que inundam a atualidade, a emergência dos modelos linguísticos está a permitir que cheguemos a patamares nunca antes vistos como, por exemplo, computadores a desenvolver textos, produzir músicas e criar imagens, assim como só um ser humano conseguia.
Esta facilidade tecnológica poderá estar a pôr em risco áreas de trabalho que se pensavam altamente humanas, como é o caso da arte, levantando questões sobre o futuro. Por isso, o The Conversation reuniu cinco especialistas em IA e pediu-lhes que opinassem, relativamente ao impacto que os modelos linguísticos de grande dimensão poderão ter nos artistas e nos profissionais do conhecimento.
Lynne Parker, vice-chanceler associada, University of Tennessee
Os grandes modelos linguísticos estão a tornar a criatividade e o conhecimento acessíveis a todos.
Para a vice-chanceler, é "especialmente notável" a forma como os modelos linguísticos entregam resultados com uma impressionante perícia humana. Afinal, todos aqueles que se consigam ligar à Internet conseguem aceder a ferramentas como o ChatGPT e, em pouco tempo, todos podem criar apresentações de negócios, gerar campanhas e propostas de marketing, garantir ideias para desenvolver um texto, ou até mesmo produzir linhas de código que respondam a uma necessidade específica.
Apesar de não conseguirem ler mentes e embora representem benefícios significativos na disponibilização do mundo criativo a todos, para Lynne Parker, os sistemas de IA poderão ser um problema.
Em primeiro lugar, porque podem acelerar a perda de competências humanas que permanecerão importantes, ao longo dos próximos anos, "especialmente no que diz respeito à escrita, pelo que as instituições de ensino precisam de definir políticas que regulem a utilização dos modelos linguísticos, de modo a assegurar a aprendizagem pretendida e a justiça. Em segundo lugar, porque estas ferramentas de IA levantam questões no que à propriedade intelectual diz respeito.
Estas ferramentas estão na sua infância, dado o seu potencial. Por enquanto, acredito que existem soluções para as suas atuais limitações.
Daniel Acuña, professor associado de Informática, University of Colorado Boulder
Sou um utilizador regular do GitHub Copilot, uma ferramenta para ajudar as pessoas a escrever código informático, e passei inúmeras horas a brincar com o ChatGPT e ferramentas semelhantes para texto gerado por IA. Na minha experiência, estas ferramentas são boas para explorar ideias que nunca tinha pensado antes.
Segundo o professor, as ferramentas de IA "são úteis para descobrir novas formas de melhorar o fluxo de ideias, ou para criar soluções com pacotes de software" que ele não sabia que existiam.
Assim que vir o que estas ferramentas geram, posso avaliar a sua qualidade e editá-las pesadamente. Em geral, penso que elevam a fasquia sobre o que é considerado criativo.
Na sua opinião, um dos problemas dos modelos linguísticos, como o ChatGPT, é o conjunto de imprecisões que podem gerar, sejam elas significativas ou não. Nesse sentido, considera que "se os utilizadores não forem críticos em relação ao que as ferramentas produzem, elas são potencialmente nocivas". Aliás, conforme recorda, recentemente, a Meta encerrou "o seu modelo para textos científicos, Galactica, porque inventava factos" ao mesmo tempo que "soava muito confiante".
Além dos preconceitos que os modelos linguísticos podem aprender, Daniel Acuña também apontou o plágio como um problema de sistemas de IA. Ambos são, para o professor, mais flagrantes nos modelos de geração de imagens.
Kentaro Toyama, professor de Informação Comunitária, University of Michigan
Nós, seres humanos, adoramos acreditar na nossa especialidade, mas a ciência e a tecnologia têm provado repetidamente que esta convicção está errada [...] Entretanto, a tecnologia anulou, uma a uma, a afirmação de que as tarefas cognitivas requerem um cérebro humano.
O professor questiona a forma como a inteligência e a criatividade humana serão valorizadas, no momento em que as máquinas conseguirem tornar-se mais inteligentes e criativas. Segundo refere, "em alguns domínios", ainda que um computador seja capaz de fazer melhor, a vertente humana ainda é valorizada.
Em outros domínios, a perícia humana parecerá dispendiosa e irrelevante. Veja-se a ilustração, por exemplo. Na sua maioria, os leitores não se importam se o gráfico que acompanha um artigo de revista foi desenhado por uma pessoa ou por um computador - apenas querem que seja relevante, novo e talvez divertido. Se um computador pode desenhar bem, os leitores importam-se se a linha de crédito diz Mary Chen ou System X?
Kentaro Toyama assegura que não será tudo "preto no branco" e que "muitos campos serão um híbrido". Na manufaturação, por exemplo, uma parte do trabalho já é executada por robôs, havendo humanos a supervisionar as máquinas. No entanto, a par disso, "continua a haver um mercado para produtos feitos à mão".
Mark Finlayson, professor associado de Informática, Florida International University
Como qualquer nova tecnologia poderosa que automatize uma habilidade - neste caso, a geração de texto coerente, embora algo genérico - afetará aqueles que oferecem essa habilidade no mercado.
O professor de Informática admite que os grandes modelos linguísticos, como o ChatGPT, que foram treinados com um número recorde de palavras, surpreendem muitos, incluindo especialistas em IA, pela sua flexibilidade e sensibilidade.
Além disso, acredita que os novos modelos linguísticos "permitirão novas formas de trabalho e resultarão em novos trabalhos ainda inimagináveis". Embora sejam impressionantes ajudantes, o professor sugere que os criativos e os profissionais do conhecimento olhem para as falhas dos novos sistemas de IA como oportunidades.
Afinal, conforme enumera, pode ser necessário adaptar, humanamente, a linguagem gerada por um modelo, garantir que os resultados são adequados, e assegurar que a informação gerada vai ao encontro do senso comum (apreendido pelos seres humanos).
Casey Greene, professor de Informática Biomédica, University of Colorado Anschutz Medical Campus
O ChatGPT envolve um modelo de linguagem de grande dimensão de última geração, afinado para o chat, numa interface altamente utilizável.
O professor Casey Greene acredita que "tal como acontece com muitos avanços tecnológicos, a forma como as pessoas interagem com o mundo irá mudar na era dos modelos de IA amplamente acessíveis". Afinal, sistemas como o ChatGPT colocam "uma década de rápido progresso da IA na ponta dos dedos das pessoas".
Na sua opinião, a pergunta que impera passa por perceber se a sociedade vai utilizar estes modelos de IA para "promover a equidade ou para exacerbar as disparidades".
Leia também:
Este artigo tem mais de um ano
Fonte: The Conversation
Neste artigo: ChatGPT, especialistas, IA, modelos de linguagem, modelos linguísticos, trabalhadores
Apesar de reconhecer as enormes vantagens e potencialidades deste tipo de ferramentas e acreditar que são sistemas que podem ser incrivelmente úteis, eu acho que a humanidade não está preparada para o impacto que este tipo de ferramentas pode ter. Alguns exemplos:
– surgimento de sistemas de inteligência artificial com a capacidade para identificar e explorar falhas em outros sistemas de informação, seja através da exploração e combinação de vulnerabilidades altamente complexas (de forma extremamente ágil), seja através de engenharia social dada a quantidade de informação a que estes sistemas têm acesso. Sim, possívelmente surgirão sistemas de inteligência artificial de defesa, mas neste jogo de camadas aplicacionais de elevada complexidade é mais fácil atacar do que defender…
– os humanos perderão capacidades intelectuais e ficaram cada vez mais dependentes dos sistemas de informação. Tal como atualmente muitos recorrerem a máquinas de calcular para fazer cálculos porque é mais simples e rápido, qual será a motivação de eu “perder” horas a escrever um texto quando posso obter um resultado melhor em apenas alguns segundos. Qual a motivação que eu tenho para memorizar “coisas” se basta perguntar a um software e ter a resposta que preciso sem ter de fazer qualquer esforço intelectual. E se eu não preciso de pensar…:
– Tudo o que [introduzir o nome do agente de IA preferido] me disser é verdade e não vou questionar porque está sempre certo. E se o agente nem tiver referências para me dar porque “obteve a informação de várias fontes”, como posso validar essa informação? Será que os outros agentes não vão utilizar as mesmas “fontes de informação”. E se a fonte de informação for o governo de uma superpotência?
– se o material e as fontes de informação se concentrarem em agentes de inteligência artificial, qual o interesse de manter e gerir um site que ninguém vai ler a não ser agentes de inteligência artificial que depois não vão citar a fonte?
Claro que bem tudo é mau. Nesta primeira fase vai ser óptimo dizer para escrever um texto sobre um determinado tema. Selecionar um parágrafo e pedir para gerar um gráfico resumo ou arranjar referências bibliográficas para sustentar as respetivas afirmações. Será fantástico pedirmos em linguagem natural para o sistema gerar um programa para se resolver um problema, sem ter conhecimentos de engenharia de software.
Mas não nos podemos esquecer que, com um grande poder…
Pior vais ser quando forem os humanos a serem escravizados na generalidade pelos robôs e perceberem se do grande erro que estão a cometer no ano de 2023 , pior ainda é as crianças que terão de crescer nessa porcaria de mundo !!!!! Dava mundo e fundos para que o mundo voltasse aos anos 90 !!!! Como é que as pessoas não veem o perigo disto e não veem o desemprego a subir por conta disto -.- mesma coisa que a guerra … porque que tem de ser o povo a ir para lá e não os líderes e familiares deles -.- baixem as armas e que os líderes se resolvam não se metam na guerra delas não fomos nós que as causamos e os que inventam este tipo de coisas de certo que não tinham nada na cabeça ou foram muito infelizes mesmo para quererem um mal tao grande a humanidade . Ridículo
Andas a ver filmes a mais! :d
…mas tens razão. Esse dia irá chegar mais tarde ou mais cedo. Já será tarde para o ser humano se arrepender.
Inteligência: capacidade de ser inteligível. Ser Inteligível é a capacidade de presenciar uma verdade presente. Isso às máquinas não fazem. Por muito bom que possam fazer cruzamentos de dados. São sempre programados por falhos. Quem chama a isso automatizado, inteligência… Quero ver se acerta no euromilhões.
como sou brasileiro pedi para a IA fazer um jogo da megasena,(principal loteria daqui), aposta maxima 20 numeros, com os numeros que ela escolheu , o premio maximo seria ganho em 6 vezes…dentro de 2500 concursos…
como tudo, uns vão utilizar como uma ferramenta extra ao trabalho, o resto vai usa-la para fazer todo o trabalho. Vamos assistir a uma preguiça mental em larga escala.
Férias todo o ano. O IA que trabalhe!