A app mobile do ChatGPT acaba de ser lançada para iOS, o que acaba por ser uma revolução para o serviço de Inteligência Artificial. Mas, ao mesmo tempo que isto acontece, a Apple está a proibir os seus funcionários de utilizarem as ferramentas poderosas do ChatGPT na empresa.
O ChatGPT é hoje utilizado em muitas empresas como um recurso extra para ajudar a resolver muitas questões, das mais simples às mais complexas. No entanto, a Apple quer manter a Inteligência Artificia (IA), longe dos seus desenvolvimentos.
Recorreu a um memorando interno para dizer que as IA generativas não poderiam ser usadas para trabalhar. A notícia foi avançada pelo The Wall Street Journal, que terá tido acesso ao memorando, e refere que a Apple estará preocupada com a recolha de dados confidenciais dos funcionários e da empresa através dessas plataformas de IA.
Além do ChatGPT, a Apple também proibiu os seus funcionários de usar o Copilot do GitHub, que pertence à Microsoft. Com o Copilot, os programadores podem automatizar a escrita do código.
O ChatGPT, que também tem suporte da Microsoft, envia dados aos programadores para que eles continuem a aprimorar os modelos de inteligência artificial usados pela plataforma. Conforme observado pelo WSJ, um bug em março permitiu que os utilizadores tivessem acesso ao histórico do chat de outros utilizadores do ChatGPT.
Depois deste incidente, o ChatGPT adicionou a opção de permitir que desliguem o histórico de chat e não contribuam para o treino do modelo de IA.
Se os engenheiros da Apple usarem essas plataformas, não há como garantir que os códigos digitados por eles não acabem nas mãos de outra pessoa – ou mesmo ser usados pelos programadores por trás destas apps. O mesmo se aplica a outras informações confidenciais, já que os funcionários podem usar o ChatGPT para redigir e-mails, por exemplo.
A Samsung, recentemente, enviou também um memorando interno aos funcionários com o mesmo pedido e com as mesmas preocupações.