Pplware

No dia em que o ChatGPT chega ao iOS, Apple proíbe funcionários de o usar

A app mobile do ChatGPT acaba de ser lançada para iOS, o que acaba por ser uma revolução para o serviço de Inteligência Artificial. Mas, ao mesmo tempo que isto acontece, a Apple está a proibir os seus funcionários de utilizarem as ferramentas poderosas do ChatGPT na empresa.


O ChatGPT é hoje utilizado em muitas empresas como um recurso extra para ajudar a resolver muitas questões, das mais simples às mais complexas. No entanto, a Apple quer manter a Inteligência Artificia (IA), longe dos seus desenvolvimentos.

Recorreu a um memorando interno para dizer que as IA generativas não poderiam ser usadas para trabalhar. A notícia foi avançada pelo The Wall Street Journal, que terá tido acesso ao memorando, e refere que a Apple estará preocupada com a recolha de dados confidenciais dos funcionários e da empresa através dessas plataformas de IA.

Além do ChatGPT, a Apple também proibiu os seus funcionários de usar o Copilot do GitHub, que pertence à Microsoft. Com o Copilot, os programadores podem automatizar a escrita do código.

O ChatGPT, que também tem suporte da Microsoft, envia dados aos programadores para que eles continuem a aprimorar os modelos de inteligência artificial usados ​​pela plataforma. Conforme observado pelo WSJ, um bug em março permitiu que os utilizadores tivessem acesso ao histórico do chat de outros utilizadores do ChatGPT.

Depois deste incidente, o ChatGPT adicionou a opção de permitir que desliguem o histórico de chat e não contribuam para o treino do modelo de IA.

Se os engenheiros da Apple usarem essas plataformas, não há como garantir que os códigos digitados por eles não acabem nas mãos de outra pessoa – ou mesmo ser usados ​​pelos programadores por trás destas apps. O mesmo se aplica a outras informações confidenciais, já que os funcionários podem usar o ChatGPT para redigir e-mails, por exemplo.

A Samsung, recentemente, enviou também um memorando interno aos funcionários com o mesmo pedido e com as mesmas preocupações.

Exit mobile version