O ChatGPT veio transformar o olhar do mundo perante a inteligência artificial (IA) e levantar muitas questões de segurança. A Samsung já pediu aos funcionários para que não recorram a estas ferramentas nos dispositivos que são propriedade da empresa.
A Samsung proibiu o uso de ferramentas de IA generativas como o ChatGPT nas suas redes internas e dispositivos de propriedade da empresa por temer que o upload de informações confidenciais para essas plataformas represente um risco à segurança, segundo avança o Bloomberg.
Este pedido foi comunicado à equipa num memorando onde é referido que esta será uma restrição temporária, enquanto a Samsung desenvolve ferramentas para “criar um ambiente seguro”, para usar tais sistemas inteligentes com segurança.
A produtividade e eficiência de qualquer empresa poderá ser melhorada com a colaboração destes sistemas, contudo, ainda têm que ser ultrapassados estes desafios.
O maior fator de risco é provavelmente o chatbot ChatGPT da OpenAI, que se tornou extremamente popular não apenas como um brinquedo para entretenimento, mas também como uma ferramenta importante para ajudar no trabalho.
Ao usar o ChatGPT para trabalhos como escrever respostas a e-mails ou resumir relatórios, poderão ser introduzidas informações confidenciais e sensíveis para a empresa, às quais a OpenAI pode ter acesso.
Os riscos de privacidade envolvidos no uso do ChatGPT variam de acordo com a forma como o utilizador acede ao serviço. Se uma empresa é a API do ChatGPT, as conversas com o chatbot não são visíveis para a equipa de suporte da OpenAI e não são usadas para treinar os modelos da empresa. No entanto, isso não se aplica ao texto inserido na interface geral da Web com recurso às suas definições padrão.
A empresa de IA refere explicitamente que analisa as conversas que os utilizadores têm com o ChatGPT para melhorar os seus sistemas e garantir que cumpra as políticas e requisitos de segurança. Ele aconselha os utilizadores a não “partilhar informações confidenciais nas suas conversas” e refere ainda que todas as conversas também podem ser usadas para treinar versões futuras do ChatGPT.
Apesar disso, há que referir que já existe disponível um modo incógnito, que preserva a privacidade dos utilizadores, nos pontos referidos acima.