Samsung pede aos funcionários para não usarem ferramentas de IA
O ChatGPT veio transformar o olhar do mundo perante a inteligência artificial (IA) e levantar muitas questões de segurança. A Samsung já pediu aos funcionários para que não recorram a estas ferramentas nos dispositivos que são propriedade da empresa.
A Samsung proibiu o uso de ferramentas de IA generativas como o ChatGPT nas suas redes internas e dispositivos de propriedade da empresa por temer que o upload de informações confidenciais para essas plataformas represente um risco à segurança, segundo avança o Bloomberg.
Este pedido foi comunicado à equipa num memorando onde é referido que esta será uma restrição temporária, enquanto a Samsung desenvolve ferramentas para "criar um ambiente seguro", para usar tais sistemas inteligentes com segurança.
A produtividade e eficiência de qualquer empresa poderá ser melhorada com a colaboração destes sistemas, contudo, ainda têm que ser ultrapassados estes desafios.
O maior fator de risco é provavelmente o chatbot ChatGPT da OpenAI, que se tornou extremamente popular não apenas como um brinquedo para entretenimento, mas também como uma ferramenta importante para ajudar no trabalho.
Ao usar o ChatGPT para trabalhos como escrever respostas a e-mails ou resumir relatórios, poderão ser introduzidas informações confidenciais e sensíveis para a empresa, às quais a OpenAI pode ter acesso.
Os riscos de privacidade envolvidos no uso do ChatGPT variam de acordo com a forma como o utilizador acede ao serviço. Se uma empresa é a API do ChatGPT, as conversas com o chatbot não são visíveis para a equipa de suporte da OpenAI e não são usadas para treinar os modelos da empresa. No entanto, isso não se aplica ao texto inserido na interface geral da Web com recurso às suas definições padrão.
A empresa de IA refere explicitamente que analisa as conversas que os utilizadores têm com o ChatGPT para melhorar os seus sistemas e garantir que cumpra as políticas e requisitos de segurança. Ele aconselha os utilizadores a não "partilhar informações confidenciais nas suas conversas" e refere ainda que todas as conversas também podem ser usadas para treinar versões futuras do ChatGPT.
Apesar disso, há que referir que já existe disponível um modo incógnito, que preserva a privacidade dos utilizadores, nos pontos referidos acima.
Este artigo tem mais de um ano
Ainda pensei que era por alguma dica direta da google …
( http://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html )
Ué? Dias atrás a Samsung estava falando sobre abandonar o buscador Google como padrão e adotar o Bing.
Bing hoje é movido por inteligência artificial.
Não tem nada a ver. A questão é que os funcionários poderão enviar informações confidenciais para essas ferramentas de IA.
Essa regra pode-se aplicar a qualquer serviço? Lógico, por isso, é que esta política é para ser seguida com estas ferramentas.
A Samsung já tinha proibido – e levantado a proibição no início de abril.
O Gizmodo, citando os media coreanos, diz que, entretanto. o pessoal da Samsung “vazou” no ChatGPT informação confidencial. En dois casos, para o ChatGPT resolver problemas de código defeituoso. Num, um funcionário da Samsung pediu a ajuda do ChatGPT para fazer o diagnóstico do código-fonte de uma base de dados de semicondutores. Noutro, o funcionário compartilhou código confidencial com o ChatGPT para encontrar correções para equipamentos defeituosos.
No terceiro caso, o funcionário enviou uma reunião inteira para que o ChatGPT pudesse criar atas de reunião.
Não deixa de ter graça 🙂