Samsung quer deixar o ChatGPT fora das suas fábricas de chips
O ChatGPT e a empresa-mãe têm despertado desconfianças e, embora esteja há relativamente pouco tempo no ar, já resultou em medidas extremas. Depois de alguns episódios pouco positivos, a Samsung decidiu desenvolver o seu próprio sistema de Inteligência Artificial (IA), para utilização interna.
Atualmente, de acordo com o Xataka, a Samsung assegura uma posição relevante no ranking da indústria de semicondutores, com uma quota de mercado de cerca de 17%. Apesar de o pódio pertencer, sem sombra para dúvidas, à TSMC, com 54%, a competitividade é grande.
Numa indústria como a dos chips, na qual as empresas procuram, especialmente, inovar, é imperativo assegurar a proteção da propriedade intelectual. Afinal, qualquer fuga pode ser problemática.
Tendo em conta as potencialidades dos sistemas de IA que temos conhecido, como o ChatGPT, os profissionais abraçaram a tecnologia e recorrem, frequentemente, a ela, desde programadores, a médicos. A par das vantagens, estão também os perigos e, conforme sabemos, a forma como os dados que os utilizadores partilham com os sistemas de IA são tratados ainda não é clara.
Ora, de acordo com o jornal Economist da Coreia do Sul, os funcionários das fábricas de chips da Samsung estão autorizados a utilizar o ChatGPT, enquanto ferramenta destinada a otimizar o seu fluxo de trabalho. No entanto, em apenas 20 dias, a fabricante identificou três situações em que o ChatGPT poderia ter sido um problema para a sua competitividade.
Aparentemente, um engenheiro utilizou o chatbot para localizar e corrigir bugs no código em que estava a trabalhar e, involuntariamente, fez vazar conteúdo de mensagens internas e informações relevantes.
Além desse, um outro decidiu utilizar o ChatGPT para otimizar a identificação de chips defeituosos. Contudo, para que isto fosse possível, foi-lhe solicitada a ferramenta com os padrões de análise dos circuitos integrados com que a Samsung trabalha - uma informação confidencial.
Por último, o caso de um funcionário que decidiu dar ao ChatGPT a transcrição de uma reunião confidencial para o ajudar a preparar uma apresentação.
Perante estes casos e a possibilidade de ser, realmente, prejudicada, a Samsung decidiu que vai criar um ChatGPT próprio, para uso interno. Até lá, os funcionários deverão interagir com o ChatGPT, utilizando apenas entradas com, no máximo, 1.024 bytes por pergunta, por forma a minimizar as probabilidade de fugas.
Leia também:
Este artigo tem mais de um ano
Quando o chatGPT comete dois erros num código de 10 linhas em PHP, mostra que, se calhar, não vai acabar com tantos empregos como se pensa.
Foi na versão free (gpt 3,5) ou na plus (gpt-4) ? É que há diferenças brutais entre ambas
Também já começo a achar que nem sequer vai acabar com um emprego.
porque? O tsunami da IA que está a chegar não se resume ao chatgpt
Sera que esse PinoquioGPT ja esta criando malware para conseguir as informacoes vazadas? Nao entendi muito bem do engenheiro “involuntariamente, fez vazar conteúdo de mensagens internas e informações relevantes.”