Anthropic revela o quão fácil é “envenenar” um modelo de IA, independentemente do tamanho
Uma nova investigação levada a cabo pela Anthropic, a empresa que desenvolve o modelo Claude, expõe uma vulnerabilidade crítica na forma como os sistemas de inteligência artificial (IA) são treinados. Aparentemente, um número surpreendentemente baixo de ficheiros maliciosos é suficiente para corromper o comportamento de uma IA, independentemente da sua dimensão.























