Fake News? NOS testa tecnologia com IA e Blockchain
A NOS desenvolveu uma prova de conceito inovadora que combina inteligência artificial (IA) e blockchain para detetar fake news e conteúdos manipulados. A tecnologia encontra-se atualmente em fase de testes, mas o pedido de patente já foi submetido ao Instituto Europeu de Patentes.
IA analisa a respiração, as pausas e as características próprias da voz de cada pessoa.
Esta nova solução funciona em duas dimensões complementares. Por um lado, utiliza blockchain e IA para comparar novos blocos de informação com dados encriptados previamente registados, verificando se uma notícia é coerente e autêntica face ao histórico existente. Por outro, recorre a machine learning e a modelos avançados de inteligência artificial para analisar o “DNA” de materiais originais, permitindo detetar possíveis sinais de manipulação digital.
“A voz, tal como qualquer conteúdo original, possui o seu DNA. Ao estudá-lo, conseguimos identificar manipulações subtis”, explica João Ferreira, Diretor de Inovação da NOS.
“Usámos inteligência artificial (IA) para analisar, em conteúdos digitais, elementos como a respiração, as pausas e as características próprias da voz de cada pessoa. Os resultados já permitem identificar situações de manipulação e, com a evolução tecnológica, esta solução terá aplicações práticas relevantes, tais como deteção de vozes clonadas em chamadas telefónicas ou proteção da integridade da informação na sociedade”, acrescenta o responsável.
Com esta iniciativa, a NOS reforça o seu compromisso com a inovação tecnológica responsável e com o combate à desinformação, colocando o conhecimento científico e a IA ao serviço da confiança digital.






















nao há uma fonte que seja para esta noticia?
Está lá a informação.
Vai ser a AI e Blockchain que vai dizer o que é verdadeiro ou falso, acreditam mesmo no pai natal.
A AI e o pior cancro que inventaram. E vai ter sucesso porque uma vez mais estamos todos ligados quer queiramos quer nao, e a natureza das pessoas e empresas e ir atras de modinhas. Ninguem quer ficar a perder, mesmo os que nao se interessem que a AI se infiltre em todas as areas da vida, o facto e que e um processo que devido a pressao toda a gente vai adoptar, e os que nao adpotarem perdem. Este e o sistema podre que estao a tentar criar e dizer que vai fazer maravilhas, quando na verdade nao passa mais do que um sistema puramente satanico. So resta aguardar como esta historia vai terminar, os humanos a se enterrarem cada vez mais.
A ideia é interessante como prova de conceito, mas vejo muitos problemas que não vão ser simples de resolver:
– detectar conteúdos falsos com os indicadores referidos vai produzir imensos falsos positivos e imensos falsos negativos (mesmo que a resposta seja dada com a exposição do intervalo de confiança), o que faz com que, se o motor etiquetar um conteúdo incorretamente e os utilizadores acreditarem, então é ele próprio um produtor de fake news; por outro lado, se os utilizadores não acreditarem porque o motor comete erros, retira força ao projeto.
– de quem vai ser a responsabilidade quando o motor cometer erros? A quem serão direcionados os processos de difamação?
– numa web em que cada vez mais conteúdos vão ser produzidos com IA, sendo que cada vez mais pessoas vão aprender a ler e a escrever como uma IA, como é que o motor se vai ajustar para conseguir detectar marcadores de conteúdos falsos (neste momento o Youtube e outras redes sociais estão inundadas de conteúdos gerados por IA, que poucos minutos após serem publicados já têm milhares de visualizações, para alimentar as várias bolhas de informação de cada perfil de utilizadores).
– existem várias farms de desinformação que espalham conteúdos por vários sites, com bots e humanos pagos para credibilizar esses conteúdos, manipulando algoritmos para distribuir esses conteúdos como sendo credíveis, tornando praticamente impossível que conteúdos jornalísticos credíveis e bem fundamentados tenham audiência e espaço no meio do ruído.
– por exemplo, experimentem utilizar um modo verdadeiramente anónimo para aceder ao YouTube e vão ver o tipo de conteúdos que algoritmo sugere… Eu fiquei chocado com a exposição a conteúdos de estrema direita, notícias falsas, descredibilização da Europa e instâncias europeias, numa toxicidade absurda e muito pouco saudável.
Eu nunca pensei que fosse pensar assim, mas penso que a única solução será o fim do anonimato para publicar ou promover qualquer conteúdo na Web (no fundo, para tirar o poder de manipulação aos bots), a responsabilização das plataformas pela publicação de qualquer notícia falsa que seja sugerida por algoritmos, e/ou o fim de conteúdos sugeridos por algoritmos. Sim, poderia ser o fim da web como a conhecemos e existiriam muito menos conteúdos, mas ninguém é obrigado a publicar e se publicarem sabem que têm a responsabilidade sobre aquilo que dizem. Claro que isto nunca vai acontecer porque os lobbies são muito fortes, mas quando destruírem a democracia e os ditadores aplicarem estas regras, destruindo completamente o modelo de negócio destas empresas, talvez assim fiquem satisfeitos. Com as ferramentas disponíveis atualmente, as ditaduras têm um poder muito maior do que qualquer outra ditadura do passado, porque quem vai fornecer a informação ao estado não vai ser o vizinho do lado, mas sim o telemóvel, computador, eletrodoméstico, etc.