CEO da OpenAI está preocupado com o uso da IA para condicionar as eleições
A Inteligência Artificial tem entrado nas nossas vidas a um ritmo alucinante e são cada vez mais as notícias que mostram a rápida integração desta tecnologia em várias áreas e serviços. Contudo, existem algumas questões relativamente a este segmento e agora o CEO da OpenAI, responsável pelo popular ChatGPT, disse estar preocupado com a possibilidade de utilização da IA para condicionar as eleições.
IA usada nas eleições gera preocupações...
Segundo avança a Reuters, durante esta terça-feira (16) o CEO da OpenAI, Sam Altman, disse perante o Senado que o uso da Inteligência Artificial para interferir na integridade das eleições é uma "área significativa de preocupação" e acrescenta que esta é uma tecnologia que precisa de regulamentação. Sobre este assunto, o executivo adianta ainda que "acho que também precisamos de regras, diretrizes sobre o que se espera em termos de divulgação de uma empresa que fornece um modelo. Estou nervoso com isso".
A Inteligência Artificial é um assunto que tem dado muito o que falar, suscitando nalguns uma sensação de novas oportunidades, mas noutros algumas reticências e preocupações quanto ao seu impacto no futuro em vários setores. Por exemplo, na nossa recente questão semanal, cerca de 70% dos leitores disseram recear que a IA acabe com muitos postos de trabalho.
Sendo esta a primeira vez que falou no Congresso, Altman sugeriu também que, no geral, os EUA considerem os requisitos de licenciamento e teste para o desenvolvimento de modelos de IA. E ao ser questionado sobre qual o tipo de IA que deverá estar sujeita a licenciamento, o dono do ChatGPT apontou o dedo aos modelos que podem persuadir ou manipular as crenças de uma pessoa, por exemplo.
Altman disse ainda que as empresas deveriam ter o direito de dizer que não querem que os seus dados sejam usados para treino de IA, uma vez que esta é uma ideia a ser debatida pelo Senado.
Este artigo tem mais de um ano
Fonte: Reuters
É engraçado que apenas devam estar sujeitos a licenciamento os ” modelos que podem persuadir ou manipular as crenças de uma pessoa, por exemplo”.
Um conceito realmente bem objectivo e não manipulável.
Certas narrrativas podem e devem ser implementadas livremente, mas outras, porventura as opostas, ja devem ser sujeitas a licenciamento (leia-se censura, fact checking, etc) para não manipularem as pessoas no sentido contrário ao pretendido
Já existe manipulação acontecendo. Procurem no YouTube.
Por exemplo, um usuário pede para que a IA escreva um poema para Trump e ela se recusa, mas quando se pede para escrever um para Biden, ela o faz. A mesma coisa acontece no caso de Bolsonaro e Lula.
“Agora”? Sei. Enquanto CEO com total responsabilidade e nenhuma repercussão pessoal, ele foi até onde quis. Agora perante ao Senado com consequências reais, ele se diz preocupado. Todos ignoram a cagada que faz até a água bater na bunda.
Mas se tudo é manipulado e manipulável como se pode dizer o contrário?
Pois claro e dai a subversão …
eles bem que tentam polir a coisa mas está mais que visto que a OpenAI é woke!