Google muda de opinião: agora não há problema em utilizar IA para armas e vigilância
A Google implementou uma das mais significativas alterações às suas diretrizes de inteligência artificial (IA) desde que as publicou pela primeira vez em 2018. A gigante da tecnologia editou o documento para remover compromissos que garantiam que não iria "conceber ou implementar" ferramentas de IA para utilização em armas ou tecnologias de vigilância.
Google muda de ideias em relação à aplicação de IA em armas
De acordo com uma descoberta do The Washington Post, as diretrizes continham uma secção intitulada "aplicações que não iremos desenvolver", que foi eliminada na versão mais recente.
Em substituição, surge agora uma secção denominada "desenvolvimento e implementação responsável". Nesta nova abordagem, a Google afirma que irá aplicar "supervisão humana adequada, diligência e mecanismos de feedback para alinhar o desenvolvimento da IA com os objetivos dos utilizadores, a responsabilidade social e os princípios amplamente aceites do direito internacional e dos direitos humanos".
Este compromisso é significativamente mais abrangente do que as declarações explícitas feitas anteriormente. Até ao mês passado, as diretrizes ainda especificavam que a Google não desenvolveria IA para "armas ou outras tecnologias cujo propósito principal ou implementação seja causar ou facilitar diretamente danos a pessoas".
Relativamente à vigilância, a empresa afirmava que não desenvolveria tecnologias que violassem "normas internacionalmente aceites".
Demis Hassabis, CEO da DeepMind, e James Manyika, vice-presidente sénior de investigação, laboratórios, tecnologia e sociedade da Google, justificaram a mudança com a evolução da IA enquanto tecnologia de uso geral.
Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores fundamentais como a liberdade, a igualdade e o respeito pelos direitos humanos. Também consideramos que empresas, governos e organizações que partilham estes valores devem colaborar para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.
[...] Guiados pelos nossos Princípios de IA, continuaremos a focar-nos na investigação e em aplicações que estejam alinhadas com a nossa missão, com o nosso foco científico e com as nossas áreas de especialização, mantendo-nos consistentes com os princípios amplamente aceites do direito internacional e dos direitos humanos - avaliando sempre cada projeto com base numa análise cuidadosa dos benefícios e dos riscos potenciais.
Escreveram os responsáveis.
Quando a Google publicou os seus Princípios de IA em 2018, fê-lo na sequência da polémica em torno do Project Maven, um contrato governamental que teria permitido à empresa fornecer software de IA ao Departamento de Defesa dos EUA para analisar imagens captadas por drones.
O contrato gerou uma forte contestação interna, com dezenas de funcionários a demitirem-se e milhares a assinarem uma petição contra a sua renovação. Na altura, o CEO Sundar Pichai terá afirmado que esperava que as diretrizes da empresa "resistissem ao teste do tempo".
Contudo, a postura da Google em relação a contratos militares começou a mudar. Em 2021, a empresa retomou a procura por contratos de defesa, tendo alegadamente feito uma proposta "agressiva" para o contrato Joint Warfighting Cloud Capability do Pentágono.
No início deste ano, funcionários da Google colaboraram repetidamente com o Ministério da Defesa de Israel para expandir a utilização de ferramentas de IA pelo governo israelita.
Leia também: