O Face ID foi uma das maiores inovações na segurança da Apple. Ainda é hoje um dos melhores sistemas de identificação do utilizador. Contudo, a Apple não tem conseguido “disfarçar” o módulo e este continua a ser intrusivo no topo do iPhone e iPad. A ideia, contudo, parece ser um ecrã infinito sem se perceber onde está o sensor TrueDepth. Colocar “debaixo” do ecrã desafia a engenharia. Agora, segundo alguns rumores, a empresa terá resolvido o problema.
Antes de mais, o que é o Face ID?
O Face ID é a tecnologia de reconhecimento facial da Apple, introduzida pela primeira vez em 2017 no iPhone X. Este sistema utiliza sensores avançados, algoritmos de aprendizagem automática e hardware específico para garantir segurança e rapidez na autenticação.
Para compreender a evolução dessa tecnologia, é relevante examinar as empresas que a Apple adquiriu e como as suas inovações contribuíram para o Face ID.
Empresas que a Apple comprou e as suas contribuições
- PrimeSense (2013)
- Tecnologia desenvolvida: A PrimeSense, uma empresa israelita, foi pioneira na criação de sensores 3D baseados em luz estruturada, usados inicialmente no Kinect da Microsoft. A sua tecnologia permitia mapear ambientes em 3D, captando profundidade e movimentos.
- Impacto no Face ID: O sensor TrueDepth usado no Face ID deriva diretamente da tecnologia da PrimeSense. Ele projeta pontos infravermelhos no rosto do utilizador e utiliza um sensor para mapear a profundidade, criando um modelo 3D preciso.
- RealFace (2017)
- Tecnologia desenvolvida: Outra startup israelita, especializada em software de reconhecimento facial baseado em inteligência artificial (IA). A RealFace era conhecida pela precisão no mapeamento facial e pela eficiência energética dos seus algoritmos.
- Impacto no Face ID: A Apple utilizou os algoritmos de IA da RealFace para melhorar a precisão e a rapidez do reconhecimento facial no Face ID, mesmo em condições de pouca luz ou ângulos diferentes.
- Polar Rose (2010)
- Tecnologia desenvolvida: Empresa sueca focada em software de reconhecimento facial para identificação e categorização de rostos em imagens.
- Impacto no Face ID: Contribuiu com algoritmos de deteção de rostos que ajudaram a Apple a desenvolver a base para suas tecnologias de reconhecimento facial, não só no Face ID, mas também no iPhoto e no app Fotos.
O que a Apple criou com essas aquisições
A Apple utilizou as tecnologias adquiridas para desenvolver o sistema TrueDepth Camera, que é o coração do Face ID.
Este sistema inclui:
- Projetor de Pontos: Projeta mais de 30.000 pontos infravermelhos no rosto do utilizador.
- Sensor Infravermelho: Captura esses pontos e cria um modelo 3D do rosto.
- Câmara RGB: Para captar imagens visíveis e aumentar a precisão.
- Chip A-Series com Secure Enclave: Processa os dados do rosto e armazena a informação de forma segura, sem que ela saia do dispositivo.
Além disso, a Apple melhorou a tecnologia com aprendizagem automática, permitindo que o Face ID se adapte a mudanças no rosto do utilizador (como barba, óculos ou chapéus) e funcione com alta segurança, reduzindo a probabilidade de falsos positivos para 1 em 1.000.000.
Como funciona o Face ID
- Captação do rosto
- O sensor TrueDepth emite luz infravermelha para identificar o rosto, mesmo no escuro.
- O projetor de pontos cria um padrão detalhado no rosto do utilizador.
- 2. Mapeamento e análise
- Um mapa 3D é criado com os pontos captados e as imagens captadas pela câmara RGB.
- Os dados são processados no chip com os algoritmos de IA da Apple, comparando-os ao modelo facial previamente armazenado.
- 3. Autenticação
- Se o modelo captado coincidir com o armazenado, o Face ID desbloqueia o dispositivo ou autoriza ações, como pagamentos via Apple Pay. • Os dados do rosto nunca saem do dispositivo, sendo armazenados na Secure Enclave.
O Face ID foi projetado para ser altamente seguro e prático, oferecendo uma alternativa mais avançada ao Touch ID. Mas como se pode “esconder” debaixo do ecrã sem ser intrusivo?
Bom, sabemos, a partir de patentes anteriores da Apple, que a empresa está a trabalhar arduamente para integrar o Face ID diretamente no ecrã de futuros iPhones. Contudo, a maior barreira aqui é o facto de a luz infravermelha necessária para o Face ID não se propagar bem através de um ecrã. No entanto, uma patente recentemente atribuída à Apple sugere que a empresa pode ter encontrado uma solução…
Integrar o Face ID no ecrã
O antigo chefe de design da Apple, Jony Ive, sempre considerou o “santo graal” do design do iPhone ser “uma peça única de vidro.” De frente, o dispositivo não teria margens, entalhes ou recortes, apenas um ecrã contínuo. Apesar de Ive já não estar na empresa, acredita-se que a Apple continua a trabalhar para concretizar essa visão.
Para alcançar este objetivo, seria necessário incorporar todos os componentes da Dynamic Island sob o ecrã, incluindo tanto a câmara frontal como a tecnologia Face ID. A câmara é um objetivo a longo prazo. Embora seja tecnicamente possível atualmente, a qualidade permitida não está nem perto de ser aceitável para um iPhone. Por essa razão, é quase certo que a integração do Face ID no ecrã acontecerá primeiro.
Resolver o maior problema
Embora seja possível que a luz infravermelha atravesse ecrãs, a transmissão de IR (infravermelho) é extremamente fraca, o que tornaria o reconhecimento facial muito mais lento e menos fiável do que atualmente.
A Apple já experimentou desativar seletivamente alguns píxéis para melhorar a transmissão, mas uma patente concedida ontem (identificada pelo Patently Apple) descreve uma abordagem mais simples e fiável: remover alguns subpixéis.
Um píxel é composto por emissores de luz separados para vermelho, verde e azul, conhecidos como subpixéis. A combinação destes emissores em diferentes níveis permite que um píxel exiba qualquer cor. A Apple sugere que alguns destes subpixéis possam ser removidos para permitir que a luz infravermelha passe pelos espaços livres.
Um subconjunto de todos os subpixéis na região de remoção de pixéis pode ser eliminado iterativamente, eliminando os subpixéis vizinhos mais próximos da mesma cor.
A eficácia desta abordagem seria aumentada pela remoção de parte da fiação. Cada subpíxel tem as suas próprias linhas de energia e controlo, e ao eliminar o subpíxel, seria possível eliminar também a fiação associada, ampliando a área livre disponível para a transmissão de IR.
Pelo menos algumas linhas de controlo horizontais e verticais nas várias regiões não-pixéis são redirecionadas para fornecer áreas abertas contínuas que reduzem a difração da luz que atravessa o ecrã para o sensor.
A Apple sugere ainda que partes da malha sensível ao toque poderiam ser removidas nessas mesmas áreas, para eliminar ainda mais barreiras à transmissão de infravermelhos. Como esses seriam buracos do tamanho de subpixéis, não afetariam a precisão do toque.
Será que isto finalmente acontecerá no iPhone 17?
Várias previsões apontaram que o Face ID integrado no ecrã seria implementado no iPhone 15, e novamente no iPhone 16 – nenhuma das quais se concretizou. Não é surpresa que alguns estejam agora a fazer a mesma previsão para o iPhone 17.
No mês passado, ouve alguns “testemunhos” que mostraram algum otimismo. Isto porque primeiro, surgiram vários relatos de que pelo menos um dos modelos deste ano terá um recorte no ecrã mais pequeno. Jeff Pu sugeriu que o iPhone 17 Pro Max teria uma “Dynamic Island significativamente reduzida.” Integrar o Face ID sob o ecrã seria a forma mais óbvia de alcançar isto.
Segundo, existe o iPhone 17 Air. O objetivo da Apple com este modelo seria alcançar o design mais elegante possível, e reduzir a Dynamic Island a um simples recorte para a câmara estaria totalmente alinhado com esse objetivo.
Na altura, acreditava-se que o iPhone 17 Air seria o modelo mais caro da linha, o que reforçaria a ideia de ser o primeiro a receber nova tecnologia. No entanto, desde então houve recuos em relação a essa ideia de preço, pelo que, por agora, esperamos que aconteça em algum momento, mas sem forma de saber exatamente quando.