A mobilidade autónoma representa um desafio significativo para pessoas com deficiência visual. Um novo sistema de navegação baseado em inteligência artificial (IA), desenvolvido na China, surge como uma promessa de maior independência e qualidade de vida.
Como funciona o sistema de navegação por IA
Gu Leilei, professor associado e orientador de doutoramento no Instituto de Investigação Qingyuan da Universidade Jiao Tong de Xangai, é o cérebro por detrás desta tecnologia promissora.
Segundo relatos recentes, o professor desenvolveu um wearable que recorre à IA para fornecer assistência à navegação a pessoas com incapacidade visual. Conforme citado pelo The Paper, Gu acredita que, através da combinação de software e hardware inteligentes, os utilizadores poderão alcançar uma maior normalidade no seu dia a dia.
O sistema opera através da recolha de informação visual do ambiente circundante, capturando imagens que são depois processadas por algoritmos de IA. Estes algoritmos identificam elementos cruciais como destinos, obstáculos e outros pontos de interesse.
A informação relevante é então comunicada ao utilizador de forma multimodal: através de sinais sonoros transmitidos por auscultadores de condução óssea e por meio de sensações táteis aplicadas no pulso. As indicações são atualizadas dinamicamente à medida que o utilizador se move, guiando-o progressivamente até ao seu destino final.
Componentes do dispositivo vestível
Com um peso aproximado de 200 gramas, o protótipo atual é relativamente leve. É composto por:
- Um par de óculos equipados com câmaras RGB (vermelho, verde, azul) e de profundidade;
- Duas unidades de pele eletrónica artificial que fornecem o feedback tátil;
- Um microcomputador de placa única que processa os dados.
Um dos aspetos notáveis é o tempo de resposta extremamente baixo do sistema de IA – entre 200 a 300 milissegundos desde a captura da imagem até à emissão da instrução. Este tempo é consistente com o tempo de reação humano, o que facilita uma interação mais fluida e natural entre o utilizador e o dispositivo.
Para mitigar os riscos associados a condições de baixa luminosidade, onde as câmaras visuais podem ter dificuldades, o sistema incorpora também um detetor de infravermelhos. Este componente deteta ativamente o ambiente, fornecendo dados como distância e altura de objetos, funcionando de forma “semelhante ao LiDAR”, segundo o investigador.
Adicionalmente, o projeto contempla um par de palmilhas inteligentes alimentadas por fricção e uma plataforma de treino baseada em realidade virtual. Esta última permite que os utilizadores se familiarizem com o sistema e pratiquem a sua utilização em cenários simulados, num ambiente seguro.
Estado atual do projeto e perspetivas futuras
Apesar do potencial demonstrado, Gu Leilei sublinha que o sistema se encontra ainda numa fase de investigação fundamental. Os dados publicados baseiam-se em testes realizados com um grupo de apenas 20 participantes.
O académico enfatiza a necessidade de recolher mais feedback e realizar otimizações significativas antes que o dispositivo possa ser considerado para produção em massa e comercialização.
A relevância científica desta investigação foi reconhecida com a publicação de um artigo detalhado sobre o dispositivo na prestigiada revista internacional Nature Machine Intelligence no passado dia 14 de abril.
Leia também: