Pplware

MIT desenvolve robô que identifica objetos pelo tacto e pela visão

Os robôs vão dominar o mundo? É bem provável que estejamos a preparar tudo nesse sentido.

A mais recente criação do MIT começa a entrar num mundo de robôs ainda mais humanizados. Robôs capazes de identificar objetos pelo toque e pela imagem, ou seja, pelo “tacto” e pela “visão”.


Os 5 sentidos – dos humanos para os robôs

Humanizar os robôs parece ser a premissa de muitos investigadores da área da Inteligência Artificial. É certo que estes avanços poderão trazer às pessoas melhorias incríveis, dependendo da sua aplicabilidade.

Para qualquer um de nós, o toque ou a visão permite-nos identificar objetos. Mas para as máquinas este ainda é um desafio enorme, contudo, foi dado um passo importante neste sentido.

Um robô do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT está a ser desenvolvido com esse objetivo.

Para alcançar tal objetivo, os investigadores adicionaram um sensor táctil GelSight a um braço robótico KUKA. Este sensor foi “ensinado” através de Inteligência Artificial (AI) a aprender sobre informação visual e táctil.

Mais de 200 objetos

Para a identificação de objetos através do toque, a equipa registou mais 12000 vídeos de 200 objetos a serem tocados. Entre eles, tecidos, ferramentas e outros objetos domésticos. Depois estas imagens de vídeo foram divididas em imagens estáticas de forma a que a AI fosse capaz de ligar os dados entre o toque o a componente visual.

Ao olhar para a cena, o nosso modelo pode imaginar a sensação de tocar uma superfície plana ou uma borda afiada. Por tocar cegamente ao redor, o nosso modelo pode prever a interação com o ambiente puramente através de sentimentos táteis. Reunir esses dois sentidos poderia capacitar o robô e reduzir os dados que podemos precisar para tarefas que envolvem manipular e agarrar objetos.

Refere Yunzhu Li, estudante de doutoramento da CSAIL e o principal autor de um novo artigo sobre o sistema desenvolvido.

Yunzhu Li, CSAIL

Por enquanto, o robô só pode identificar objetos em ambiente controlado. O próximo passo é construir um conjunto de dados maior para que o robô possa trabalhar em configurações mais diversas.

Métodos como este têm potencial para serem muito úteis para a robótica, onde é necessário responder a perguntas como “este objeto é duro ou mole?”, Ou “se eu levantar esta caneca pela alça, quão forte terá que ser o meu aperto? Esse é um problema muito desafiador, já que os sinais são muito diferentes e este modelo demonstrou já grande capacidade.

Refere Andrew Owens, investigador de pós-doutoramento na Universidade da Califórnia em Berkeley, envolvido também no projeto.

Os desafios estão aí e as soluções parecem cada vez mais viáveis. Vamos aguardar pelo que o futuro nos reserva.

Exit mobile version