MIT desenvolve robô que identifica objetos pelo tacto e pela visão
Os robôs vão dominar o mundo? É bem provável que estejamos a preparar tudo nesse sentido.
A mais recente criação do MIT começa a entrar num mundo de robôs ainda mais humanizados. Robôs capazes de identificar objetos pelo toque e pela imagem, ou seja, pelo "tacto" e pela "visão".
Os 5 sentidos - dos humanos para os robôs
Humanizar os robôs parece ser a premissa de muitos investigadores da área da Inteligência Artificial. É certo que estes avanços poderão trazer às pessoas melhorias incríveis, dependendo da sua aplicabilidade.
Para qualquer um de nós, o toque ou a visão permite-nos identificar objetos. Mas para as máquinas este ainda é um desafio enorme, contudo, foi dado um passo importante neste sentido.
Um robô do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT está a ser desenvolvido com esse objetivo.
Para alcançar tal objetivo, os investigadores adicionaram um sensor táctil GelSight a um braço robótico KUKA. Este sensor foi "ensinado" através de Inteligência Artificial (AI) a aprender sobre informação visual e táctil.
Mais de 200 objetos
Para a identificação de objetos através do toque, a equipa registou mais 12000 vídeos de 200 objetos a serem tocados. Entre eles, tecidos, ferramentas e outros objetos domésticos. Depois estas imagens de vídeo foram divididas em imagens estáticas de forma a que a AI fosse capaz de ligar os dados entre o toque o a componente visual.
Ao olhar para a cena, o nosso modelo pode imaginar a sensação de tocar uma superfície plana ou uma borda afiada. Por tocar cegamente ao redor, o nosso modelo pode prever a interação com o ambiente puramente através de sentimentos táteis. Reunir esses dois sentidos poderia capacitar o robô e reduzir os dados que podemos precisar para tarefas que envolvem manipular e agarrar objetos.
Refere Yunzhu Li, estudante de doutoramento da CSAIL e o principal autor de um novo artigo sobre o sistema desenvolvido.
Por enquanto, o robô só pode identificar objetos em ambiente controlado. O próximo passo é construir um conjunto de dados maior para que o robô possa trabalhar em configurações mais diversas.
Métodos como este têm potencial para serem muito úteis para a robótica, onde é necessário responder a perguntas como "este objeto é duro ou mole?", Ou "se eu levantar esta caneca pela alça, quão forte terá que ser o meu aperto? Esse é um problema muito desafiador, já que os sinais são muito diferentes e este modelo demonstrou já grande capacidade.
Refere Andrew Owens, investigador de pós-doutoramento na Universidade da Califórnia em Berkeley, envolvido também no projeto.
Os desafios estão aí e as soluções parecem cada vez mais viáveis. Vamos aguardar pelo que o futuro nos reserva.
Este artigo tem mais de um ano
Fonte: MIT CSAIL
Skynet is rising