UC Berkeley | Vestri, o robô imagina como executar tarefas
Pesquisadores da UC Berkeley desenvolveram uma tecnologia de aprendizagem robótica que permite aos robôs imaginar o futuro de suas ações para que possam descobrir como manipular objetos que nunca encontraram antes. Isso poderia ajudar os carros auto-dirigidos a antecipar eventos futuros na estrada e produzir assistentes robotizados mais inteligentes em casas.
O protótipo inicial concentra-se em aprender habilidades manuais simples inteiramente do jogo autônomo – semelhante à forma como as crianças podem aprender sobre seu mundo, brincando com brinquedos, movendo-os, agarrando, etc.
Usando esta tecnologia, chamada de previsão visual , os robôs podem prever o que suas câmeras verão se realizassem uma determinada seqüência de movimentos. Essas imaginações robóticas ainda são relativamente simples por enquanto – as previsões feitas apenas alguns segundos para o futuro – mas são suficientes para que o robô descubra como mover objetos em uma mesa sem perturbar os obstáculos.
O robô pode aprender a realizar essas tarefas sem a ajuda de humanos ou conhecimentos prévios sobre física, ambiente ou quais são os objetos. Isso ocorre porque a imaginação visual é inteiramente aprendida desde a exploração desatendida e não supervisionada (sem humanos envolvidos), onde o robô toca com objetos em uma mesa.
Após esta fase de jogo, o robô constrói um modelo preditivo do mundo e pode usar este modelo para manipular novos objetos que não viu antes.
“Da mesma forma que podemos imaginar como nossas ações moverão os objetos em nosso ambiente, esse método pode permitir que um robô visualize como comportamentos diferentes afetarão o mundo ao seu redor”, disse Sergey Levine , professor assistente do Departamento de Eletricidade de Berkeley Engenharia e Ciências da Computação, cujo laboratório desenvolveu a tecnologia. “Isso pode permitir o planejamento inteligente de habilidades altamente flexíveis em situações complexas do mundo real”.
A equipe de pesquisa demonstrou a tecnologia da visão visual na conferência Neural Information Processing Systems em Long Beach, Califórnia, na segunda-feira, 4 de dezembro de 2017.
Aprendendo jogando: como funciona
No centro desse sistema é uma tecnologia de aprendizado profundo baseada na previsão de vídeo recorrente convolucional, ou advecção neural dinâmica (DNA). Os modelos baseados em DNA prevêem como os pixels de uma imagem se moverão de um quadro para outro, com base nas ações do robô. As melhorias recentes para esta classe de modelos, bem como recursos de planejamento bastante aprimorados, permitiram que o controle robótico baseado na previsão de vídeo executasse tarefas cada vez mais complexas, como brinquedos deslizantes em torno de obstáculos e reposicionando múltiplos objetos.
“Nesse passado, os robôs aprenderam habilidades com um supervisor humano ajudando e fornecendo feedback. O que torna este trabalho emocionante é que os robôs podem aprender uma variedade de habilidades visuais de manipulação de objetos inteiramente por conta própria “, disse Chelsea Finn , aluno de doutorado no laboratório de Levine e inventor do modelo de DNA original.
Com a nova tecnologia, um robô empurra objetos em uma tabela e, em seguida, usa o modelo de predição aprendido para escolher movimentos que moverão um objeto para um local desejado. Os robôs usam o modelo aprendido das observações da câmera em bruto para ensinar a si mesmos como evitar obstáculos e empurrar objetos em torno de obstruções.
Uma vez que o controle através da previsão de vídeo depende apenas de observações que podem ser coletadas de forma autônoma pelo robô, como por meio de imagens de câmeras, o método resultante é geral e amplamente aplicável. Construir modelos de previsão de vídeo requer apenas um vídeo não anotado, que pode ser coletado pelo robô de forma totalmente autônoma.
Isso contrasta com os métodos convencionais de visão por computador, que exigem que os humanos rotulem manualmente milhares ou mesmo milhões de imagens.