A China está atualmente ocupada acumulando a maioria das medalhas de ouro nos eventos de tênis de mesa nas Olimpíadas de Paris. Enquanto isso, um robô alimentado por IA do Google DeepMind atingiu “desempenho de nível humano amador” no esporte.
Em um estudo publicado em um artigo da Arxiv esta semana, a subsidiária de inteligência artificial do Google descreveu como o robô funciona, juntamente com imagens dele enfrentando o que podemos apenas supor serem jogadores de pingue-pongue entusiasmados e dispostos, com diferentes habilidades.
De acordo com a DeepMind, o robô que empunhava a raquete tinha que ser bom em habilidades de baixo nível, como devolver a bola, assim como em tarefas mais complexas, como planejamento e estratégia de longo prazo. Ele também jogou contra oponentes com estilos diversos, recorrendo a vastas quantidades de dados para refinar e adaptar sua abordagem.
Ainda não é nível olímpico
O braço robótico — e sua raquete impressa em 3D — venceu 13 de 29 jogos contra oponentes humanos com diferentes níveis de habilidade no jogo. Ele venceu 100% das partidas contra jogadores “iniciantes” e 55% contra jogadores “intermediários”. No entanto, ele perdeu todas as vezes que enfrentou um oponente “avançado”.
A DeepMind disse que os resultados do projeto recente constituem um passo em direção à meta de atingir velocidade e desempenho de nível humano em tarefas do mundo real, uma “estrela do norte” para a comunidade de robótica.
Para alcançá-los, seus pesquisadores dizem que fizeram uso de quatro aplicações que também podem tornar as descobertas úteis além de acertar uma pequena bola em uma rede minúscula, por mais difícil que seja:
- Uma arquitetura de política hierárquica e modular
- Técnicas para permitir simulação de tiro zero para real, incluindo uma abordagem iterativa para definir a distribuição de tarefas de treinamento com base no mundo real
- Adaptação em tempo real a oponentes invisíveis
- Um estudo de usuário para testar o modelo jogando partidas reais contra humanos invisíveis em ambientes físicos
A empresa acrescentou ainda que sua abordagem levou a um “jogo competitivo em nível humano e a um agente robô com o qual os humanos realmente gostam de jogar”. De fato, seus concorrentes não robôs nos vídeos de demonstração parecem estar se divertindo.
Robótica de tênis de mesa
O Google DeepMind não é a única empresa de robótica a escolher o tênis de mesa para treinar seus sistemas. O esporte requer coordenação, pensamento estratégico, velocidade e adaptabilidade, entre outras coisas, tornando-o bem adequado para treinar e testar essas habilidades em robôs com IA.
O “primeiro robô tutor de tênis de mesa” do mundo foi reconhecido em 2017 pelo Guinness World Records em 2017. A máquina um tanto imponente foi desenvolvida pela empresa japonesa de eletrônicos OMRON. Sua última iteração é o FORPHEUS (significa “Future OMRON Robotics technology for Exploring Possibility of Harmonized aUtomation with Sinic theoretics,” e também é inspirado pela antiga figura mitológica Orfeu…).
A OMRON diz que ele “incorpora o relacionamento que existirá entre humanos e tecnologia no futuro”.
O Google DeepMind não faz tais alegações existenciais para seu recente campeão de pingue-pongue, mas as descobertas de seu desenvolvimento ainda podem ser profundas para nossos amigos robôs no futuro. No entanto, sentimos que o braço robótico do DeepMind está severamente carente no departamento de abreviações.