Foi no Japão, mais precisamente no Honda Research Institute, que João Lobato Oliveira, então doutorando na Faculdade de Engenharia da Universidade do Porto, escreveu as primeiras linhas de uma tecnologia que promete inovar o modo como robôs e humanos interagem através do som e da linguagem corporal. Hoje, além dos 4 papers em conferências internacionais e 1 journal, a patente que protege esta invenção do âmbito da robótica está já concedida nos Estados Unidos da América.

Tudo começou pela investigação e desenvolvimento de métodos de audição robótica para processamento de sinais musicais captados ao vivo: além de melhorar os métodos usados para os robôs captarem o som, a investigação ditou que seria possível inovar no modo como estas máquinas ajustam os processos de comunicação aos humanos, nomeadamente através da sincronização de movimentos de “dança robótica”. Segundo João Lobato Oliveira, o “Sound processing device, sound processing method and sound processing program” é um método que permite otimizar e mediar a “capacidade auditiva” de um robô durante a interação com um ser humano, através da fala e da dança, e ao som de música. Aplicando o método, foi possível testar o modo como robôs podem comunicar com os humanos, dimensionando o seu comportamento de modo a que ousem, efetivamente, interagir. Isto é, esta tecnologia aumenta significativamente a capacidade de um robô interpretar com maior precisão a fala de um ser humano enquanto, ao mesmo tempo, consegue responder-lhe através da fala e “processando eficazmente sinais musicais enquanto sincroniza movimentos de dança”, explica o investigador. 

Além de aplicações óbvias no domínio da robótica e da melhoria das capacidades de robôs e humanoides que sirvam ou complementem ações humanas, a tecnologia pode também ser aplicada no âmbito do ensino, da segurança e da prevenção.

Na base desta invenção estão mais seis investigadores além de João Lobato Oliveira: Gökhan Ince, Keisuke Nakamura, Kazuhiro Nakadai, Hiroshi Okuno, Luis Paulo Reis, e Fabien Gouyon. O método já foi integrado no Honda Research Institute, no Japão, mais precisamente no sistema de audição robótica HARK (uma plataforma open-source com diversas aplicações comerciais e académicas), que conta com a colaboração de outros laboratórios universitários.