Pesquisadores do DCC ganham o Prêmio Inventor da Petrobras e são finalistas no Prêmio ANP de Inovação Tecnológica

O projeto desenvolvido por pesquisadores do Departamento de Ciência da Computação (DCC) da UFMG, em parceria com a Petrobras, intitulado “Multivisão: Robô de Telepresença Multissensorial e Sistema de Mapeamento de Divergências”, ganhou o Prêmio Inventor da Petrobras e foi finalista do Prêmio ANP de Inovação Tecnológica. Segundo os organizadores do Prêmio ANP, o concurso tem como objetivo reconhecer e premiar os resultados associados a projetos de pesquisa, desenvolvimento e inovação (PD&I), que representem inovação tecnológica de interesse do setor, desenvolvidos no Brasil por instituições de pesquisa credenciadas pela ANP e/ou empresas brasileiras, em colaboração com empresas petrolíferas; reconhecer e premiar dissertação de mestrado desenvolvida no âmbito do Programa de Formação de Recursos Humanos da ANP (PRH/ANP); bem como reconhecer e premiar personalidades que tenham gerado contribuições relevantes de PD&I para o setor.

A Edição 2023 contemplou cinco categorias de projetos de PD&I, duas categorias de personalidades do setor e uma categoria do PRH/ANP. O projeto do DCC concorreu na Categoria III – Projetos na área de “Transporte, Dutos, Refino, Abastecimento e Biocombustíveis”, ficando entre os três finalistas.

Com este mesmo projeto, os professores Douglas Guimarães Macharet, Erickson Rangel do Nascimento, Luiz Chaimowicz e Mario Fernando Montenegro Campos, além dos alunos da graduação, mestrado e doutorado – Michel Melo da Silva, Daniel Balbino de Mesquita, Vitor Andrade Almeida de Souza, Alan Carvalho Neves, João Pedro Moreira Ferreira, Tiago de Rezende Alves e Danilo Barros Cardoso – ganharam o Prêmio Inventor da Petrobras, criado para reconhecer a expertise técnica, a competência e o trabalho colaborativo entre pesquisadores de centros de inovação parceiros e pesquisadores da Petrobrás e o potencial impacto da inovação, em âmbito nacional para o setor de óleo e gás.

 Resumo do projeto:

O projeto teve por objetivo desenvolver um amplo arcabouço tecnológico, com uso de robótica e visão computacional em suas diversas dimensões, voltadas para o apoio à fiscalização de construção e montagem de unidades onshore e offshore sob o aspecto de identificação de divergências construtivas. O projeto foi segmentado em quatro fases distintas descritas a seguir: Na primeira fase foi desenvolvido um sistema de telepresença robótico dotado de um sistema de aquisição de dados multissensorial, composto de IMU, laser LiDAR e câmera RGBD, tanto para teleoperação do robô, incluindo a navegação autônoma, quanto para aquisição de informação geométrica e textura do ambiente necessários para as fases subsequentes do projeto, relacionadas ao apoio a fiscalização de obras. O sistema de mapeamento, localização e navegação do robô foi projetado para execução em um navegador WEB permitindo o uso de dispositivos móveis como tablet, celular e computador para sua operação. A interação entre robô e operador foi projetada para uso em internet convencional, permitindo a operação do robô a quilômetros de distância. Esta funcionalidade foi demonstrada em um teste de operação do robô em Belo Horizonte (MG) por um usuário no Rio de Janeiro (RJ). 

A segunda fase focou no desenvolvimento de soluções tecnológicas para identificação de divergências de construção e montagem, em tempo de operação do robô. Destaca-se o uso extensivo de visão computacional e de realidade aumentada, possibilitando a projeção do modelo 3D (CAD) da unidade inspecionada na tela de operação robótica, sobreposta pela imagem real do local sendo inspecionado, permitindo a identificação de divergências. Nesta etapa, também foi desenvolvida uma solução para utilização de óculos de realidade aumentada para visualização de divergências de construção e montagem, aumentando a percepção espacial do fiscal do local em inspeção.

Já na terceira, o projeto desenvolveu um sistema para processamento dos dados de captura de realidade obtidos pelo robô, permitindo a reconstrução 3D do ambiente capturado, e a construção de um mapa de identificação de divergências entre projeto (modelo 3D) vs realidade com precisão milimétrica. Esta funcionalidade tem uma especial aplicação na verificação AS-BUILT de unidades recém-construídas, mitigando divergências entre realidade e revisão AS-BUILT de documentos de engenharia. Dada a importância da verificação As-Built o sistema foi generalizado para permitir como entrada, não apenas os dados capturados pelo robô, como também nuvens de pontos obtidas por dispositivos comerciais, além dos modelos 3D(CAD).  E na quarta e última fase, foram realizados um conjunto de integrações voltadas para identificação de segurança de pessoas em frentes de trabalho as quais se destacam: a) integração de soluções de vídeo analytics à plataforma robótica teleoperada e autônoma para reconhecimento de situações de situações de risco, tais como o uso de celular por pessoas em áreas administrativas ou operacionais e ausência do uso de máscaras. b) Uso dos dispositivos de captura multissensorial, desacoplados do robô, para aplicações de monitoramento de trabalhadores em espaços confinados, incluindo situações de carência extrema de luminosidade no ambiente. Estes analíticos de Inteligência Artificial que foram integrados a esta plataforma robótica foram desenvolvidos em outros projetos, demonstrando a flexibilidade do sistema robótico projetado.

Acesso por PERFIL

Pular para o conteúdo