Na conferência de desenvolvedores de I / O virtual do Google este ano, as notícias sobre realidade aumentada não estão necessariamente no primeiro plano. Mas as atualizações da empresa para suas ferramentas ARCore no Android parecem estar adicionando algumas das mesmas coisas de varredura do mundo que o lidar da Apple faz – mas sem lidar. E, de maneiras que poderiam adicionar AR em vídeos pré-gravados.

De acordo com o anúncio do ARCore 1.24 do Google, as novas ferramentas podem ser usadas para compartilhar mapas de profundidade capturados por um telefone com o ARCore: em outras palavras, as localizações irregulares de objetos em uma sala em uma “malha 3D”. Com base em aplicativos de parceiros que o Google anunciou na postagem do blog, os aplicativos podem ser usados ​​para digitalização 3D, ou AR que coloca objetos, como móveis, de forma realista em uma sala cheia de coisas.

A parte mais interessante (e alucinante) vem com a capacidade do Google de registrar e compartilhar dados de mapas de profundidade, que a empresa imagina como uma forma de colocar RA em coisas como vídeos pré-gravados. Se alguém já tinha dados de profundidade para uma determinada sala, um vídeo dessa sala poderia acabar usando esses dados para colocar objetos no vídeo como efeitos, talvez para vídeo social (TikTok foi listado como um exemplo) ou em qualquer outro lugar.

arcore-depth-hit-test-may2021
sobrepor coisas de AR em uma cadeira com varredura de profundidade usando ARCore, sem lidar.Google

Os aplicativos de parceiros que já estão experimentando explorar esses recursos, de acordo com o Google, são AR Doodads (um aplicativo que coloca em camadas coisas complexas de Rube Goldberg em uma sala), LifeAR (um aplicativo de videochamada que usa AR para projetar avatares) e VoxPlop ( que coloca efeitos 3D em vídeos após o fato).

O Google anunciou pela primeira vez seus recursos de detecção de profundidade de AR há um ano , mas é o compartilhamento aberto de dados de profundidade entre aplicativos que é novo agora. “Essas atualizações aproveitam a profundidade do movimento, tornando-as disponíveis em centenas de milhões de dispositivos Android sem depender de sensores especializados”, explica a postagem do Google. “Embora sensores de profundidade, como sensores de tempo de voo (ToF) não sejam necessários, usá-los melhorará ainda mais a qualidade de suas experiências.”

Enquanto a Apple atualmente usa sensores físicos (lidar) para malhas 3D de salas em AR, algumas empresas como a Niantic já estão fazendo coisas semelhantes sem lidar. O Google agora parece estar flexionando mais dessas ferramentas para o Android também.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *