A Apple está se preparando para revolucionar o mercado mais uma vez, agora com o Apple Glasses – dispositivo que nos levará da era dos smartphones, para uma onde os wearables são o meio das atenções. E o iPad Pro de 2020 guarda a “arma secreta” da empresa: um sensor ToF, chamado pela Apple de sensor LiDAR.

Mas o que torna esse sensor tão importante para os Apple Glasses, e por que a empresa o labareda de LiDAR, e não de ToF (Time of Flight, ou Tempo de Voo em português)?

Reprodução

O que é LiDAR e porquê ele funciona?

Um sensor LiDAR – Light, Detection And Range – funciona com um laser, normalmente infravermelho, disparado através daquilo que estiver a sua frente. Uma câmera logo mede o tempo que cada fóton disparado leva para retornar ao emissor, formando uma imagem.

Essa mensuração permite calcular a intervalo entre a câmera e os objetos atingidos pelos fótons, além de facilitar a emprego de algoritmos para estudar a deformação do padrão, possibilitando uma melhor compreensão dos objetos que o LiDAR está medindo e, por sua vez, oferece dados para a perceptibilidade sintético também identificar objetos.

Com a mensuração instantânea das distâncias entre os objetos e seu emissor, obtida pelo sensor ToF no iPad, a CPU consegue obter dados 3D geométricos do mundo ao seu volta de maneira precisa.

Por que a Apple labareda de LiDAR em vez de ToF?

Boa pergunta. O LiDAR de indumento é um sensor ToF, inclusive usado por outras fabricantes em seus dispositivos. Na veras, a maioria desses sensores é fabricada pela Sony – e a Apple usa os sensores Sony ToF.

Talvez, por saber que todos usam o mesmo termo, a Apple decidiu chamá-lo por outro nome e ser dissemelhante da maioria. Ou por outra, existe o indumento de poucas pessoas realmente saberem o que significa o termo ToF, que é mais um dos termos técnicos não explicados nos manuais. Já o LiDAR é um pouco mais famoso, por ser usado em câmeras de carros autônomos que os ajudam a ver o mundo e velejar em segurança. 

Qual a valia do LiDAR nos Apple Glasses?

Os óculos da Apple precisarão dessa tecnologia funcionando ao seu supremo quando forem lançados, em 2023. Uma vez que será demonstrado pelo iPad Pro, aplicativos de realidade aumentada precisam mesclar com sucesso as imagens virtuais com o mundo real, a término de convencer os usuários. Essa é a teoria por trás do uso dos sensores.

Para que o mundo virtual pareça real aos olhos humanos, a tecnologia precisa permitir que os usuários posicionem objetos em 3D no mundo com precisão, além de impor texturas em objetos existentes. Todas essas habilidades precisam funcionar incessantemente a uma subida taxa de atualização. 

A Apple alega que o sensor ToF do iPad Pro tem alcance de cinco metros e taxa de atualização de 120Hz, desempenado com o restante da indústria.

A emprego de ToF em produtos de consumo reais permitirá à Apple refinar seus algoritmos de IA no mundo real, situação crucial na preparação para os Apple Glasses. Esse processo será incrementado em 2022, com o headset AR/VR (isso se os rumores se confirmarem).

O que está sendo implantado hoje resultará em jogos e apps divertidos, mas o mais importante é o marco da subida de um novo mundo tecnológico, no qual os celulares serão substituídos por dispositivos vestíveis. E o Apple Glasses está no meio dessa mudança.

Via: Tom’s Guide

Fonte: Olhar Digital