Así funciona el sensor LiDAR del iPhone 12

Luis López

, CIENCIA

Durante la presentación de la nueva serie iPhone 12 de Apple vimos que los modelos iPhone 12 Pro y iPhone 12 Pro Max integrarán un sensor LiDAR en su sistema de cámara principal. Este elemento extra, explicó Apple, le aporta al sistema una mejora significativa en las capacidades de la cámara. Esto se debe a que le permite reconocer y medir espacios con gran exactitud, reducir el tiempo de enfoque y mejorar las fotos que se toman, sobre todo si hay baja iluminación.

Para entender el funcionamiento de los sensores LiDAR primero hay que saber que operan igual que un radar o un sonar, pero, en vez de usar ondas de radio o sonido, utilizan pulsos de luz láser invisibles al ojo humano. De modo que para hacer un reconocimiento espacial, solo se debe medir el tiempo que tarda dicha luz ‘golpear’ una superficie y reflejarse en el escáner. Para hacer el cálculo de la distancia, se basan en la velocidad de la luz y su tiempo de recorrido desde que sale del sensor. Por lo tanto, los objetos cercanos rebotan la luz en menor tiempo que los distantes.

En definitiva, esas pequeñas alteraciones bastan para que el chip del iPhone 12, con la ayuda del sensor LiDAR, mida con alta precisión la distancia que hay entre este y los objetos de una sala, por ejemplo.

TE INTERESA: iPhone 12 Pro y Pro Max: los iPhone más potentes de 2020

Qué aporta el sensor LiDAR al iPhone 12

  • Permite llevar el teléfono a un campo en el que arquitectos, ingenieros, diseñadores de interiores o personal sanitario puedan usar aplicaciones para generar planos o medir espacios usando la cámara y el sensor, en vez de comprarse un equipo especializado.
  • En sitios con baja iluminación, el sensor puede otorgar la información necesaria a la cámara para que esta sepa cómo enfocar.
  • Permite a las aplicaciones de realidad aumentada o digitalización 3D funcionar de forma más rápida y precisa. Esto lo vimos durante la presentación de Apple que, durante dichas tareas, las personas colocaban objetos virtuales en una sala (como una silla o un florero) como si también fueran parte del mundo real. Es decir, los objetos tenían la inclinación correcta y el teléfono tomaba en cuenta el entorno para ubicarlos. O sea, no estaban flotando sobre el suelo y mantenían la perspectiva que tendrían si estuviesen allí, incluso si se movían.

Imagen: Captura de pantalla.

Deja una respuesta