Una vez más, noticia de la Universidad de Stanford.
Uno de los equipos de investigadores ha desarrollado un sensor de imagen de apertura múltiple que es capaz de averiguar la distancia entre los objetos al tomar una instantánea. El «truco» se basa en cambiar el tradicional sensor único para captar toda la imagen, por uno que rompe la imagen en trocitos de 16×16 pixels. Cada uno de estos «sub-arrays» usa su propia lente para observar el elemento de la imagen.
El principio está basado en el sistema de visión de los insectos. Podéis ver un ejemplo que tomé con mi propia cámara este pasado Siggraph: http://www.cine.com/jordialonso/wp-content/uploads/2007/08/PICT1135_low.jpg
Una vez capturada, mediante algoritmos software que miden las pequeñas diferencias entre los diferentes puntos de vista, se determina la distancia entre objetos. El resultado final es una imagen acompañada por un mapa de profundidad, aunque parte de la resolución potencial se pierde y la necesidad de cálculo aumenta. El resultado es una foto con menor resolución que una foto tomada con un sensor tradicional de parecidas características, pero con menor ruído en la imagen y la información de profundidad de cada pixel, asociada mediante metadatos a la imagen guardada en JPEG o cualquier otro formato.