Mishka> Серёг, там математика работает. Двумя диодами они, грубо говоря, измеряют расстояние по сумме-разности амплитуд, составляют карту расстояний — вроде, два снимка достаточно (из скольки? Делают ли это постоянно или нет?). Не понимаю я чего-то такой математики, Миш. Ну, OK, пусть они по сумме/разности амплитуд сняли карту расстояний до микрона (что на самом деле хрена лысого). И что дальше? Допустим, они снимают стену. На стене - два точечных источника света (собственного или отраженного, не суть). Пусть они точно знают, каково расстояние от камеры до стены. Каждый из точечных источников переводится оптикой в некоторый кружок нерезкости на сенсоре, диаметр которого зависит как от добротности оптики, так и (в неменьшей степени, кстати) от фундаментальных ограничений. Вопрос - если точки находятся так близко друг от друга, что кружки нерезкости пересекаются на 90% - как мы можем судить о любых деталях между этими источниками света? Как они могут декларировать, что разрешение зависит только от разрешения сенсора?