Gerastertes Bild, das einen Menschenkopf zeigt

3D-Kamera liefert hochaufgelöste Bilder aus einem Kilometer Entfernung

Je weiter ein Gegenstand entfernt ist, desto schwerer ist es, seine dreidimensionale Form wahrzunehmen – selbst wenn ein Fernglas das Bild vergrößert. Das gilt erst recht für 3D-Kameras und besonders, wenn die Form des Objekts nur geringe Höhenunterschiede hat. Doch jetzt präsentieren Forscher eine hochauflösende Kamera, die selbst aus einem Kilometer Distanz Reliefs auf den Millimeter genau vermessen kann. Sie nutzt dabei einen schwachen Infrarotlaser und registriert einzelne reflektierte Photonen, berichtet das Team in der Fachpublikation „Optics Express“. Damit arbeitet sie deutlich besser als bisherige Time-of-Flight (ToF)-Kameras, die ebenfalls die Laufzeit von Licht zum Objekt und zurück messen. Mit der neuen Methode lassen sich nach Angaben der Forscher auch Gegenstände vermessen, die etwa halb hinter Laub verborgen oder in Bewegung sind. Damit verspricht die Methode auch für die Forschung breite Anwendungsmöglichkeiten, vom Erfassen entfernter Objekte bis zur Kontrolle drohender Felsrutsche oder sich verändernder Vegetation. Mit einiger Verbesserung sei in wenigen Jahren selbst eine tragbare Variante denkbar.

Ein in Rottönen grob gerastertes Bild gibt die Konturen eines Menschens wieder
3D-Aufnahme

„Unser Ansatz liefert einen Weg zur Tiefenauflösung von normalen, kleinen Zielobjekten aus sehr großer Entfernung“, erklärt Aongus McCarthy von der Heriot-Watt University in Edinburgh. Es sei zwar möglich, dass andere derartige Methoden in einzelnen Bereichen genauso gut oder besser abschnitten, doch insgesamt betrachtet, so der Forscher, liefere das Zählen einzelner Photonen „einen einzigartigen Kompromiss zwischen Tiefenauflösung, Reichweite, Messzeit und Laserleistung.“ McCarthy und seine Kollegen wollten ToF-Systeme verbessern, wie sie heute bereits beim maschinellen Sehen von Robotern oder bei der Navigation selbstfahrender Autos zum Einsatz kommen. Anders als Laserscanner tasten ToF-Kameras die Gegenstände nicht Punkt für Punkt ab, sondern beleuchten und erfassen das gesamte Bild mithilfe der Laserpulse, die reflektiert werden. Über einen Bildsensor wird die Laufzeit des reflektierten Lichts dann für jeden Pixel genau gemessen. Viele der bisherigen ToF-Systeme funktionieren aber nur auf kurze Distanz und haben Probleme, wenn das Zielobjekt die Laserpulse nicht gut reflektieren.

Anders arbeitet die neue Variante aus Schottland, die dafür die langen Wellenlängen eines Infrarotlasers nutzt. Mit 1560 Nanometern sind diese Lichtwellen drei- bis fünfmal länger als bei sichtbarem Licht und werden auf dem Weg durch die Atmosphäre weniger gestört. Gleichzeitig ist der Laser so schwach, dass er die Augen von Menschen nicht gefährdet. Das ist nicht nur interessant für Personen, die unterwegs in den Weg des Lasers geraten, sondern auch für Menschen als Messobjekt. Die Sensoreinheit auf der anderen Seite, ein sogenannter supraleitender Nanodraht-Single-Photonen-Detektor (SNSPD), nimmt anders als bisher eingesetzte Sensoren Wellenlängen zwischen 1300 und 1560 Nanometer wahr. Die Bilder werden umso genauer, je länger der Sensor die Daten erfassen kann: Ein grobes 3D-Bild liefert die Methode bereits bei Zeiten von 0,5 Millisekunden – bei 5 Millisekunden Verweildauer erzeugt sie bei unbewegten Objekten sehr gute millimetergenaue Bilder.

Probleme hat die Methode nur bei menschlichen Gesichtern, die die Infrarotwellen schlecht reflektieren. Einiges weise aber darauf hin, dass verschwitzte Haut deutlich bessere Ergebnisse liefere, so McCarthy. Nächstes Ziel des Teams sei, die Messzeit weiter zu beschleunigen – derzeit liegt der Engpass nicht im Erfassen der Daten, sondern im Berechnen des 3D-Bildes, das bis zu sechs Minuten dauern kann. Letztendlich sei auch eine Reichweite von bis zu 10 Kilometern denkbar, ebenso wie die Verkleinerung der Kamera, berichtete der Forscher: „Wir glauben, dass eine leichtgewichtige, komplett tragbare Tiefenscanner-Kamera in weniger als fünf Jahren möglich ist.“