Diese Seite wurde maschinell übersetzt.
Füllen Sie bitte eine 1-Minuten-Befragung zur Qualität dieser Übersetzung aus.
Einzelphotonenkamera ermöglicht Videowiedergabe auf jeder Zeitskala
Extreme Datenerfassung erschließt neue Anwendungsgebiete der Computer-Vision
Forscher im Bereich computergestützte Bildgebung an der University of Toronto haben mit ihrer einzigartigen Kamera ein merkwürdiges Signal eingefangen. Bei Laborexperimenten mit der Kamera, einer Single-Photon Avalanche Diode (SPAD), nahm die Toronto Computational Imaging Group ein unerklärliches 80-Kilohertz-Flimmern (kHz) wahr.
Mithilfe ihres leistungsstarken freilaufenden Bildsensors erkannten sie jedes einzelne Photon, wenn es von verschiedenen Lichtquellen eintraf, und zeichneten seine genaue Ankunftszeit auf, auf eine Billionstel Sekunde genau. Nachdem alle Daten jedes einzelnen Pixels erfasst worden waren, wendete das Team einen Algorithmus an, mit dem es Videos erstellen konnte, die das Licht in jedem beliebigen Moment über einen extremen Zeitraum von Sekunden bis hin zu Pikosekunden rekonstruierten.
„Sie können in jeder beliebigen Zeitskala hineinzoomen und ein Video wiedergeben: 30 Bilder pro Sekunde, tausend, eine Million, eine Milliarde“, sagte Kyros Kutulakos, Informatikprofessor an der University of Toronto. „Man muss nicht im Voraus wissen, in welchem Zeitrahmen man ein Phänomen beobachten möchte.“
Zuvor konnten Forscher zwar die Ausbreitung von Licht durch eine Szene über einige Nanosekunden erfassen, jedoch nicht gleichzeitig unglaublich schnelle und langsame Ereignisse abbilden.
Bestehende Technologien seien auf bestimmte Zeitregime spezialisiert, erklärte Kutulakos‘ Kollege, Assistenzprofessor David Lindell. Herkömmliche Hochgeschwindigkeitskameras können Geschwindigkeiten von bis zu rund einer Million Bildern pro Sekunde erreichen – schnell genug, um eine Gewehrkugel aufzunehmen. Um jedoch Milliarden oder Billionen Bilder pro Sekunde zu erreichen, sind sehr spezielle Kameras erforderlich, die keine Ereignisse aufnehmen können, die länger als etwa eine Mikrosekunde dauern.
Mit einem freilaufenden Bildsensor wird jedes einzelne Photon von verschiedenen Lichtquellen erkannt und die genaue Ankunftszeit protokolliert. (Videoquelle: University of Toronto)
Das Team der University of Toronto verwendete MATLAB®, um die Zeitstempeldaten der einzelnen Photonen zu erfassen und die beweglichen Komponenten in ihren Aufbauten für ihre Bildgebungstechnik zu steuern, die die Gruppe als „Mikroskop für Zeit“ bezeichnete.
Die Einzelpixel-SPAD verfügt über einen 60 x 60 Millimeter großen Erfassungskopf mit einem winzigen Sensor in der Mitte. Als die SPAD ein seltsames 80-kHz-Signal entdeckte, fragten sich die Forscher zunächst, ob es sich lediglich um ein Artefakt gehandelt hatte. Bei näherer Betrachtung entdeckte das Team die Quelle.
„Es stellte sich heraus, dass wir im Labor T8-LED-Ersatzlampen als Ersatz für Leuchtstofflampen haben. Diese flackern tatsächlich mit 80 Kilohertz“, sagte Kutulakos. „Wir wussten nicht einmal, dass das passierte.“
Auf der jüngsten International Conference on Computer Vision (ICCV) in Paris wurde der Forschungsbericht des Teams über passive Ultrabreitband-Einzelphotonenbildgebung mit einem prestigeträchtigen Preis ausgezeichnet, den nur zwei von Tausenden von Arbeiten erhielten, die Computer Vision-Experten aus aller Welt eingereicht hatten.
Zu den potenziellen Anwendungsgebieten ihrer Technik zählen neuartige 3D-Bildgebungs- und Lidarsysteme sowie die wissenschaftliche Bildgebung – etwa zur Erfassung biologischer Ereignisse über mehrere Zeitskalen hinweg oder zur astronomischen Beobachtung kurzer Lichtimpulse, die mit schnellen Radioblitzen zusammenfallen.
Milliarden von Bildern pro Sekunde
Der Mensch empfindet Licht als eine kontinuierliche Erfahrung: Wir können uns vorstellen, mit einer schnellen Kamera Zeitlupenaufnahmen zu machen. Wenn wir über immer schnellere Kameras verfügen, können wir die Wiedergabe vielleicht einfach kontinuierlich verlangsamen.
„Aber an einem bestimmten Punkt gibt es einen Wechsel“, sagte Lindell. „Licht ist nicht kontinuierlich, es ist diskret. Und wir fangen Licht ein, indem wir jeweils ein Photon einzeln verwenden.“
Einzelphotonen-Avalanche-Dioden sind erst im letzten Jahrzehnt in größerem Umfang handelsüblich verfügbar geworden. Aufgrund der hohen Kosten des Geräts hätten nur sehr wenige Informatik- und Computer-Vision-Labore Zugriff darauf, bemerkte Kutulakos. Jüngste Sensorentwicklungen haben das Team der University of Toronto dazu veranlasst, neue Fragen zu Problemen zu stellen, mit denen sich Wissenschaftler in anderen Bereichen schon seit Jahrzehnten beschäftigen.
So setzten etwa auf Gammastrahlenastronomie spezialisierte Astronomen Detektoren ein, um einzelne Teilchen zu erfassen und mit einem Zeitstempel zu versehen. Doch diese Astronomen waren mehr an der periodischen Beleuchtung durch veränderliche Sterne interessiert als an der genauen zeitabhängigen Funktion, die die Helligkeit der Sterne beschreibt, da dies die physikalische Voraussetzung sei, erklärte Kutulakos.
Im Labor der Toronto Computational Imaging Group verwendeten der Postdoc Sotiris Nousias und der Doktorand Mian Wei erstmals eine SPAD, um Zeitinformationen für Photonen von Leuchtdioden zu erfassen.
„Wir ließen die LEDs flackern und schauten uns den Ausgabestream an“, sagte Nousias. „Wir beobachteten, dass der Stream tatsächlich das gleiche Muster aufwies wie das Flackern und versuchten dann, die mathematische Verbindung herauszufinden. Das war unsere Inspiration für das Projekt.“
Nousias und Wei, gemeinsame Erstautoren des ICCV-Papiers, fragten sich, welche Informationen sie erhalten könnten, wenn sie Zugriff auf alle Photonen hätten. Wissenschaftler neigen dazu, SPADs auf spezielle synchronisierte Weise zu betreiben. Stattdessen betrieb das Team den Sensor im asynchronen Modus. Von dort aus versuchten die Forscher, diskrete Photonenankünfte mit einer zugrunde liegenden kontinuierlichen Funktion zu verknüpfen, die die zeitlich variierende Lichtintensität beschreibt.
„Wir sammeln passiv Photonen und versuchen, den Beitrag aller Lichtquellen in der Umgebung zu rekonstruieren, unabhängig davon, ob die Intensitätsschwankungen schnell oder langsam sind“, sagte Kutulakos.
In einem Versuchsaufbau erfasste das Team verschiedene Lichter gleichzeitig und spielte sie dann mit unterschiedlichen Geschwindigkeiten ab. Die SPAD beobachtete einen einzelnen Punkt auf einer weißen Oberfläche. Licht von einem 3-Megahertz-Stroboskop-Pulslaser, einem 40-Megahertz-Stroboskop-Pulslaser und einem Raster-Scan-Laserprojektor passierte einen Diffusor und traf auf den Weißpunkt. Darüber leuchtete eine intelligente Glühbirne.
Sie zogen einen Zeitinformationsstrom von der Kamera, der angab, wann ein Photon auf den Sensor traf, und extrahierten Intensitätsinformationen. Das Team verwendete MATLAB, um den Strahl zu steuern und ein Bild zu erhalten, die rechtzeitige Pixelausrichtung sicherzustellen und die gesamte Datenerfassung zu automatisieren.
„Wir arbeiten seit einigen Jahren mit Einzelphotonensensoren und unsere MATLAB Erfassungspipeline funktioniert immer noch“, sagte Lindell. „Sie ist absolut zuverlässig.“
Insbesondere verließen sie sich für das Projekt auf die Image Processing Toolbox™, Computer Vision Toolbox™, Signal Processing Toolbox™, Data Acquisition Toolbox™ und Parallel Computing Toolbox™. Nousias fügte hinzu, dass sie auch eine benutzerdefinierte grafische Schnittstelle zur Steuerung von Scanspiegeln in einigen ihrer Experimente erstellt hätten.
Es stellt sich heraus, dass moderne SPADs weitaus mehr rechnergestützte Bildgebungsverfahren durchführen können, als die Forscher bisher angenommen hatten.
„Wir hätten nie gedacht, dass wir die Laserpulse asynchron in der Umgebung flackern sehen könnten“, sagte Kutulakos.
Versuchsaufbau, der mehrere Lichtquellen an einem einzigen Punkt auf einer weißen Oberfläche erfasst. (Videoquelle: University of Toronto)
Zoomen durch die Zeit
Durch die Rekonstruktion war es dem Team möglich, die Abtastraten von einer Sekunde vom Flackern des Laserprojektors bis hinunter zu fast neun Größenordnungen zu ermitteln, bis hin zu einem einzelnen Impuls im Nanosekundenbereich des 3-Megahertz-Lasers. Mit ihrer Methode waren sie außerdem in der Lage, ein Video nachzubilden, das auf einem Laser-TV-Projektor abgespielt wurde, der sich nicht in der Sichtlinie befand. In diesem Fall wurde der klassische schwarz-weiße brüllende Löwe von Metro Goldwyn Mayer allein aus dem Rasterscan-Signal nachgebildet.
Ein anderes Setup zeigte einen blassrosa, batteriebetriebenen Handventilator vor einem weißen Hintergrund. Um die passive Ultrabreitband-Videografie zu demonstrieren, beleuchteten sie den rotierenden Ventilator mit Laserpulsen. Im Gegensatz zu aktiven Bildgebungsverfahren, die den Ventilator unscharf machen, friert ihre Technik die Ventilatorblätter deutlich ein, wobei diese sich in einem anderen Zeitrahmen bewegen als das Stroboskoplicht. Die Szene ist noch immer im Gigahertz-Bereich sichtbar, während eine rote Wellenfront über scheinbar gefrorene Ventilatorblätter fegt.
„Stellen Sie es sich als eine sehr schnelle Videokamera vor“, sagte Nousias. „Mit einer mobilen Kamera macht man einen Schnappschuss. Aber in unserem Fall machen wir einen Schnappschuss von einem Schnappschuss von einem Schnappschuss. Wir zoomen durch die Zeit.“
Das Team war bereits mit MATLAB vertraut, als es vor acht Jahren begann, Bildgebungsgeräte für das Projekt zu verwenden. „Alle Tools lassen sich sehr einfach integrieren und ermöglichen uns schnellen Zugriff auf die Daten“, sagte Nousias. „Wenn etwas schief geht und wir die Daten erneut erfassen müssen, lässt sich dies leicht visualisieren und das spart uns Zeit.“
Wei schätzte auch die MATLAB Unterstützung. „Wenn Sie neue Geräte bekommen und nicht über die notwendige Unterstützung für die Schnittstellengestaltung verfügen, müssen Sie verschiedene GUIs nutzen, um die gewünschten Daten zu erhalten“, sagte er. „MATLAB bot uns eine komfortable Möglichkeit, alle Komponenten zur Datenerfassung zu steuern.“
Lindell stimmte zu. „Die von uns verwendete Ausrüstung ist ziemlich heterogen. Wir haben aus vorhandenen Bibliotheken eine einzige Programmierschnittstelle erstellt“, sagte er. „Ohne MATLAB müssten wir uns mit verschiedenen Bibliotheken oder Erweiterungen von Drittanbietern herumschlagen, die andere in anderen Programmiersprachen zu erstellen versuchten.“
Durch passive Ultrabreitband-Videografie werden die Bewegungen der Lüfterblätter in einem anderen Zeitrahmen als durch das Stroboskoplicht eingefroren. Die Blätter bleiben in der Nähe der Gigahertz-Skala sichtbar, während eine rote Wellenfront über scheinbar gefrorene Ventilatorblätter fegt. (Videoquelle: University of Toronto)
Wei schätzte, dass die Integration jeder neuen Komponente ohne Zugriff auf die technische Computersoftware Tage bis Wochen dauern könnte. „Eine doppelte Überprüfung, ob die Komponenten wie vorgesehen funktionieren, würde noch mehr Zeit in Anspruch nehmen“, sagte er.
„Aufgrund unserer Setups können wir sagen: ‚Okay, ich habe diese neue Windows®-Maschine. Ich nehme den Code, der vorher lief, und portiere ihn dann'“, fuhr Wei fort. „Jetzt kann jemand anderes ihren Code verwenden und das System ebenfalls ausführen.“
Dynamische Bildgebungsmöglichkeiten
Für die Forscher der Toronto Computational Imaging Group war die Auszeichnung für das beste Paper auf der International Conference on Computer Vision ein großer beruflicher Erfolg. Die Organisatoren der Konferenz hätten aus 8.068 eingereichten Beiträgen lediglich zwei ausgewählt, sagte Lindell.
„In einer Zeit, in der Deep Learning die Diskussion dominiert, war dies eine gute Erinnerung daran, dass weiterhin Bedarf an Forschung besteht, die uns hilft, grundlegende physikalische Phänomene zu verstehen und wie wir diese Phänomene mithilfe neuer Technologien erfassen können“, sagte er.
Die Forscher hoffen, dass ihr Durchbruch zu neuen Fortschritten inspiriert. Ein Bereich, der sich für die Erforschung eignet, ist Flash-Lidar, eine Technik, die ein hochauflösendes Tiefenbild aus einem diffusen gepulsten Laser statt aus einem scannenden gepulsten Laser erzeugt. Normalerweise wird dabei Licht in die Szene gesendet, die Zeit gemessen, die das Licht braucht, um zurückzukehren, und diese Zeitinformation wird zur Entfernungsmessung verwendet.
„Eine der Einschränkungen besteht darin, dass Sie Ihre Lichtquelle mit Ihrem System synchronisieren müssen, damit dieser Mechanismus funktioniert“, erklärte Wei. „Angesichts unserer Fähigkeit, Signale asynchron zu messen, möchten wir herausfinden, ob wir eine asynchrone Lichtquelle für Flash-Lidar nutzen könnten.“
In der Biologie können Ereignisse wie die Faltung oder Bindung von Proteinen in Zeiträumen von Nanosekunden bis Millisekunden erfolgen. Lindell sagte, das Team habe ihre Bildgebungstechniken mit Biologieexperten der Universität besprochen.
„Die Tatsache, dass diese Ereignisse in diesen Zeiträumen stattfinden, ist für uns interessant, und die Möglichkeit, sie auf eine Art und Weise zu beobachten, die den Menschen bislang nicht möglich war, ist verlockend“, sagte er.
Die rechnergestützte Neufokussierung könnte auch in anderen Wissenschaften Anwendung finden. Astrophysiker wollten verstehen, was die Ursachen für schnelle Radioblitze sind seit vor 20 Jahren erstmals ein Radioteleskop das Phänomen entdeckte. Diese mysteriösen Energiestöße ereignen sich überall am Himmel und dauern nur Millisekunden, aber jeder einzelne ist unglaublich kraftvoll. Eine rechnergestützte Neufokussierung könnte die Erkennung von FRBs im optischen Bereich ermöglichen.
„Wir wissen nicht, wann sie eintreten werden“, sagte Nousias. „Sie müssen den Himmel überwachen und dann im Nanosekundenbereich auf die Daten zurückgreifen, um sie zu beobachten. Jetzt haben wir das Werkzeug dafür.“
Kutulakos geht davon aus, dass die SPAD-Methode dabei helfen könnte, Probleme oder Defekte in technischen Maschinenbauteilen zu erkennen, die bei Standardinspektionen übersehen werden. Bei einem Motordefekt können Vibrationen ein Hinweis auf das Problem sein, die genaue Ursache lässt sich ohne weitere Informationen jedoch möglicherweise nicht ermitteln. Indem man eine Kamera auf den Motor richte und alle Daten sammle, könne man die Nadel im Heuhaufen finden, sagte er.
Die Gruppe arbeitet außerdem mit anderen Mikroelektronikforschern zusammen, um die Leistungsfähigkeit der Kameras zu erweitern. Mit einer Einzelpixelkamera kann das Team Videos von sich wiederholenden Bewegungen, wie etwa sich drehenden Ventilatorflügeln, erstellen. Für wirklich dynamische Ereignisse ist jedoch ein 2D-Sensor erforderlich.
Als nächstes will das Team an der Verbesserung seiner Technik arbeiten. Lindell merkte an, dass die Rekonstruktion der Signale nach wie vor relativ zeitaufwändig und rechnerisch ineffizient sei. Sie arbeiten daran, Ereignisse über alle Zeitskalen hinweg in Echtzeit zu erfassen.
„Ich denke, es werden unerwartete Ergebnisse herauskommen, wenn wir diese Kamera im Labor oder sogar draußen herumschwenken“, sagte Lindell. „Ich bin gespannt, was wir finden. Es wird eine neue Art sein, die Welt einzufangen.“
Weitere Berichte lesen
KI
Beschleunigung wissenschaftlicher Entdeckungen mit KI-gestützter Mikroskopie
Benutzerfreundliche Bildverarbeitung und Erkenntnisse aus riesigen Lightsheet-Datensätzen
BILDVERARBEITUNG
Erkundung des größten Ökosystems der Welt – 500 Meter unter der Meeresoberfläche
Nat Geo entwickelt Unterwasser-Roboterkamera zur Erforschung der Tiefe