NVIDIA zeigt Wege wie man 2D-Bilder in 3D-Modelle umwandelt

NVIDIA ist einer der größten Entwickler von Grafikprozessoren und hat eine große Forschungsabteilung. In einem neuen Projekt beschäftigt sich ein Team des Unternehmens mit maschinellen Lernen. Hier wird eine Methode präsentiert wie man 2D-Bilder in 3D-Modelle umwandeln kann. Erstmals vorgestellt wurde die Methode bei der Neural-Information-Processing-Systems-Konferenz in Vancouver.

Die Firma hat ein Framework entwickelt, welches zeigt, dass es möglich ist, Form, Textur und Licht auf ähnliche Weise wie das menschliche Auge aus einem einzelnen Bild abzuleiten. Das NVIDIA-Rendering-Framework, das als “Differentiable interpolation-based Renderer” (DIB-R) bezeichnet wird, kann innerhalb wenigen Millisekunden 3D-Modelle rendern. Während mit mit der V100-GPU auf herkömmliche Art das Rendering fast 2 Tage dauert, dauert der Prozess mit DIB-R nur 100 ms.

Diese Methode ist nicht nur hilfreich für die Erstellung von 3D-Modelle, sondern kann auch eine Rolle in der Robotik spielen. So könnte man Robotern ermöglichen, dass Gegenstände wahrgenommen werden können.

Weitere Informationen zu der Technologie hat NVIDIA in einem Fachartikel mit dem Titel “Learning to Predict 3D Objects with an Interpolation-based Differentiable Renderer” veröffentlicht.