Kategorien
Der Tag im Überblick: Alle Meldungen

Acer enthüllt weltweites SpatialLabs™ Entwicklerprogramm für Unreal Engine-Developer und zeigt stereoskopisches 3D auf ConceptD

Ahrensburg – 27. Mai 2021 – Acer präsentiert heute im Rahmen der next@acer Global Press Conference das Creative-Programm SpatialLabs™. Das Tool nutzt ein Eye-Tracking Kamera-System und modernste Display-Technologie, um Inhalte realitätsnah in stereoskopischem 3D darzustellen. 3D-Modelle wirken mit der Technologie nahezu so, als würden sie vor dem Bildschirm schweben. Entwickler können ihre Kreationen damit in Echtzeit aus jedem beliebigen Blickwinkel betrachten – ganz ohne Spezialbrille. Ergänzend kündigte Acer außerdem das SpatialLabs™ Developer Programm für Entwickler an, die daran interessiert sind, Projekte mit SpatialLabs™ zu realisieren. Teilnehmer erhalten ein ConceptD SpatialLabs™ Prototyp-Notebook, um erste Erfahrungen mit der neuen Technologie zu sammeln.

Modernste Technologie für stereoskopisches 3D
Eye-Tracking, ein stereoskopisches 3D-Display und Echtzeit-Rendering-Technologien sind das Geheimnis hinter der SpatialLabs™-Technologie. Die Eye-Tracking-Lösung besteht aus einem Set von drei Stereokameras, die an der Oberseite des Displays angebracht sind und die Position und Bewegung des Kopfes sowie der Augen des Nutzers verfolgen. Das Display des ConceptD SpatialLabs™ Prototyp-Notebooks, das auch den Teilnehmern des SpatialLabs™ Developer Programms zur Verfügung gestellt wird, ist mit einem 2D-UHD-Panel ausgestattet, auf dem eine Flüssigkristall-Lentikularlinse aufgebracht ist. Diese Struktur erlaubt es, einfach zwischen 2D- und stereoskopischer 3D-Ansicht hin und her zu schalten. Die Technologie kann so jedem Auge des Betrachters ein anderes Bild anzeigen, sodass die Illusion entsteht, die Inhalte würden vor dem Bildschirm schweben. Im SpatialLabs™ Experience Center können Entwickler via Echtzeit-Rendering außerdem mit den 3D-Modellen interagieren, um ihre Kreationen in Echtzeit zu überprüfen oder interaktiv zu präsentieren – und das alles in stereoskopischem 3D.

Schwebende Kreationen
Traditionell mussten Künstler und Entwickler in der Vergangenheit mehrere Skizzen aus verschiedenen Blickwinkeln anfertigen, um die richtige Proportion ihrer Figuren sicherzustellen – 2D-Displays bieten schlicht nur begrenzte Informationen über die Tiefe eines dreidimensionalen Objekts. Der SpatialLabs™ Model Viewer löst diese Einschränkung, indem er Designern eine zusätzliche Dimension zur Verfügung stellt: Eine intuitive 360-Grad-Ansicht, in der Modelle ganz einfach gedreht, verschoben und sogar aus dem Bildschirm herausgezogen werden können. Selbst wenn Entwickler ihre Modelle aus dem gleichen Winkel auf einem 2D-Display betrachten, bietet die stereoskopische 3D-Darstellung im Vergleich erheblich mehr Informationen als die zweidimensionale.

Die Möglichkeit, Inhalte zusätzlich im Verhältnis 1:1 sehen zu können, ist ein entscheidender Vorteil und beschleunigt den Prozess der Fehlersuche. Nutzer können so zuverlässig sicherstellen, dass das 3D-Design mit dem Konzeptentwurf übereinstimmt. Auch der HDRI-Hintergrund eines Modells kann angepasst werden, sodass sich das Objekt in eine natürliche, realistische Umgebung einfügt. Das erweist sich besonders in Projektphasen als praktisch, in denen konkretes und genaues Feedback wichtig ist, beispielsweise im Produktdesign, um Artikel leichter zu visualisieren und sicherzustellen, dass sie den Erwartungen entsprechen.

SpatialLabs™ Experience Center
Das Display des ConceptD SpatialLabs™ Prototyp-Notebooks ist standardmäßig im 2D-Modus konfiguriert, sodass das Gerät wie ein herkömmliches Notebook verwendet werden kann. Sobald Nutzer Anwendungen im SpatialLabs™ Experience Center starten, wird der stereoskopische 3D-Modus automatisch aktiviert. Das Center fungiert als Schnellstartprogramm und leitet den Nutzer bei der Verwendung der Technologie an, enthält verschiedene Anwendungs-Verknüpfungen sowie Installationsprogramme und Add-Ons. Dazu gehören unter anderem:

  • SpatialLabs™ Model Viewer
    Mit dem Tool können Nutzer Dateien in allen gängigen 3D-Formaten importieren und in stereoskopischem 3D anzeigen lassen. Während der Nutzer sich im Model Viewer befindet, wird fortlaufend die Kopfposition erfasst und in Echtzeit in das gezeigte 3D-Modell eingearbeitet. Wird beispielsweise der Kopf leicht nach links oder rechts bewegt, dreht sich das Modell in die jeweils entgegengesetzte Richtung – ganz so, als würde das Objekt in 3D vor einem schweben und man würde sich leicht darum herumbewegen, um es von der anderen Seite zu betrachten. Zusätzlich sind im Experience Center Add-Ons für die wichtigsten 3D-Softwares verfügbar, darunter Blender und Autodesk Fusion 360, sodass der SpatialLabs™ Model Viewer auch diese Dateiformate unterstützt und Modelle mit einem Klick in den Model Viewer übertragen werden können.
  • SpatialLabs™ Go
    Dabei handelt es sich um eine proprietäre Lösung für das Side-by-Side-Rendering von Vollbildinhalten in stereoskopischem 3D. Entwickler können beispielsweise Blender-Inhalte in der Side-by-Side-Vollbildansicht öffnen und diese mit SpatialLabs™ Go in stereoskopisches 3D übertragen.
  • PiStage für Maya
    Die Middleware PiStage fungiert als Werkzeug, mit dem aufwändige Rendering-Prozesse verkürzt werden können, sodass Anwender ihre Inhalte weiterhin auf einem 2D-Monitor erstellen und gleichzeitig alle Änderungen via SpatialLabs™ in Echtzeit in stereoskopischem 3D sehen können.
  • SpatialLabs™ Player
    Der native SpatialLabs™ Player erlaubt die Darstellung von Side-by-Side-Videos in stereoskopischem 3D.

SpatialLabs™ Developer Program
Darüber hinaus unterstützt SpatialLabs™ auch Unreal Engine, ein Echtzeit-3D-Programm, das von Entwicklern aus zahlreichen Branchen für die Umsetzung ihrer Projekte genutzt wird. Um ihnen dabei zu helfen, stellt Acer den Teilnehmern des Programms für drei Monate kostenfrei ein ConceptD SpatialLabs™-Prototyp-Notebook zur Verfügung.

Die ausgewählten Teilnehmer des Developer Programms sollen mit dem bereitgestellten Gerät eigene Projekte in der Unreal Engine gestalten. Acer begleitet den Kreativprozess und nutzt das Feedback aus dem Programm, um die Erkenntnisse unter anderem in der Produktentwicklung aufzugreifen.

Interessierte können sich auf der Landingpage noch bis zum 30. Juni 2021 bewerben, hier sind auch die genauen Teilnahmebedingungen hinterlegt. Die nominierten Teilnehmer werden im Anschluss kontaktiert.

Kategorien
Der Tag im Überblick: Alle Meldungen

NVIDIA DLSS-Ökosystem wächst

Da keine Alternative in Sicht ist, wächst die Popularität der NVIDIA Deep Learning Super Sampling Technologie.

Heute haben die Entwickler von Unity angekündigt, dass NVIDIA DLSS nativ von der 2021.2-Engine unterstützt werden wird. Diese Version wird bis Ende 2021 veröffentlicht werden. Entwickler, die bereits die Unity-Engine in ihrer Software nutzen, werden nun in der Lage sein, DLSS über HDRP (High Definition Rendering Pipeline) zu verwenden.

Die von NVIDIA AI unterstützte Technologie zum Hochskalieren der Auflösung wird zusammen mit NVIDIA RTX angeboten werden und ermöglicht Raytracing-Grafiken in Echtzeit. Während Raytracing viel GPU-Leistung benötigt und die Leistung erheblich beeinträchtigt, bewirkt die DLSS genau das Gegenteil, indem sie eine höhere Leistung ermöglicht, wobei die Szenen mit einer niedrigeren Auflösung gerendert und künstlich auf High-Definition hochskaliert werden.

 


NVIDIA hat kürzlich angekündigt, dass EPIC Games DLSS als Plugin in seine Unreal Engine integrieren wird. Mit der Unterstützung von DLSS durch die Unity und Unreal Engines verfügt NVIDIA nun sowohl über die einzige GPU-gestützte KI-Supersampling-Technologie auf dem Markt als auch – mehr als zwei Jahre nach der ersten Veröffentlichung – über eine breite Akzeptanz.

In der Zwischenzeit entwickelt AMD seine FSR (FidelityFX Super Resolution), die bis Ende des Jahres auf den Markt kommen soll. Angeblich bereitet auch Intel seine eigene KI-gesteuerte Upscaling-Technologie vor, aber bisher haben wir von keinen Details gehört.



Quelle: NVIDIA DLSS gets native support in Unity 2021.2 – VideoCardz.com

Kategorien
Der Tag im Überblick: Alle Meldungen

NVIDIAs DLSS 2.0 in Unreal Engine 4.26 sorgt für große Leistungssteigerungen

Als NVIDIA die zweite Version seiner Deep Learning Super Sampling (DLSS)-Technik vorstellte, mit der niedrigere Auflösungen mittels Deep Learning hochskaliert werden, war jeder von der Qualität des Renderings beeindruckt. Normalerweise benötigen Spiele Millionen von Codezeilen und selbst einige kleine Features sind nicht so einfach zu implementieren. Heute haben wir dank Tom Looman, einem Spieleentwickler, der mit der Unreal Engine arbeitet, herausgefunden, wie der Integrationsprozess von DLSS 2.0 aussieht und wie groß die Leistungsvorteile sind, die dadurch entstehen.

Die Integration mit der Unreal Engine 4.26 ist einfach, da es nur erfordert, dass das Projekt mit einem speziellen UE4 RTX-Zweig kompiliert und eine AppID von NVIDIA benötigt wird. Das DLSS 2.0 hat es je nach Szene geschafft, eine Steigerung der Framerate von 60-180 Prozent zu erreichen. Das sind ziemlich beeindruckende Zahlen, die zeigen, wie gut es NVIDIA gelungen ist, die DLSS 2.0 Technologie zu optimieren. Eine vollständige Übersicht befindet sich in diesem Blogbeitrag.


Quelle: NVIDIA’s DLSS 2.0 is Easily Integrated into Unreal Engine 4.26 and Gives Big Performance Gains

Kategorien
Der Tag im Überblick: Alle Meldungen Games

NVIDIA: Unreal Engine mit nativer Unterstützung der Ansel-Technologie

Mittwoch, 16. November 2016 — Nativer Support in den beliebtesten Spiele-Engines ist oftmals der Schlüssel zur Etablierung einer neuen Technologie: So können Entwickler die Technologien einfach und unkompliziert in ihre Spiele integrieren.

Deshalb unterstützt die Unreal Engine Version 4.14 nun nativ Ansel, ein In-Game-Fotografie-Tool von NVIDIA, per Plug-In. Erst vor Kurzem wurde NVIDIA Ansel schon als Plug-In in die Unity Enigne integriert.

Mit NVIDIA Ansel die künstlerischen Aspekte von Games erkunden

NVIDIA Ansel bietet nicht nur neue Optionen, um Ingame-Szenen aufzunehmen. Die Technologie ändert die Art und Weise, wie man Gameplay einfängt: Mit Ansel können Spieler ihre Gameplay-Aufnahmen nach ihren Wünschen komponieren, die Kamera in jegliche Richtung ausrichten, an jedem Aussichtspunkt in der Spielwelt aufstellen und dann 360°-Stereo-Photosphären aufnehmen, um diese später mit einer VR-Brille oder dem Google Cardboard zu genießen. NVIDIA Ansel erlaubt HDR-Screenshots mit bis zu einer 32-fachen Bildschirmauflösung und ein Hineinzoomen, ohne an Detail zu verlieren.

NVIDIA Ansel unterstützt aktuelle Spiele-Hits wie Mirror’s Edge: Catalyst, The Witcher 3: Wild Hunt und The Witness. Auch zwei mit der UE4-Technologie entwickelten Spiele bieten bereits NVIDIA Ansel: Obduction und ARK: Survival Evolved

Im Zuge des baldigen Early-Access-Launch veröffentlichten die Entwickler von Conan Exile neue Ansel Screenshots.

Die mobile Version verlassen