Kategorien
Der Tag im Überblick: Alle Meldungen

AI Decoded – Alles über AI-gestützte Instant-NeRF-Technologie

AI Decoded erklärt im Blog dieser Woche alles über die AI-gestützte Instant-NeRF-Technologie. Man erfährt beispielsweise, wie man über statische 2D-Bilder hinausgehen und aus Fotos immersive 3D-Erlebnisse schaffen kann – jeder, ob Anfänger oder Experte, kann lernen, wie das geht.

Instant NeRF steht für Instant Neural Radiance Fields und verwandelt Standardfotos in 3D-Szenen. Das neueste Update bringt eine aufregende Funktion – die Unterstützung von Virtual Reality, die es den Nutzern ermöglicht, in ihre eigenen Kreationen einzutauchen und so eine ganz neue Dimension der Interaktion mit ihren Erinnerungen und Fotos zu eröffnen.

Das Schöne an Instant NeRF ist seine Zugänglichkeit. Die Technologie kann auf jedem Setup verwendet werden, obwohl NVIDIA- RTX- und GeForce-RTX-GPUs die beste Erfahrung bieten. Die Instant-NGP-Software, auf der InstantNeRF basiert, steht auf GitHub zum Download bereit. Sie wurde für alle Benutzer entwickelt, von Anfängern bis hin zu fortgeschrittenen Benutzern, um sicherzustellen, dass jeder damit beginnen kann, immersive 3D-Szenen ohne eine steile Lernkurve zu erstellen.

Um einen Vorgeschmack darauf zu geben, was mit Instant NeRF möglich ist, gibt es hier ein paar Beispiele, die bereits die Fantasie vieler Menschen angeregt haben:

*Auszug Email

Kategorien
Der Tag im Überblick: Alle Meldungen

AI Decoded – Basismodelle als Grundlage von AI-Anwendungen

Diese Woche geht es bei AI-Decoded um die Frage, woraus AI-Anwendungen, die regelmäßig Verwendung finden – wie Chatbots – aufgebaut sind. AI Decoded erklärt das alles im Blogbeitrag dieser Woche über Basismodelle und die vielen Arten, die jetzt lokal auf GeForce RTX und NVIDIA RTX GPUs laufen können. Die meisten dieser Modelle können von jedem – auf jeder beliebigen Hardware – im NVIDIA-AI-Foundation-Models Portal kostenlos ausprobiert werden, um noch mehr AI-Möglichkeiten zu erforschen und zu erstellen.

Ein Basismodell ist ein neuronales AI-Netzwerk, das riesige Datenmengen verarbeitet und trainiert, um sie zu verstehen und in einer menschenähnlichen Sprache zu antworten, so als würde man einem Computer eine umfangreiche Bibliothek mit Büchern zum Lernen geben. Es ist der Baustein, auf dem ein breites Spektrum verschiedener AI-Anwendungen (Texterstellung, Bild- und Videoerstellung usw.) aufbaut.

Große Sprachmodelle (Large Language Models, LLMs) wie Gemma von Google, Mistral LLM von Mistral und Llama 2 LLM von Meta sind ein paar der beliebtesten Arten von Basismodellen, da sie in der Lage sind, natürliche Textantworten zu verstehen und zu erzeugen. Mistral und Llama 2 werden bereits von NVIDIA ChatRTX unterstützt, das lokal auf RTX-PCs läuft und mit den Daten des Benutzers arbeitet, um schnellere und präzisere Antworten zu geben. Bildgeneratoren gehören ebenfalls zu den weit verbreiteten Basismodellen, wie StabilityAIs Stable Diffusion XL und SDXL Turbo.

Es gibt über 100 verschiedene Fundamentmodelle, und diese Zahl wächst weiter, darunter auch multimodale Fundamentmodelle. Diese Modelle können mehr als eine Art von Daten verarbeiten, darunter sowohl Text als auch Bilder, und eröffnen damit eine Welt der Möglichkeiten für reale Anwendungen. Ein Beispiel ist unter anderem eine AI-Kundendienstanwendung, die wie eine benutzerfreundlichere Version einer Bedienungsanleitung funktionieren kann.

Dies und weitere Informationen über die Bedeutung von Grundlagenmodellen gibt es im ausführlichen AI Decoded Blog. Dort gibt es jede Woche Hintergründe zu den neuesten AI-Updates und Aufschlüsselungen.

*Auszug Pressemitteilung

Kategorien
Der Tag im Überblick: Alle Meldungen Games

AI Decoded: AI-Optimierungen mit NVIDIA TensorRT

In dieser Woche dreht sich in AI Decoded alles um die AI-Optimierungen, die NVIDIA TensorRT lokal auf den mehr als 100 Millionen RTX-Windows-PCs und -Workstations ausführt. Außerdem ist jetzt die neue Procyon AI Image Generation Benchmark von UL Solutions verfügbar und misst die reale Leistung von Hardware für die Erzeugung von AI-Bildern. Interne Tests zeigten Geschwindigkeitssteigerungen von 50 % auf einer GeForce RTX 4080 SUPER GPU im Vergleich zur schnellsten Nicht-TensorRT-Implementierung. GPU-Rezensenten können dies mit dem neuen UL Procyon Benchmark Reviewer’s Guide, der jetzt auf dem Presse-FTP von NVIDIA verfügbar ist, selbst testen.

Bevor es zu den Neuigkeiten geht, hier eine kurze Auffrischung:

=> Tensor Cores sind die dedizierten AI-Beschleuniger auf RTX-GPUs, die effizient lokale Hochleistungs-AI liefern.

=> NVIDIA TensorRT ist eine Reihe von Tools – d.h. ein Software Development Kit (SDK) – die es Entwicklern ermöglicht, auf die Hardware zuzugreifen, um vollständig optimierte AI-Erlebnisse zu schaffen.

=> NVIDIA TensorRT-LLM ist eine Open-Source-Bibliothek, die es LLMs ermöglicht, Anfragen schneller und effizienter zu verstehen und zu beantworten. ChatRTX basiert auf TensorRT-LLM für optimierte Leistung auf RTX-GPUs, und jeder kann mit TensorRT-LLM-optimierten Modellen in den NVIDIA AI Foundation-Modellen experimentieren.

Für LLMs beschleunigt TensorRT einige der beliebtesten generativen AI-Modelle, einschließlich Stable Diffusion und SDXL. Neu in dieser Woche ist, dass die TensorRT-Optimierung, die die beliebte Stable Diffusion WebUI von Automatic 1111 beschleunigt, jetzt auch ControlNets unterstützt, eine Reihe von AI-Modellen, die wie spezielle Assistenten agieren, um den Nutzern mehr Kontrolle über ihre generierten Bilder zu geben – mit einer Steigerung von bis zu 40 %. Die Erweiterung steht ab heute auf GitHub zum Download bereit.

*Auszug Pressemitteilung

Die mobile Version verlassen