In der RTX AI Garage dieser Woche wird erläutert, wie AI-Enthusiasten Anwendungen wie Langflow nutzen, um generative AI-Modelle zu verketten. Dank der nativen Ollama-Integration können Nutzer nun lokale AI-Workflows erstellen und diese kostenlos und unter vollständiger Wahrung der Privatsphäre ausführen, unterstützt durch NVIDIA GeForce RTX– und RTX PRO-GPUs.

Langflow kann Modelle aus der Cloud oder lokal ausführen. Dabei wird die volle Beschleunigung für RTX-GPUs über Ollama genutzt. Die lokale Ausführung von Workflows bietet mehrere wichtige Vorteile:

  • Datenschutz: Eingaben, Dateien und Eingabeaufforderungen bleiben auf das Gerät beschränkt.
  • Niedrige Kosten und keine API-Schlüssel: Der Zugriff auf die Cloud-Anwendungsprogrammierschnittstelle ist nicht erforderlich, sodass keine Tokenbeschränkungen, Service-Abonnements oder Kosten im Zusammenhang mit dem Betrieb der AI-Modelle anfallen.
  • Performance: RTX-GPUs ermöglichen eine Inferenz mit geringer Latenz und hohem Durchsatz, selbst bei langen Kontextfenstern.
  • Offlinefunktionalität: Lokale AI-Workflows sind ohne Internetverbindung zugänglich..

Benutzer können RTX-AI-PCs jetzt auch mit Project G-Assist in Langflow steuern.

NVIDIA Project G-Assist ist ein experimenteller AI-Assistent, der lokal auf GeForce RTX-PCs läuft und es Nutzern ermöglicht, Systeminformationen abzurufen, Systemeinstellungen anzupassen und vieles mehr. All dies geschieht über einfache Eingaben in natürlicher Sprache.

Mit der G-Assist-Komponente in Langflow können diese Funktionen in benutzerdefinierte agentenbasierte Workflows integriert werden. Benutzer können G-Assist auffordern, „GPU-Temperaturen abzurufen“ oder „Lüftergeschwindigkeiten anzupassen“ und dessen Antworten und Aktionen werden über die gesamte Komponentenkette weitergeleitet.

*Auszug Pressemitteilung

Teilen.
Einen Kommentar schreiben

Please log in to your forum account to comment

Exit mobile version