Nvidia NIM & Blueprint: Aktuelle KI-Modelle einfach auf RTX AI-PCs ausführen [Anzeige]

Nvidia
28 Kommentare
Nvidia NIM & Blueprint: Aktuelle KI-Modelle einfach auf RTX AI-PCs ausführen [Anzeige]

Wer einen RTX AI-PC sein Eigen nennt, hat ein mächtiges KI-Werkzeug in der Hand: Für DLSS in Spielen, RTX Broadcast beim Streaming oder zum Beschleunigen von KI- und Kreativ-Workflows in namhaften Apps. Kommen Nvidia NIM und Blueprint ins Spiel, lassen sich auch aktuelle KI-Modelle für neue innovative Anwendungen einfach nutzen.

NIM und Blueprint – was ist das eigentlich?

Direkt zu Beginn stellt sich allerdings noch einmal die Frage: Nvidia NIM und Blueprint - schon oft gehört, aber was ist das eigentlich? Um das einfach zu erklären, zuerst noch einmal einen Schritt zurück.

Ein Schritt zurück: Inferencing

KI-Modelle, ganz gleich welcher Art, müssen konzeptionell entwickelt und anschließend mit Daten trainiert werden („Training“). Mit trainierten Modellen kann dann wiederum gearbeitet werden. Diese Arbeit mit trainierten KI-Modellen nennt man „Inferencing“. Für das Inferencing bedarf es also:

  • Eines trainierten Modells
  • Einer Möglichkeit mit dem Modell zu interagieren
  • Leistungsfähige Hardware um das Modell auszuführen

Nvidia NIM verständlich erklärt

Mit den Nvidia Inferencing Microservices (NIM) unterstützt Nvidia Unternehmen, Forschungseinrichtungen, Entwickler, Kreative und Privatpersonen sowohl bei der Bereitstellung als auch bei der Nutzung und Berechnung von KI-Modellen zum Inferencing.

Mit Nvidia NIM lassen sich über 240 KI-Modelle einfach und performant einsetzen
Mit Nvidia NIM lassen sich über 240 KI-Modelle einfach und performant einsetzen (Bild: Nvidia)

NIM bietet dafür über 240 trainierte KI-Modelle aus sieben Schwerpunktbereichen an – von Nvidia und von Drittentwicklern. Sie können inklusive der erforderlichen Laufzeitkomponenten als Software-Pakete in Containern mit Enterprise-Qualität bezogen und auf der bevorzugten eigenen Infrastruktur gehostet werden: In der Cloud, im Rechenzentrum, auf Workstations oder Notebooks und PCs – was möglich ist, hängt vom jeweiligen NIM ab. Aktuell werden die folgenden Bereiche abgedeckt:

  1. Large Language Models (z.B. llama, Mistral, Gemma)
  2. Retrieval Models (z.B. llama, BAAI)
  3. Visual Models (Flux.1, Stable Diffusion)
  4. Multimodal Models (z.B. llama, phi)
  5. Healthcare Models (z.B. esmfold, openfold2, Vista3D)
  6. Route Optimization Models (cuOpt)
  7. Climate Simulation Models (corrdiff, fourcastnet)

Neben dem trainierten Modell und der notwendigen Laufzeitumgebung bieten NIMs darüber hinaus standardisierte APIs, mit denen auf die Modelle zugegriffen werden kann. Last but not least sind NIMs für GPU-beschleunigte Ausführung auf Nvidias KI-Beschleunigern (GeForce RTX, Nvidia RTX (Pro), Hopper, Blackwell etc.) optimiert worden. Ein NIM bietet also alles, was es zum Inferencing bedarf:

  • Ein trainiertes KI-Modelle aus sieben Themenschwerpunkten
  • Standardisierte APIs
  • Optimierte Engines

Ein konkretes Beispiel ist das NIM FLUX.1-dev. Es bringt alles mit, um das generative KI-Bildgenerierungs-Modell des deutschen Entwicklers Black Forest Labs GPU-beschleunigt auf einem RTX AI-PC auszuführen.

Und wie passen jetzt Nvidia NIM und Blueprint zusammen?

Nvidia Blueprint verständlich erklärt

Nvidia Blueprints setzen auf Nvidia NIM auf. Ein Blueprint (eine Blaupause) ist ein Referenzbeispiel, das sich eines oder mehrere Nvidia NIM bedient um auf dieser Basis eine ganz neue innovative KI-Anwendung für einen bestimmten Zweck zu kreieren.

Nvidia NIM vs. Nvidia Blueprint
Nvidia NIM Nvidia Blueprint
Zweck Einfache Bereitstellung von KI-Modellen Entwicklung kompletter KI-Workflows
Inhalt KI-Modelle, Laufzeitumgebungen, APIs und optimierte Engines Beispielprojekte mit Code und Deployment
NIM × Blueprint NIM stellen KI-Modelle für Blueprints bereit

Ein Blueprint mit NIM im Detail

Ein sehr anschaulicher Blueprint mit integriertem NIM ist „3D Guided Generative AI“.

3D Guided Generative AI

Der Blueprint setzt auf den NIM FLUX.1-dev auf und räumt dabei gezielt eine Schwäche textbasierter Bild-Generierungs-Modelle aus. Denn so leistungsfähig Modelle wie Flux.1 auch sind, das Resultat entspricht trotz komplexer Texteingabe (Prompts) häufig nicht dem gewünschten Resultat. Mehr Kontrolle respektive Modelleingaben wäre besser. Sie alle in Textform zur Verfügung zu stellen, ist allerdings nicht praktikabel.

Der Blueprint zeigt, wie mehr Kontrolle auf ganz anderem Wege möglich ist. Dafür erhält das auf lokaler Nvidia-Hardware ausgeführte Flux1.-Modell nicht nur die Texteingabe des Anwenders als Vorlage. Über ComfyUI wird der KI darüber hinaus eine Rendervorlage aus Blender zur Orientierung gegeben – eine grobe Skizze reicht aus. Das folgende Video vermittelt anhand eines „Dorfes“, zu dessen Komposition Flux.1 anhand einfacher 3D-Modelle zusätzliche Informationen vorliegen, einen guten Überblick.

Wer den Blueprint 3D Guided Generative AI auf dem eigenen Rechner mit kompatibler Nvidia-Hardware zu nicht-kommerziellen Zwecken ausprobieren oder gar nutzen möchte, kann das auf einem System mit Windows 11 einfach tun.

Systemvoraussetzungen

Der Blueprint ist über das Windows Subsystem for Linux (WSL 2) lauffähig. Wie es für das Deployment von NIM eingerichtet wird, erklärt Nvidia ausführlich online. Es gibt auch einen Installer. Wichtig: Auf dem Rechner muss Virtualisierung aktiv sein:

Virtualisierung muss aktiv sein
Virtualisierung muss aktiv sein

Nvidia empfiehlt für den konkreten Blueprint einen RTX AI-PC mit mindestens 48 GB. Denn quantifiziert und ausgeführt wird das Modell mittels Nvidia TensorRT auf kompatiblen GPUs. Aktuell werden die folgenden GPUs unterstützt. Weitere sollen aber folgen.

  • Nvidia GeForce RTX 5090
  • Nvidia GeForce RTX 5080
  • Nvidia GeForce RTX 4090
  • Nvidia GeForce RTX 4080
  • Nvidia GeForce RTX 4090 Laptop GPU
  • Nvidia RTX 6000 Lovelace Generation

Für die Ausführung des Beispiels kam ein RTX AI-PC mit Nvidia GeForce RTX 5080 zum Einsatz.

Den Blueprints einrichten

Erfüllt das System die Voraussetzungen, kann der Blueprint eingerichtet werden. Neben dem NIM Flux.1-dev benötigt werden das kostenlose Render-Tool Blender, ComfyUI sowie ComfyUI Blender AI Node – beides ist unter Lizenz GPL-3.0 ebenfalls frei verfügbar und im Installationsprozess mit inbegriffen.

Für den gesamten Einrichtungsprozess des Blueprints stellt Nvidia ebenfalls eine umfassende, bebilderte Schritt-für-Schritt-Anleitung zur Verfügung.

Der NIM Prerequisite Installer macht das System fit für den Einsatz von Nvidia NIM

Zu Beginn richtet der NIM Prerequisite Installer das System für Nvidia NIM ein. Weitere Schritte sind in der Kommandozeile vorzunehmen, was anhand der guten Anleitung aber ebenfalls kein Problem darstellt. Zum Abschluss wird ComfyUI in Blender konfiguriert.

Ohne Kommandozeile geht es nicht, aber die Schritt-für-Schritt-Anleitung unterstützt sehr gut

Mit dem Blueprint arbeiten

Der Blueprint kommt mit einer Projektdatei, in der die neuen Möglichkeiten zum erweiterten Prompten in Flux.1 direkt getestet werden können.

Im Blender-Viewport sind einige Gebäude und ein Brunnen als einfache 3D-Modelle hinterlegt. Der Standard-Prompt lautet „a stunning professional photo of a quaint village in the mountains in winter, a snow covered fountain is visible in the center of the town square“.

Flux.1 kann nun auf drei Arten zum Rendern einer neuen Szene auf der Nvidia GPU bewegt werden:

  1. Der Text-Prompt wird angepasst
  2. Die Perspektive auf die Szene in Blender wird verändert
  3. Die Szene in Blender wird verändert
Nvidia NIM und Blueprints
Nvidia NIM und Blueprints

Nach jeder Anpassung kann das Modell auf der GPU im RTX AI-PC neu berechnet werden: Im Beispiel eine GeForce RTX 5080. Nach wenigen Sekunden ist das Resultat sowohl in Blender als auch im zuvor über ConfiUI definierten Ordner abgelegt – ohne über die Cloud zu gehen.

Dieselbe Blender-Vorlage, aber ein anderer Prompt (Winter, Sommer, Herbst)

Wird die Szene angepasst, indem der Brunnen durch das 3D-Modell eines Bootes ersetzt wird, und als Prompt „eine Szene aus Venedig“ mitgegeben, fällt das Resultat natürlich ganz anders aus. Das Boot steht allerdings dort, wo es in der Vorlage positioniert wurde, und auch die dort mit 3D-Modellen von Häusern abgebildete Gasse findet sich auf dem Gen-AI-Bild wieder. Dank der mit einer 3D-Vorlage geleiteten Generativen Bild-KI entspricht das Ergebnis den Erwartungen viel eher.

Der Brunnen ist dem Modell eines Bootes gewichen, der Prompt wurde angepasst (Szenerie aus Venedig)
Der Brunnen ist dem Modell eines Bootes gewichen, der Prompt wurde angepasst (Szenerie aus Venedig)

Blueprints für AI-Agenten für Enterprise

Neben diesem auch auf dem heimischen RTX AI-PC anschaulich nachvollziehbaren Blueprint stellt Nvidia über 30 weitere Blueprints online zur Verfügung. Über den Filter „Run-on-RTX“ lassen sich dabei alle Vorlagen herausfiltern, die auch auf einer RTX-Grafikkarte lauffähig sind. Andere benötigen High-Performance-Computing-Hardware (HPC) wie die Hopper- (H100, H200) oder Blackwell-Beschleuniger (B100, (G)B200, GB300).

Weitere Blaupausen gibt es zum Beispiel zum Designen von Proteinen (Evo 2 Protein Design), zum Erkennen von Kreditkartenbetrug (Financial Fraud Detection) oder zum Erstellen von Podcasts auf Basis von PDFs (PDF to Podcast). Für Unternehmen besonders interessant ist auch der Blueprint für einen virtuellen Assistenten (Build an AI Virtual Assistant).

Am Ende sind aber auch diese umfassenden Blueprints nur ein Bruchteil dessen, was auf Basis der über 240 NIMs auf Nvidia-Plattformen in der Cloud, dem Rechenzentrum, Workstations oder RTX AI-PCs und Notebooks möglich ist.

Leistungsstarke RTX AI-PCs bei Memory PC

Leistungsstarke RTX AI-PCs für Nvidia NIM und Blueprint gibt es beispielsweise bei Memory PC.

RTX AI-PCs gibt es beispielsweise bei Memory PC
RTX AI-PCs gibt es beispielsweise bei Memory PC (Bild: Memory PC)

Memory PC ist ein führender Hersteller von anpassbaren PCs mit über 15 Jahren Erfahrung und Sitz in Friesland. Über den umfangreichen Online-Konfigurator können PCs individuell auf die eigenen Wünsche angepasst werden, jeder PC durchläuft vor der Auslieferung umfangreiche Testroutinen. Memory PC gewährt standardmäßig 2 Jahre Garantie (auf 3 Jahre erweiterbar).