Upgrade nur für GFX Radeon RX 5600 XT auf einem MB MSI B550-A Pro mit AMD Ryzen 5 3600 überhaupt sinnvoll?

nutrix schrieb:
Für aktuelle GPUs empfiehlt sich ein ATX 3.1 Netzteil mit entsprechenden Anschlüssen.
Meines ist ein ATX 2.4. Die beiden "6/8-Pin PCIe"-Kabel stecken auch in meiner alten Karte. Bedeutet das jetzt, dass ich für die neue GFX daher immer ein neues Netzteil benötige ???
Ergänzung ()

TomH22 schrieb:
Ich nutze LM Studio mit einem Ryzen 3600 und einer RX7700XT, ...
Vielen Dank für deine Einschätzung und deine Hinweise.
 
UralterMann schrieb:
Bedeutet das jetzt, dass ich für die neue GFX daher immer ein neues Netzteil benötige ???
Nein, gute ATX 2.4 Netzteile, sofern ausreichend dimensioniert, sollten auch mit aktuellen Grafikkarten funktionieren. Zumal die meisten AMD GPUs noch die bisherigen 6/8 Pin Stecker benutzen. Wen man aber ein neues Netzteil kauft, sollte man heutzutage ATX 3.1 kaufen.
 
UralterMann schrieb:
Bedeutet das jetzt, dass ich für die neue GFX daher immer ein neues Netzteil benötige ???
NVidia nutzt seit RTX 3000 den 12-Pin-Stecker. Der lässt sich mit 6+2-Pin-Steckern adaptieren. Wenn man ein solides ATX 2.4-Netzteil hat, spricht da auch erstmal nichts dagegen. Mache ich mit meiner aktuellen Grafikkarte nicht anders. Aber wenn man ein neues kauft, sollte man natürlich schauen, dass es auch die aktuellen Steckertypen gleich mit an Bord hat.
 
  • Gefällt mir
Reaktionen: TomH22
Habe gerade eine - für mich - gutes Video gefunden, dass die beiden Grafikkarten
RX 9060 XT und RTX 5060 Ti (beide mit 16 GB) vergleicht:


Basierend hierauf spricht weiterhin alles für das Szenario KI lokal zu betreiben signifikant für nVidea (obwohl das Video "heute" schon 3 Monate alt ist).
 
Was habt ihr alle mit diesem KI? Bis heute noch kein einziges Mal benutzt (oder was auch immer man damit macht) und komme ohne Einschränkungen durchs Leben wie die 40 Jahren davor. 🍻
 
Was habt ihr alle mit diesem Computer? Bis heute noch kein einziges Mal benutzt (oder was auch immer man damit macht) und komme ohne Einschränkungen durchs Leben wie die 40 Jahre davor.
 
  • Gefällt mir
Reaktionen: nutrix
Darauf kommt man bei der Formulierung nicht.

Die Frage lässt sich pauschal wohl nur mit Neugier auf neue Technologien beantworten. Aber der TE hat ja zum Teilbeschrieben, was er damit macht. Er generiert Bilder für ein p&p-Spiel.

Ich habe KI zum Beispiel mal genutzt um verschiedene Architektur-/Design-Stile zu kombinieren.
 
Bei mir ist der Fokus meines spezifische KI-Szenario unser p&p-Spiele. Dabei sind mein aktuelle UseCases folgende:
  • Bilder für die NSC (z.B. flux1)
  • Hintergrundbilder von Szenen (z.B. flux1)
  • sprach-2-text unserer Sessions (die wir online spielen) als Protokolland (z.B. mit whisper)
  • (geplant) BigBrain für unsere Spielwelt (geplant...ein lokals LLM das ich mit möglichs vielen Token füttern kann...)

Bei der Bildgenerierung ist das grundsätzliche Problem, dass die kostenlosen Bilder-KIs zwar schöne Bilder liefern können (aber nur ein paar wenigen pro Tag), aber Promps (aka Anweisungen für die KI), die Bilder nicht zu ähnlich ausschauen lassen, sind nicht für NSC nicht "mal schnell aus dem Ärmel geschüttelt" und - zumindest bei mir - mit vielen Versuchen (und Schimpfen) verbunden :)
 
  • Gefällt mir
Reaktionen: wrglsgrft
Wir müssen uns von dem Marketingbegriff "KI" verabschieden. Denn diese Algorithmen sind keine künstliche Intelligenz. Das sind schliche fest vorgegebene Programmierungen bestehend aus Wenn-Dann Beziehungen. Die Programmierer sind die Intelligenten - nicht die Software.

Will man Large Language Models lokal gescheit betreiben, ist das mit der hier genannten Hardware quasi nicht gescheit zu realisieren. Will man das "richtig" machen muss es schon ne 5090 von Nvidia sein - oder ein voll ausgestatteter Mac Studio - bedingt mit nem vollausgestatteten Mac Mini. Sonst ist generell hier der VRAM immer der Flaschenhals - bei der 9060XT/5060 TI sogar die GPU an sich.

Hier bitte einmal mit dem Youtuber "Network Chuck" befassen. Der zeigt gut auf, wie viel Leistung diese LLMs eigentlich brauchen.
 
Bono35 schrieb:
Wir müssen uns von dem Marketingbegriff "KI" verabschieden.
Das stimmt, "KI" ist zu einem Marketingbegriff geworden. Vorletztes Jahr war es noch ein "innovatives Prozessunterstützungswerkzeug" heute wird es "KI" genannt. Dabei kein Unterschied. (Produkt nenne ich jetzt mal nicht)

Bono35 schrieb:
Denn diese Algorithmen sind keine künstliche Intelligenz. Das sind schliche fest vorgegebene Programmierungen bestehend aus Wenn-Dann Beziehungen. Die Programmierer sind die Intelligenten - nicht die Software.
Sehr weites Feld. So pauschal würde ich das jetzt nicht sagen ... und "grundsätzlich" sind irgendwie alle Programme "nur" wenn-dann Beziehungen ... so auf einer Meta-Ebene ...

Egal.

Ich kann heute meine Bilder "von einer KI" malen lassen und muss nicht selber mehr weinen, wenn ich Stift und Papier auspacke. Das reicht mir vorerst.


Bono35 schrieb:
...
Hier bitte einmal mit dem Youtuber "Network Chuck" befassen. Der zeigt gut auf, wie viel Leistung diese LLMs eigentlich brauchen.
Cooler Channel. Jedem zu empfehlen, besonders der Schluss der Videos ;)
 
  • Gefällt mir
Reaktionen: Bono35
Für jeden interessierten der ein wenig mehr mit seinem Rechner als nur Spiele spielenm will, ist NEtwork Chuck in der Tat sehr zu emopfehlen, da hier Weiterbildung unterhaltsam verpackt ist.
 
Zurück
Oben