Folding@Home Computerbase Team Gründung! Wer ist dabei?

Wer hat Interesse an einen Folding@Home CB-Team?

  • Klar, bin dabei!

    Stimmen: 952 54,2%
  • Nein, interessiert mich nicht bzw. hab ich andere Gründe (Stromverbrauch, PC-Leistung usw.)

    Stimmen: 806 45,8%

  • Umfrageteilnehmer
    1.758
Status
Für weitere Antworten geschlossen.
Also kann ich Crossfire nur aktiv lassen, andernfalls wird die Karte usw zwar erkannt. Allerdings startet er keinen Client auf der 2. GPU


Normalerweise bringt man ja dem Client per -gpu flag bei auf welcher GPU er laufen soll, und die Karte müsste eigentlich auch ohne Crossfire auf beiden GPU's angesprochen werden, da zusätzlich zum Monitor noch ein VGA dummy plug angeschlossen ist, und der Desktop auf den dummy plug extended ist.
 
Zuletzt bearbeitet:
und wie oft geschiet denn nun ein Upload? Nur nach dem Abschließen einer WU oder zwischendurch auch mal?
 
Wenn du die VM von Linuxrouter nutzt und den decoupler aktiviert hast, kriegst du das gar nicht mit, da der decoupler dem client "vorgaukelt" die WU sei schon oben damit er sich direkt eine neue ziehen und falten kann. Der decoupler hält die WU's solange fest bis sie hochgeladen wurden, es kommt öfters vor das der server gewartet wird an den du die wu schicken musst. Beim nativen client egal ob windows oder linux(wobei man unter linux den decoupler nachinstallieren kann) rechnet der client die wu zu ende, lädt diese dann hoch und lädt sich erst dann eine neue wu zum falten runter. WU können hie rnur verloren gehen, wenn die Daten beschädigt wurden.
Das bei letzeren Methode Zeit verloren geht ist klar, insbesondere wenn der server nicht erreichbar ist.
Bei der VM/decoupler Geschichte ist es recht simpel dem Verlust vorzubeugen, ich persönlich schaue zuerst in den Client/decoupler log und ich fahre die VM nicht herrunter sondern verstze sie in den suspend Modus, d.h. die Maschine schläft und rechnet da weiter wo ich sie pasuisert habe. Hierbei muss man natürlich auf die Deadlines achten. Eine weitere Methode ist die Backuplösung der VM zu benutzen. Ich fahre mit der suspend Methode sehr gut, selbstverständlich gehen Bonuspunkte flöten, wenn man pausiert oder man bekommt gar keine, wenn man die deadline überschreitet, ist aber immer noch besser als wenn die Rechnerpower einfach verschwindet.
 
naja ich fahre die VM immer runter, da ich sie daheim evtl. noch laufen lasse und beim Start direkt eine neue IP bekomme. bis jetzt wurde die VM 3x heruntergefahren, es wird noch an der selben WU gearbeitet und bis zur Deadline sinds auch noch 2 Tage. Bonuspunkte bekomm ich sowieso erst ab der 10. WU soweit ich das verstanden hab.
Also ist dieser decoupler generell zu empfehlen? Kann ich mitten in einer WU diesen aktivieren und die VM nach dem submit neustarten, oder holt der sich dann eine neue WU?
 
Einmal aktiviert hast du da mehr oder weniger kein Einfluss mehr drauf, das ist ein proxy der im Hintergrund läuft. Hier würd sich vielleicht ein automatisches backup gut machen, kannst du auch in der vm aktivieren. Der client speichert natprlich selbstständig alle 15 min seine Arbeit, nur wenn die wu im decoupler ist und du die vm aussmachst, dann kann es vorkommen das sie weg ist.
 
@Azrael
Werden alte Logs irgendwo gespeichert? Habe nur den Log für die aktuelle WU.
Ansonsten habe ich nur noch die Queue Infos:
* für Slot 2 (Run 4, Clone 95, Gen 159): finished date: 02.07.2010 19:17:19 (der müsste in der Statistik auftauchen)
* für Slot 3 (Run 1, Clone 273, Gen 1): finished date: 03.07.2010 13:16:57
* für Slot 4 (Run 0, Clone 384, Gen 0): finished date: 04.07.2010 13:49:19
--> überall failed uploads: 0
(allerdings: beim letzten stand mal was mit failed uploads: 2, da war der server nicht erreichbar, erst nachdem er die WU dann erfolgreich hochgeladen hatte, gings mit neuer WU weiter)
 
Danke, das mit den Umgebungsvariablen funktioniert super. Dachte ursprünglich nur das ich auch die manipulierten dll's dazu installieren müsste und das wollte ich irgendwie nicht.

Scheint jetzt aber super mit dem 10.6 Catalyst zu funktionieren.
 
@gehacktesmacher
Und wieviel machen die ATi's jetzt? Bzw die gesamte RIG?

@tesky
Hm das ist wirklich seltsam, könnte mir nur vorstellen das bei Standford irgednwas nicht stimmte. Im Client Verzeichnis solltest du eigentlich neben dem work directory auch sätmliche logs finden. FAHlog und FAHlogprev.txt .
 
Bin noch am testen, werde heute Nacht mal schauen was geht. Nachm Fussball :D
Dann ists auch wieder ein paar Grad kälter draussen und drinnen :)



Boah das ist ja echt eklig, ich hab gerade mal ein Testsystem aufgebaut mit einer 9800GT. *heul*
Die 9800GT schafft genauso viel PPD wie meine 5870, echt traurig für AMD/ATI.
 
Zuletzt bearbeitet:
Das liegt an der Treibergeschichte, bei P3D gibt eine Review zu ATI und NV, GPU Computing - Review und Analyse , ich hoffe das sich das ganze dieses Jahr erledigt, hier wird viel Rechenpower verschenkt. Zumindestens macht die Roadmap von ATi ja Hoffnung und man könnte sich sparsame ATi GPU falter bauen die ordentlich Dampf machen.
Hehe nen Sempron oder nen kleinen X2 undervoltet/getaktet und 2x ne HD5xxx passiv oder so, das kriegt man doch mit Sicherheit unter 300 W und krach macht es auch nicht.
 
@ Azrael: bin gerad am probieren. Wenn ich an die Verknüpfung -gpu 0 dranhäng klappt das Problemlos.
Wenn ich aber -gpu 1 anhäng sagt der mir: "At present your GPU is not supported our you need a current driver...

ich habs schon mit nem neuen Treiber probiert, aber keine verbesserung.

Hast du ne IDee?

Gruß
 
@ gehacktesmacher: Versuch mal den Zweiten Client mit -gpu 2 zu starten.
Vielleicht nimmt er dann die Zweite GPU der HD5970
kann ja sein das die erste GPU der HD5970 GPU 0 ist die HD5770 ist GPU 1 und die Zweite HD5970 ist GPU 2
 
hab nen zweitem monitor dran, der wird mir auch im Treiber angezeigt, aber ich kann den nicht aktivieren (Desktop erweitern oder so)
Hab schon alles Probiert, SLI ausgemacht, "Enable All Displays" und Enable SLi.

kein Erfolg :(

mit dem Betaclient kann ich zwar die zweite GPU ansteuern, aber da sagt er mir, wenn ich den client das zweite mal aufmache, dass der client bereits läuft.

Ich hab die Exe und die Verknüpfung umbenannt:
DIe eine heitßt FaH-GPU0.exe
die andere FaH-GPU1.exe

Was hab ich falsch gemacht?
 
Zuletzt bearbeitet:
@Dia: Monitor funktioniert ? Mal den anderen DVI Steckplatz ausprobieren.

EDIT: Der neue Beta client GPU3 ? Schau mal die Auslastung der beiden GPUs an ich glaube der neue GPU3 Client kann mit SLI umgehen und Last mit einem client beide Karten aus. und brauch nicht 2 mal installiert werden.
 
leider nur VGA eingang und kein adapter da :S

[edit] kann er leider nicht [/edit]
Ergänzung ()

ich hab keinen dunst warum, aber jetzt tun auf einmal beide Grakas.
Die Eine faltet mit dem normalen Client, die andere mit dem Beta :)

>Edit2: Der Betaclient is saulangsam :(
 
Zuletzt bearbeitet:
Auch nicht schlecht, teilweise beheben sich die Probleme von selbst :D


@HawkEy3: Ne das hab ich schon getestet, die Zuordnungen stimmen schon. GPU0 ist 5970 #1 und GPU1 ist 5970 #2.

Hab mir mal die Umgebungsvariablen angesehen, und erreiche es damit zumindest das ein Core auf ~90% und der andere ~70% läuft. Ansich schonmal nicht schlecht.
Nur wenn ich jetzt noch die anderen Karten anwerfe gehen alle wieder auf ~40% zurück?!

Liegts am RAM, hab nur 1GB drin. Ist für XP aber eigentlich genug.
 
der Betaclient macht 4800PPD und der Normale macht 8800PPD.
kann mir jemand n Tip geben, wie ich die zweite Graka auch auf den Wert bringen kann? also wie ich die mit dem normalen Client zum laufen bekomme?
Ich bekomm immer die gleiche Fehlermeldung (die von oben).

Gruß
 
Hm hast du schon mal die Priorität der clients geändert? Das is so ne Sache, wenn man CPu und GPu faltet, alles braucht CPU Zeit.
Probier mal folgdens die CPU auf idle setzen, den einen GPU client auf slighty higher im client selbst und den anderen entweder auf low oder ebenfalls auf slightly higher setzen. Ggf das ganze mit setpriority oder ähnlichen regeln?

Vielleicht hilft dir das weiter? How to: fold on a PhysX GPU without extending monitor

@gehacktesmacher
Wie schaut den die CPU last aus wenn du alle Karten anmachst, ja es könnte vielleicht am Ram liegen ka.
 
mit dem -forcegpu nvidia_g80 flag an beiden GPU CLients scheint es zu funktionieren.
beide Grakas machen jetzt 9000PPD.
Allerdings zeigt GPUZ bei einer GRaka 100% auslastung, bei der anderen 0%.
beide haben aber gleiche Maximale Temperatur.

konische Geschichte.

EDIT!! Wenn ich den smp 8 anschmeiße bricht die GPU1 (zweite GRaka) auf 3500PPD zusammen.
Wenn die VM allerdings aus ist hab ich volle PPDs bei den GRakas :S

Edit2: ich hab die Machine IDS in den CLients jetzt so verteilt:
GPU0: 1
GPU1: 2
CPU(smp8): 3
Core Priorities in den Clients alle auf "idle" (zu Wahl: idle/low)

Im Taskmanager GPU0 und GPU1 auf high
CPU(smp8) auf above normal.

Alles Richtig so?

könnte das vielleichtm it dem Ram zusammenhängen? in dem Teil sind 12GB Ram drin.
Wie sollte ich die am besten verteilen? [VM und GPU Clients?]
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben