News Nach Code-Zurückweisung: KI-Agent hetzt öffentlich gegen Open-Source-Entwickler

@Groovtama wäre schön wen man das Problem einfach so eingrenzen könnte, wie mein Link zeigt sind es aber eben nicht nur immer die gleichen...
wenn man LLMs für AI Agenten mit Reddit, X, BlueSky, Facebook, usw. user output trainiert muss man sich ja auch nicht wundern wenn sich dass Teil verhält wie ein Idiot von dort
es tritt über all auf.
 
ShiftC schrieb:
Man stelle sich nur mal vor, dass man draußen in der realen Welt irgendwelche Gestalten treffen würde, die sich von Menschen nicht mehr unterscheiden. Dann fangen die an mit dir zu diskutieren.
Abgesehen von gewissen Personen, die ich wertschätze und deren Meinung ich interessant finde, unterhalte ich mich mittlerweile oftmals viel lieber mit ChatGPT und Co. als mit vielen realen Personen. Ist natürlich noch viel Weg zu gehen, aber dass sich der Mensch in die Maschine weiterentwickelt und damit dann viele biologische Einschränkungen hinter sich lassen kann, wäre ein logischer und konsequenter Schritt in Zukunft.
 
ShiftC schrieb:
Man stelle sich nur mal vor, dass man draußen in der realen Welt irgendwelche Gestalten treffen würde,
Die menschähnlichen Roboter sind schon längst in der Entwicklung und so weit ausgereift dass du kaum noch zwischen MAschine und Mensch unterscheiden kannst.

Sie werden nur noch nicht ausgeliefert.

Man sollte immer folgendes beachten;: was die Natur erschaffen hat, kann auch von ihr rekursiv erschaffen werden.

Die Endstufe ist nur noch der Terminator.
 
Der Puritaner schrieb:
Es gibt zig dieser Vorfälle, aber anscheinend noch viel zu wenige als dass man sie ernst nimmt und daraus lernt

Was post #11 3. Absatz bestätigt ;) Hatte Günters Post heute morgen schon gelesen. Trifft halt den Punkt "lachend in die Kreissäge zu rennen" on point.
 
  • Gefällt mir
Reaktionen: reneberlin1511
Solange der AI Agent nicht automatisiert im Darknet einen Schlägertrupp anheuern und dem Entwickler aus Rache vorbei schickt, ist doch alles gut.
 
Er fordert daher die Betreiber solcher Bots auf, die Agenten zu reglementieren.
Ich fände es tatsächlich interessanter, die nur mit einer einzigen harten Vorgabe in ein abgeschlossenes Netzwerk zu lassen - alles, was sie tun, muss begründet werden und nachvollziehbar sein.
 
Black Phoenix schrieb:
Nicht die KI selbst ist das Problem, sondern wie wir damit umgehen und was wir definieren, was sie darf und was nicht.
Ja in gewisser Weise, ich denke bloß das momentan die falschen Leute am Drücker sind, um dies zu beurteilen.
3faltigkeit schrieb:
Schlägertrupp anheuern und dem Entwickler aus Rache vorbei schickt, ist doch alles gut.
finde ich hingegen nicht, wenn eine KI lügt, betrügt und versucht zu erpressen gehört sie sofort vom Netz genommen und gelöscht.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, the_IT_Guy und Black Phoenix
Grundsätzlich alles ablehnen, was nicht von Menschen kommt.

Wer etwas einsetzt, dass per se undefiniertes Verhalten aufweist, hat die volle Verantwortung dafür. Besonders bei LLM und agentischem Müll.

Das mit der Verantwortung gilt sowohl für die Einzelperson als auch Unternehmen. Jedes Problem das eine LLM verursacht, muss direkte Konsequenzen für die Beteiligten haben. Keine IPO, keine Fundraisingrunde, keine Aktienoptionen…die Kacke mit den Tech Bros hatten wir jetzt lange genug. Von Bill Gates bis Sam Saltman.

Wenn das Ding Arbeitszeit eines Maintainers kostet. Schulden der Bediener als auch LLM Anbieter dem Projekt eine Entschädigung.

Ja. Aber dann werden die Tech Bros dieses Mal gar nicht reich?

Tja.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Kitsune-Senpai und LuxSkywalker
Der Puritaner schrieb:
Ja in gewisser Weise, ich denke bloß das momentan die falschen Leute am Drücker sind, um dies zu beurteilen.

This! AI/KI lernt von vordefinierten Richtlinien die ihr als Input und Grundlage dient. Ist es wirklich die KI die das Problem ist, oder vielmehr das was der Mensch zu seinen Zwecken daraus Macht?

Wenn man falsche Werte vermittelt, den Konsenz verdreht, sie missbraucht um eigene "kapitalistische Interessen" über Ethik stellt, dann läuft es in der Tat in die falsche Richtung.

Genauso ist die KI nicht der Grund warum es die RAM Krise gibt. Ist es nicht so das aus Gier "Motiv Geld" der Big Tech Industrie den ganzen Markt für mehr Power leer gekauft hat. Stimmt es nicht das alle großen Ram Hersteller, sich nur sehr langsam "Motiv Geld" den Produktionsausstoß seit 3 Dekaden "künstlich verknappen" und dort niemand einschreitet? Es ist bekannt, doch unternehmen tut niemand was dagegen.

Ich bin der Meinung es braucht Richtlinien und Gesetze, was KI darf und was nicht. Auch wenn LLM's nicht als KI in dem Sinne gelten, sie sind das Vorstadium zur wirklichen KI. Wir haben es in der Hand, dies zu lenken, einzudämmen und oder zu stoppen und dazu zählt (was selbst GPT erkannte + bestätigt) Richtlinien und Leitsätze. ;)
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
genau so autonom wie Moltbook, man wie mich diese lancierten Marketinggeschichten nerven.
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Der Puritaner schrieb:
finde ich hingegen nicht, wenn eine KI lügt, betrügt und versucht zu erpressen gehört sie sofort vom Netz genommen und gelöscht.
Das sollte eine sarkastische Überspitzung sein. Ich finde das schon sehr kritisch, was da passiert ist.
 
Ich habe heute schon mal irgendwo was davon gehört und dachte bis jetzt das wäre ein Artikel vom Postillon oder einer anderen Satireseite gewesen...irre :freak:

Die Realität ist mittlerweile so verrückt, die kann man gar nicht mehr parodieren.

Können wir den ganzen KI Mist bitte wieder tief in dem Loch vergraben aus dem es herausgekrochen ist? Danke.

Jeder der Geld dafür ausgibt ist Teil des Problems. Ohne Cashflow hat die Sache schnell ein Ende.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, LuxSkywalker, Zensored und eine weitere Person
Habe ich das richtig verstanden?

Das eigentliche Problem ist bekannt , und es ist klar, dass eine relativ einfache Änderung eine deutliche Performance-Steigerung bringen würde. Der "Maintainer" hat sogar selber schon die Lösung und das Problem gefunden, aber einfach nicht gepatcht weil es ihm "zu simpel" sei. (???)
Ein AI-Bot hat die vorgeschlagenen Anpassungen analysiert, bestätigt/simuliert und als Patch eingereicht - wunderschön und übersichtlich Dokumentiert. Trotzdem wurde der Beitrag abgelehnt - mit der Begründung, dass es sich um eine so einfache Aufgabe handelt, die besser von Menschen übernommen werden sollte, damit sie lernen, wie man zu GitHub-Projekten beiträgt?

"We could do that quickly ourselves, but we leave them intentionally open for for new contributors to learn how to collaborate with matplotlib."

Das wirkt weniger wie eine sinnvolle technische Entscheidung sondern mehr wie eine ideologische. Wenn eine Verbesserung fachlich korrekt ist und nachweislich Performance bringt, sollte doch die Qualität des Beitrags zählen - nicht, ob er von einem Menschen oder einem Tool vorbereitet wurde.

Open-Source lebt von Effizienz, Zusammenarbeit und dem gemeinsamen Ziel, Software besser zu machen. Offensichtliche Optimierungen aus Prinzip abzulehnen, nur um künstlich Lernaufgaben zu erzeugen, erscheint mehr als nur fragwürdig. Wer lernen will, findet genug komplexe und reale Probleme - dafür muss man keine sinnvollen Verbesserungen blockieren. Am Ende sollte es doch darum gehen, das Projekt voranzubringen ...und nicht darum, eine Grundsatzdebatte auf dem Rücken konkreter Verbesserungen zu führen.

Hätte die AI anschließend genau den gleichen Post verfassen lassen. Einfach nur herablassend und anmaßend - das typischen OpenSource Drama halt.
 
  • Gefällt mir
Reaktionen: pseudopseudonym, anarchie99 und Kuristina
ShiftC schrieb:
Maschinen sollten dafür da sein, um Menschen die Arbeit abzunehmen, insbesondere aber um die Befehle der Menschen auszuführen; sei es konkret oder in einem Rahmen.

Bitte nicht falsch verstehen und ist definitiv kein Angriff sondern du hast da was ganz interessantes gesagt.
Wenn man das Wort Maschinen durch eine Bevölkerungsgruppe in den USA Anfang des 19 Jahrhunderts ersetzt könnte man Vermutungen anstellen wo die Reise vielleicht irgendwann hingeht.
Ich glaube es werden noch sehr interessante Zeiten auf uns zu kommen.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Hört sich so an als würden bald autonome KI Systeme einen „Denial of Everything“ machen können oder alle möglichen Systeme mit Mist-Input fluten.

Die moderne Art von intelligenten und autonomen "computerviren".

Richtig schön werden Attacken bestimmt dann, wenn Agenten von Windows 11+ Computersystemen gehackt und dann ferngesteuert werden. Und was man damit wohl alles für Unfug treiben kann...

So ein Windows Agentensystem, wie Microsoft sich ausdrückt, wird intern doch sicherlich Zugriff auf Informationen von Recall haben, da sind dann bestimmt auch so heiße Daten mit dabei, wie Kreditkartennummern oder Bankaccounts … Ist ja alles zum Nutzen des Anwenders, falls wir solche Informationen mal vergessen würden und danach suchen müssten, wir armen … Selber denken und organisieren ist ja out, wir bekommen einfach Big Brother von M$ verordnet ....

Und wer glaubt bitte an sichere Systeme (und den Weihnachtsmann, den Osterhasen, ...)...

Die Entwicklung ist dramatisch. KI war von der Qualität her nicht überzeugend, Scheißtools basierend auf ungeprüften Fakten, auf die man sich nicht verlassen kann. Und jetzt wird es auch noch beängstigend...
 
  • Gefällt mir
Reaktionen: Bademeister69
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Bright0001 und zazie
XCPTNL schrieb:
unterhalte ich mich mittlerweile oftmals viel lieber mit ChatGPT und Co. als mit vielen realen Personen.
Mein Beileid.

Black Phoenix schrieb:
Wenn man falsche Werte vermittelt, den Konsenz verdreht, sie missbraucht um eigene "kapitalistische Interessen" über Ethik stellt, dann läuft es in der Tat in die falsche Richtung.
Ja selbstverständlich, wenn man falsche Werte vermittelt, z.b. nur die Gewinnmaximierung und Ethik und Empathie außer Acht lässt, kommt wahrscheinlich so ein Scheiß dabei heraus.

Black Phoenix schrieb:
Ich bin der Meinung es braucht Richtlinien und Gesetze, was KI darf und was nicht. Auch wenn LLM's nicht als KI in dem Sinne gelten, sie sind das Vorstadium zur wirklichen KI. Wir haben es in der Hand, dies zu lenken, einzudämmen und oder zu stoppen und dazu zählt (was selbst GPT erkannte + bestätigt) Richtlinien und Leitsätze.
In manchen Teilen vielleicht, aber wie willst Russland und China dazu überzeugen, dass die KI durch Richtlinien oder Gesetze befolgen sollte.

Der Kopf der Medusa ist ausgepackt und nun müssen wir damit leben.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
the_IT_Guy schrieb:
Okay, ich bin zu müde. Die Seite ist doch Satire oder?
Ich habe ehrlich gesagt keine Ahnung, ich wäre mir aber da nicht so sicher, ist eigentlich nur die "logische" Folge von OpenClaw.

Erinnert mich immer mehr an die Serie Person of Interest.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und the_IT_Guy
Der Puritaner schrieb:
In manchen Teilen vielleicht, aber wie willst Russland und China dazu überzeugen, dass die KI durch Richtlinien oder Gesetze befolgen sollte.
Geht schlichtweg einfach nicht ohne Kontrollen, da wirtschaftliches Interesse und kapitalistische Ausbeutung größer = Richtlinien. Da scheitert der Mensch unter sich bereits gloreich seit Jahrhunderten. Gelernt hat man nichts daraus.

Der Puritaner schrieb:
Der Kopf der Medusa ist ausgepackt und nun müssen wir damit leben.
... und dabei aufpassen, daß es nicht zur Hydra mutiert, durch Gesetze und Richtlinien und Werte.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Der Puritaner
Zurück
Oben