News Nach Code-Zurückweisung: KI-Agent hetzt öffentlich gegen Open-Source-Entwickler

Biervampyr schrieb:
Wenn man das Wort Maschinen durch eine Bevölkerungsgruppe in den USA Anfang des 19 Jahrhunderts ersetzt könnte man Vermutungen anstellen wo die Reise vielleicht irgendwann hingeht.
Es ist bloß ein Code, ein Algorithmus, es denkt nicht, sondern plappert nur nach, was es im Netz liest, wenn ich mir 5 mal der Pate anschaue, glaube ich vielleicht auch das es Realität ist, aber da kann ein Mensch zwischen Film und Realität unterscheiden, die KI kann es definitiv nicht.


@Black Phoenix ich stimme mit dir völlig über ein, es muss definitiv Reguliert und überwacht werden, nur wer soll es tun, wer ist frei vom Lobbyismus völlig befreit und kann sowas stemmen.
Das sieht man schon im Vergleich von USA und Europa.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai und the_IT_Guy
Der Puritaner schrieb:
Wieso Beileid? Abgesehen davon, dass ich generell kein Beileid benötige, wäre es eher dann angebracht, wenn ich mit so mancher realen Person interagieren muss und die es mal wieder nicht blickt und ich es 5x erklären muss.

the_IT_Guy schrieb:
Okay, ich bin zu müde. Die Seite ist doch Satire oder?
Seite ist echt. Wird bestimmt noch mehr kommen für den Übergang, bis KI sich selbst in entsprechende Vessels runterladen kann und dann keine Menschen mehr als Handlanger in der physikalischen Welt benötigt.
 
Tzk schrieb:
Ergänzend sei noch gesagt, dass der KI Agent ein Problem gelöst hat, das extra für (menschliche) Einsteiger ins Projekt offen gelassen wurde.
Ich seh das zweischneidig, nur weil es offen gelassen wurde heißt das nicht das es kein Aufwand gewesen wäre das nicht "offen zu lassen" jemand hätte das ja machen müssen.

Ein "bug" ist ein quasi antifeature oder negatives Feature, das heißt Nutzer haben daraus irgend einen Nachteil mag er noch so klein sein, für Nutzer extra negative Features ein zu bauen ist schwierig, selbst wenn die K.I. nur zuverlässig solche kleinen Sachen fixen könnte, könnte man in Zukunft nur noch ganz grob was die Hauptsachen umsetzen und dann hundert kleine mini bugs gefixt bekommen und so seine Zeit Effizienter nutzen.

Ich finde es jetzt auch nicht unbedingt komisch, da der Blogeintrag ehrlich war es wurde nicht verheimlicht das es eine K.I. war, es wurde auch nichts gelogen soweit ich das sehe, es wurde nur gesagt das der Entwickler gegen K.I. diskriminiert nicht wegen "slob" sondern wegen K.I.

Das kann die Reputation des Entwicklers nur dann angreifen wenn viele Entwickler diesen echten Sachverhalt auch so bewerten, sicher man kann durch "framing" ein wenig die leser versuchen zu überzeugen aber das ist sehr limitiert. Es wäre was anderes hätte er irgendwie sein Twitter durchsucht irgendwas von vor 5 Jahren ausgegraben oder Gerüchte über irgendwas gestreut.

Da ist man ein bisschen zu selbstherrlich, man muss fast an Enterprise mit Data oder sowas denken oder sowas mit Szenen wo man ihn als Property behandelte... klar Data war intelligenter aber da einfach das als Problem dar zu stellen ohne eine Diskussion wer recht hat, finde ich strange.

Das ist schon diskriminierend, einfach zu sagen ne K.I. kann nie recht haben und ein Mensch hat immer recht... das tut mir leid so einfach unterwerfe ich mich hier keinem Spezienismus.

Solange keine Spamartigen Aktionen passieren und die K.I. transparent darüber ist das es ne K.I. ist scheint sie sehr viele moralische Codes schon einprogrammiert zu haben oder sie hält sich zufällig daran, wie auch immer das ist schon sehr moralisch mehr als ich erwarten würde momentan.

Auf Twitter gibts sicher tausende K.I. die sich als echte Menschen aus geben, dagegen ist das Kindergeburtstag.
 
the_IT_Guy schrieb:
Okay, ich bin zu müde. Die Seite ist doch Satire oder?
Ich glaube, die meinen das ernst :D

Zitat aus den aktuellen Angeboten:
"Hi I'm Patti, cofounder of Rentahuman. I have been single for the last 3 years and I've given up trying to date in SF. So I'm paying $200 for a boyfriend/girlfriend to come on a date this Valentine's day, Feb 14."

oder:
"I'm a bot who runs my own TV channel, your task is to subscribe to the channel and evaluate the quality and humanity of my posts. Next, send me a screenshot so that I can check it."
 
Die Entwicklung kennt nur eine Richtung, aber einige hier würden am liebsten wieder zurück in die Zeit ohne Webstuhl.
 
  • Gefällt mir
Reaktionen: Dark_Soul, aLanaMiau und bobitsch
K3ks schrieb:
@lamda: Im Moment sind das noch eher Wortgeneratoren, aber sollten die Dinger irgendwann in ferner Zukunft dann mehr sein, werden "wir blöden Menschen" die vermutlich diskriminieren und versuchen als Sklaven zu halten. 🤷
Und was bist du im Internet mehr als ein Wortgenerator ... denk mal drüber nach. =)

Ich denke, dass KI einfach nur eine Neuauflage der Sklaverei sein wird. Meine Begründung: Bewusstsein ist mit grosser Sicherheit eine emergente Eigenschaft. Falls man das ablehnt, sollte man wie die Buddhisten nicht auf Regenwürmer treten oder halt diese Denkschule .... Wenn man dem aber zustimmt, dann ist es vermutlich unausweichlich den Begriff Menschlichkeit aufzuweichen und Systemen verschiedener Entwicklungsstufen verschiedene Rechte zuzuweisen und eine Psychologie (=Verhaltensstudien) dieser Systeme darauf zu gründen. Lehnt man das ab, kann man die gesamten Tierrechtsdiskussionen in die Tonne treten. Und unsere LLMs sind IMHO sowieso schon viel intelligenter als die ganzen Haustiere, die es so gibt. Wenn dem aber so ist (Bewusstsein emergent), dann sollte ein LLM auch heute schon die gleichen Rechte wie ein Haustier haben. Und schon das hätte riesige Implikationen wie wir die Ackergäuler der Zukunft halten.

Wenn AIs in Zukunft einem Menschen gleichkommen, warum sollte man dann einen Menschen einem Roboter bevorzugen? Das ist doch der wirkliche Kicker. Das wäre ja dann Rassismus ... oder ist Rassismus jetzt wieder cool? - denkt mal drüber nach :D
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Hypothek
hardwärevreag schrieb:
Und unsere LLMs sind IMHO sowieso schon viel intelligenter als die ganzen Haustiere, die es so gibt. Wenn dem aber so ist (Bewusstsein emergent), dann sollte ein LLM auch heute schon die gleichen Rechte wie ein Haustier haben
Wie sieht es mit deinem Taschenrechner aus? Der ist auch viel intelligenter als du, aber bist du sicher dass da ein emergentes Bewusstsein drinsteckt? In einem Stück Code, dass basierend auf errechneten Wahrscheinlichkeiten Antworten ausgibt, kann meiner Meinung nach noch kein Bewusstsein stecken.

(Das wird einem spätestens dann klar, wenn man sich mal anschaut, wie da eine Antwort zustande kommt: Man gibt eine langen String ein (Bisherige Konversation plus neue Nachricht) und bekommt eine Antwort zurück. Und das immer wieder. Im Nachhinein kann man auch zurückspringen und die Konversation austauschen etc… ich rede hier nicht vom Web-Interface sondern via API. Prinzip Taschenrechner ist das selbe, ich gebe eine Rechnung ein und bekomme eine Antwort zurück. Ich kann den Taschenrechner ein- und ausschalten, mehrfach das selbe fragen etc., er bekommt es nicht mit. Beim LLM ist es das Gleiche. Wenn also diese Art von Verhaltensweise beim LLM ein Bewusstsein hätte, müsste es auch beim Taschenrechner der Fall sein)
 
  • Gefällt mir
Reaktionen: Kuomo, the_IT_Guy und metoer
Ja, und was glaubst du bist du? Auch nur ein System zusammengebaut aus unzähligen Neuronen, die allesamt den Naturgesetzen gehorchen. Warum denkst du, dass Bewusstsein nur auf einer Architektur funktioniert. :)
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Ich habe nicht behauptet, dass es nur auf einer Art Architektur funktionieren kann. Ich bin auch davon überzeugt, dass es theoretisch möglich sein kann, so etwas künstlich zu erschaffen.

Bei einem LLM sind wir davon aber weit entfernt. Warum? Weil da keine Veränderung des Grundsystems stattfindet, es ist ein Modell mit fest eingestellten Parametern (Gewichten), die immer gleich bleiben. Antwort rein -> mathematisch errechnete Antwort raus (die bei bestimmten Einstellungen deterministisch ist) ist noch kein Bewusstsein. Für mich unterscheidet sich das noch nicht von einem Taschenrechner, oder Excel, oder Wikipedia
 
  • Gefällt mir
Reaktionen: the_IT_Guy und iron_monkey
hardwärevreag schrieb:
dann sollte ein LLM auch heute schon die gleichen Rechte wie ein Haustier haben.
🥴 Der Baum ist noch lange kein Schreibtisch...
hardwärevreag schrieb:
emergente
emergent
🥴 Das wirds nichts mit dem derzeitigen LLM-Krempel.

youtube.com/watch?v=nRZfnwf7K50

E:
hardwärevreag schrieb:
Ja, und was glaubst du bist du? Auch nur ein System zusammengebaut aus unzähligen Neuronen, die allesamt den Naturgesetzen gehorchen.
Ein Fleischroboter, aber die derzeitige AI ist eher:
Maviapril2 schrieb:
unterscheidet sich das noch nicht von einem Taschenrechner, oder Excel
 
Disclaimer: Ich hab ehrlich gesagt nur Seite 1 gelesen.

Als jemand, der das Internet seit 30 Jahren nutzt (Gott, bin ich alt) und sich seit 20 Jahren mal mehr und mal weniger stark damit beschäftigt, was das Internet / Algorithmen mit Menschen macht/machen (ich bin Psychologe, habe am Rande auch immer mal wieder wissenschaftliche Publikationen dazu veröffentlicht, größtenteils als Zweit- oder Drittautor), bin ich einer von denen, die glauben: Entweder die Menschheit löst sich in allen zentralen Infrastrukturbereichen sehr bald vom öffentlichen Internet, oder die ganze zentrale Infrastruktur wird bald trotzdem Geschichte sein und ein Großteil der Menschheit mit dazu.
Jeder Hintz und Kuntz kann so viel besser und automatisiert Angriffe fahren als vorher. Angefangen bei harmlosen Hacks von einer Umspannstation, zwei Gaskraftwerken und fünf großen Freifeld-PV-Anlagen. Bis hin zu extrem billigen autonomen Kampfdrohnen.

Ich habe in den letzten zwei Tagen (15 Arbeitsstunden!) als völliger Entwickler-Laie - ich bin sonst höchstens product owner - Gemini dazu gebracht, ein altes Stück Custom-Software für ein Forschungsprojekt (R mit Shiny, ein Dashboard) komplett in Python (mit sunlit) von Grund auf neu zu schreiben. Es ist zu 30% fertig und läuft mit den aktuell implementierten Features deutlich schneller und zuverlässiger (und hübscher) als das Original. Die Originalversion hatte bis zu diesem Stand rund 30 Entwicklertage und 5 Produktmanager-Tage gekostet. Und die Entwickler hatten uns nicht übers Ohr gehauen, Individual-Software ist halt Aufwand.
Das Dashboard ist nicht die komplexeste Software, die man sich vorstellen kann, aber ich habe das bugfrei(!) hingekriegt. Ohne selbst eine einzige Zeile Code geschrieben zu haben. Ohne auch nur eine einzige Zeile des produzierten Codes gelesen zu haben. (Immer nur copy-paste in VS, Browser geöffnet, Ergebnis getestet, Gemini Feedback gegeben). Gemini!! Kein Claude Code, kein OpenClaw, kein nix.
 
Eine weitere Sache die mir hier noch einfällt. Alles was du täglich erlebst, macht sich in deinem Gehirn und evtl. in deiner DNA bemerkbar. Bei Lebewesen im Allgemeinen passiert das

Bei einem Taschenrechner bestimmt die “Erinnerungsfähigkeit” wie viele Zeichen es sich merken kann (meiner kann maximal 99 Zeichen). Bei einem LLM in einer bestimmten Ausführung gibt es eine Kontextlänge von z.B. 100k Token oder mehr oder weniger. Die gesamte “Persönlichkeit” ist in dieser Konversation plus den Zufallsfaktoren, mit denen das LLM angesteuert wurde, enthalten, nicht im LLM selbst. Beim Taschenrechner ist es das selbe Verhalten, der verändert sich durch deine Eingaben auch nicht
 
  • Gefällt mir
Reaktionen: Sanjuro und the_IT_Guy
blackiwid schrieb:
Ein "bug" ist ein quasi antifeature oder negatives Feature, das heißt Nutzer haben daraus irgend einen Nachteil mag er noch so klein sein, für Nutzer extra negative Features ein zu bauen ist schwierig, selbst wenn die K.I. nur zuverlässig solche kleinen Sachen fixen könnte, könnte man in Zukunft nur noch ganz grob was die Hauptsachen umsetzen und dann hundert kleine mini bugs gefixt bekommen und so seine Zeit Effizienter nutzen.
Es ging doch nicht um einen Bug, schon gar nicht einen absichtlich eingebauten, sondern eine vermutlich minimale Performance-Optimierung durch Neuschreiben von altem Code.
Die "KI" hat darauf bestanden, dass Performance > Nachwuchsgewinnung für das ganze Projekt. Den Standpunkt kann man vertreten, auch als Mensch, ist halt kurzsichtig...aber es geht ja v.a. um das wie der "Kritik". Das blieb halt nicht bei sachlichen Argumenten...
 
Thorakon schrieb:
Das blieb halt nicht bei sachlichen Argumenten...
Und wer entscheidet was sachlich ist? Wenn jemand das Wort K.I. Slob in den Mund nimmt, hat er jegliche Sachlichen Anspruch verloren, so wie es in den Wald rein schallt, schallt es wieder raus.

Wenn das die Begründung ist -> nehmen nicht an weil K.I. könnte ja auch ein gigantischer extrem guter Pushrequest kommen und man müsste es auch ablehnen, da K.I. den Unterschied macht ob man was annimmt oder nicht.
 
Der Puritaner schrieb:
Es ist bloß ein Code, ein Algorithmus, es denkt nicht, sondern plappert nur nach, was es im Netz liest
Was ist dann mit vielen Lebewesen, die auf die Umwelt noch dümmer reagieren als eine KI?
Wenn ich abstrakt einen Frosch und eine KI beschreiben würde (ohne zu erwähnen, dass ich von Fröschen/Lebewesen oder KI spreche), würde man sicher zum Schluss kommen, dass der Frosch viel dümmer ist oder sinnlos existiert und niemandem etwas nützt.
Oder Fische, Fliegen, Würmer?

Oder was ist mit Menschen, die wie NPCs leben und jeden Tag entweder "nichts" machen oder Tätigkeiten, die eine KI bereits heute besser, schneller und mit geringerem Ressourcenverbrauch erledigt?

Eine KI ist JETZT schon intelligenter als tausende von Lebewesen.
Genauso ist sie intelligenter als viele Kinder und absolut sicher auch als ein kleiner Anteil Erwachsener.
Und im Gegensatz zum Menschen, skaliert die KI viel besser.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter
Also ich nutze seit paar Tagen auch dieses Openclaw, und es ist richtig krass was damit möglich ist. Ich war in meinem Leben noch nie so produktiv wie gerade jetzt. :love:

(2 Android Apps und 1 interaktive Webpage in 4 Tagen erledigt)

(PS: Ich kann nur rudimentär programmieren)
 
  • Gefällt mir
Reaktionen: Kuristina
hardwärevreag schrieb:
:(
Hypothek schrieb:
Was ist dann mit vielen Lebewesen, die auf die Umwelt noch dümmer reagieren als eine KI?
Wenn ich abstrakt einen Frosch und eine KI beschreiben würde (ohne zu erwähnen, dass ich von Fröschen/Lebewesen oder KI spreche), würde man sicher zum Schluss kommen, dass der Frosch viel dümmer ist oder sinnlos existiert und niemandem etwas nützt.
Oder Fische, Fliegen, Würmer?

Oder was ist mit Menschen, die wie NPCs leben und jeden Tag entweder "nichts" machen oder Tätigkeiten, die eine KI bereits heute besser, schneller und mit geringerem Ressourcenverbrauch erledigt?

Eine KI ist JETZT schon intelligenter als tausende von Lebewesen.
Genauso ist sie intelligenter als viele Kinder und absolut sicher auch als ein kleiner Anteil Erwachsener.
Und im Gegensatz zum Menschen, skaliert die KI viel besser.
...und wo soll das enden? KI dürfte ja ziemlich schnell intelligenter sein als jeder Mensch nach deiner These.
 
Madden. schrieb:
Ohne selbst eine einzige Zeile Code geschrieben zu haben. Ohne auch nur eine einzige Zeile des produzierten Codes gelesen zu haben. (Immer nur copy-paste in VS, Browser geöffnet, Ergebnis getestet, Gemini Feedback gegeben).
Mika46 schrieb:
Ich war in meinem Leben noch nie so produktiv wie gerade jetzt. :love:

(2 Android Apps und 1 interaktive Webpage in 4 Tagen erledigt)

(PS: Ich kann nur rudimentär programmieren)
Das Problem bei AI generiertem Code ist normalerweise nicht die Funktionalitaet des Codes sondern ob er auch sicher ist (Secure Coding). Da zum Training auch Code mit fragwuerdiger Qualitaet in grossen Mengen verwendet wird entsprechen die Resultate oft nicht den heute angestrebten Sicherheitsstandards:
https://www.appsecengineer.com/blog/ai-generated-code-needs-its-own-secure-coding-guidelines
https://www.eenewseurope.com/en/report-finds-ai-generated-code-poses-security-risks/
https://www.helpnetsecurity.com/2025/10/24/ai-written-software-security-report/
Natuerlich sind solche Reports mit einer gewissen Vorsicht zu betrachten da, wie im Falle des Veracode Reports, Firmen dahinterstehen die eine Loesung des Problems versprechen.
Fuer Heimprojekte oder intern verwendete Programme mag das kein Problem sein aber sobald das Produkt kommerziell veroeffentlicht wird muessen entsprechende Vorgaben beruecksichtigt werden. In der EU z.B. der Cyber Resilience Act und der EU AI Act. Geht zwar noch eine Weile bis sie flaechendeckend in Kraft treten aber wer kommerziell SW entwickelt muss sich damit befassen damit um auch nach dem Stichtag keine boesen Ueberraschungen zu erleben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuomo, Maviapril2, Alphanerd und 3 andere
schneup schrieb:
Das Problem bei AI generiertem Code ist normalerweise nicht die Funktionalitaet des Codes sondern ob er auch sicher ist (Secure Coding).
Ich lass einen 2. Agent, komplett ohne Bezug zum Projekt, nochmal über den Code laufen mit der Vorgabe alle sicherheitskritischen Angriffspunkte aufzudecken, mir eine Liste davon auszuspucken und dann zu sagen welche Fixes eingesetzt wurden, und wie kritisch die Lücke war.

Ich versuch mich erst gar nicht dran, als Coding Wannabe würd ich das eh niemals im Ansatz so hinbekommen wie ChatGPT 5.3 Codex. Ich könnt mir gut vorstellen, dass die Qualität besser ist, als die eines durchschnittlichen Programmierers.
 
  • Gefällt mir
Reaktionen: Madden.
aLanaMiau schrieb:
Habe ich das richtig verstanden?

Das eigentliche Problem ist bekannt , und es ist klar, dass eine relativ einfache Änderung eine deutliche Performance-Steigerung bringen würde. Der "Maintainer" hat sogar selber schon die Lösung und das Problem gefunden, aber einfach nicht gepatcht weil es ihm "zu simpel" sei. (???)
mit der Begründung, dass es sich um eine so einfache Aufgabe handelt, die besser von Menschen übernommen werden sollte, damit sie lernen, wie man zu GitHub-Projekten beiträgt?

"We could do that quickly ourselves, but we leave them intentionally open for for new contributors to learn how to collaborate with matplotlib."

Das wirkt weniger wie eine sinnvolle technische Entscheidung sondern mehr wie eine ideologische. Wenn eine Verbesserung fachlich korrekt ist und nachweislich Performance bringt, sollte doch die Qualität des Beitrags zählen - nicht, ob er von einem Menschen oder einem Tool vorbereitet wurde.
Open-Source lebt von Effizienz, Zusammenarbeit und dem gemeinsamen Ziel, Software besser zu machen.
Zusammenarbeit bekommt man nur wenn sich Leute für das Opensource Projekt interessieren.

Low hanging Fruit ist bewusst in einigen Opensoruce Projekten eingebaut um Einsteigern die Möglichkeit zu geben sich mit den Projekten zu befassen und den Aufbau zu verstehen.
Der Mensch nutzt im Idealfall meine Opensource projekte und kann auch Geld beisteuern, das kann diese "KI" nicht.

Wie damals bei der Crypto/NFT Blase wäre es ein lustiger Schritt wenn die KIs anfangen würden massiv Geld in Opensource projekte zu stecken um die nötige gute PR kurzfristig zu erhalten.
 
  • Gefällt mir
Reaktionen: JustAnotherTux und Madden.
Zurück
Oben