Habe ich das richtig verstanden?
Das eigentliche Problem ist bekannt , und es ist klar, dass eine relativ einfache Änderung eine deutliche Performance-Steigerung bringen würde. Der "Maintainer" hat sogar selber schon die Lösung und das Problem gefunden, aber einfach nicht gepatcht weil es ihm "zu simpel" sei. (???)
Ein AI-Bot hat die vorgeschlagenen Anpassungen analysiert, bestätigt/simuliert und als Patch eingereicht - wunderschön und übersichtlich Dokumentiert. Trotzdem wurde der Beitrag abgelehnt - mit der Begründung, dass es sich um eine so einfache Aufgabe handelt, die besser von Menschen übernommen werden sollte, damit sie lernen, wie man zu GitHub-Projekten beiträgt?
"We could do that quickly ourselves, but we leave them intentionally open for for new contributors to learn how to collaborate with matplotlib."
Das wirkt weniger wie eine sinnvolle technische Entscheidung sondern mehr wie eine ideologische. Wenn eine Verbesserung fachlich korrekt ist und nachweislich Performance bringt, sollte doch die Qualität des Beitrags zählen - nicht, ob er von einem Menschen oder einem Tool vorbereitet wurde.
Open-Source lebt von Effizienz, Zusammenarbeit und dem gemeinsamen Ziel, Software besser zu machen. Offensichtliche Optimierungen aus Prinzip abzulehnen, nur um künstlich Lernaufgaben zu erzeugen, erscheint mehr als nur fragwürdig. Wer lernen will, findet genug komplexe und reale Probleme - dafür muss man keine sinnvollen Verbesserungen blockieren. Am Ende sollte es doch darum gehen, das Projekt voranzubringen ...und nicht darum, eine Grundsatzdebatte auf dem Rücken konkreter Verbesserungen zu führen.
Hätte die AI anschließend genau den gleichen Post verfassen lassen. Einfach nur herablassend und anmaßend - das typischen OpenSource Drama halt.