Von mir stammten die Fragen mit dem Senf, zu Ampere vs. Turing und die letzte mit den Chip(let)s. Jan hat hier nie die Originalversionen genommen bzw. meine ersten Enwürfe, sondern ein wenig vereinfacht. Ich wollte bspw. das "Senf" aus der Podcast-Notiz streichen, Frage 3 lief auf DLSS-Tests auf einer bestimmten Seite des Tests hinaus und bei der Chiplet-Frage war die Radeon VII mit dabei (bzw. in meiner ersten Idee ging es um die stärksten Modelle je Stern). In jedem Fall war auch die Formulierung ein wenig kryptischer. Die Todesjahre oder das RX-Kürzel bspw. hat Jan eingefügt.
Zum Thema KI-Chatbots: Alle meine drei Fragen habe ich damals schon mit GPT-5.1 und dem 20-Euro-Abo und später auch nochmal mit 5.2 getestet, im Thinking-Modus. Maßgabe war es dabei immer, die Frage mitsamt Antwortmöglichkeiten und Link zum CB-Rätsel zu prompten und das jeweils 10 Mal in neuen Chats. Es war bei keiner der drei Fragen so, dass ChatGPT eine der richtigen Antwortmöglichkeiten aus dem Stegreif mit statistischer Signifikanz nennen konnte. Insbesondere bei Frage 2 kam er fast immer auf Pommes (mit den absurdesten Halluzinationen, die er mir und meinem Podcast-Gast da in den Mund gelegt hat). Klar, wenn man hier "mit" der KI arbeitet und fortlaufend / besser promptet, geht es auch besser bzw. wird zielführend. Aber dann gibts immerhin eine gewisse Eigenleistung.
Aber ja, das ist und wird in Zukunft ein Thema sein. Wir werden damit rechnen müssen, dass wir die Fragen bspw. verklausulierter und schwerer stellen müssen, mehr über Bilder oder eben Podcasts arbeiten müssen und evtl. sogar gezielt Chatbots in die Irre führen müssen. Das bedeutet dann leider ggf. auch, dass es je nach Perspektive weniger spaßig werden kann, müsste dann aber sein, damit reine KI-Nutzer den anderen nicht den Spaß ganz verderben können.