GPT-5 Kater
Ich habe mir gestern den ersten Teil der GPT-5 Präsentation angesehen, erst nachdem die unglaublichen Kommentare auf HN eingelaufen sind. Dazu gleich mehr, aber der Eindruck, den diese Präsentation auf mich gemacht hat, war genauso fatal wie die ganze AI Blase, die ich gerade spüre. Sam Altman mit seiner Einführung ist einfach nur unsympathisch und wirkt wie ein unehrlicher Besserwisser aus vergangenen Tagen. Die Mannschaft, die er dann nach und nach hat einlaufen lassen - oh mein Gott. Alles sehr junge Streber ohne Charme, ohne Ecken und Kanten - das mögen zwar AI Experten sein, aber Lebenserfahrung und irgendeine Wellenlänge, für die man empfänglich ist - Fehlanzeige. Das ganze Interior und Setting wirkte wie aus dem Katalog bzw. auch schon AI generiert. Ich habe mich in einer schrecklich sterilen Kunstwelt mit künstlichen Menschen und einem künstlichen Thema gefühlt - aber das passte ja zu den Inhalten.
Und da steht ganz am Anfang die falsche Grafik bei der Vorstellung zu den Programmierbenchmarks. Die HN Kommentare haben es gut erfasst - das ist einfach nicht zu entschuldigen bei dieser Art Vorstellung und Firmenbewertung. Und das ist auch nicht ein Fehler, der erkannt, diskutiert und dann wieder zur Seite gelegt werden kann. Es sagt soviel über die Qualität, Kultur und Hybris der Verantwortlichen aus, dass es mich echt wundert, warum diverse Presseberichte am Tag 2 sich nicht dazu äußern und nur die Eigenschaften, Erwartungen und Einschätzungen von dem Produkt an sich wiedergeben.
Der 2. Punkt, die Demonstration des "PhD" Experten am Beispiel der Bernoulli Gleichung und des Flügelprofils. Ich musste sogar meinen Studi Ordner des Kurses ME163 "Engineering Aerodynamics" aus dem Keller holen. Den Kurs hatte ich 2003 an der Uni Berkeley belegt. Die Theorie ist komplex und ich erinnerte mich an die Auftriebsberechnung mit verschiedenen Methoden (Vortex Sheet, Source Panel, Analytisch, Numerisch, ...) und Modellen (vereinfacht dünn, mit Querschnitt, ...). Und ich war "nur" ein Master und kein PhD Student. Der Konsens ist jedenfalls, die von GPT-5 in der Demo angegebene Methode ist nicht richtig und greift viel zu kurz. Was soll das? Es war eine Launch-Präsentation mit Versprechungen an die ganze Welt, kein Undercover-Test unter vielen im Keller.
Ich frage mich immer mehr, was wird noch alles getrieben, um diese AI Blase weiter aufzublasen. Die Technologie ist da, sie war am Anfang beeindruckend, aber öffnet nicht den Weg zu immer weiteren Höhen wie AGI. Heute nachmittags habe ich an eine Analogie gedacht: dem Fliegen. Die Erfindung und Entwicklung des Flugzeuges war bahnbrechend und über die Zeit wurde Fliegen immer sicherer, billiger, effizienter, schneller, komfortabler und so weiter und so fort. Aber Fliegen im Jahr 2025 ist grundlegend noch das gleiche wie Anfang des 20. Jahrhunderts. Wir setzen uns in eine Maschine mit Tragflächen, heben ab, bewegen uns in großer Höhe durch die Luft und landen schließlich wieder auf der Erden.
Der Unterschied vom Fliegen zu LLMs ist, dass Fliegen auf einer ehrlichen, verstandenen Ingenieurwissenschaft beruht. LLMs können immer noch nicht reproduzierbar, transparent und 100% korrekt funktionieren. Das liegt nicht nur an dem Geschäftsgebahren der beteiligten Firmen, sondern ist inherent in der angewandten Mathematik der Algorithmen begründet. Aber diese Eigenschaft - ein Pfeiler der Zivilisierung (Korrektheit, Verlässlichkeit, Vertrauen in diese beiden Eigenschaften) wird bei LLM einfach mal als nicht ganz erfüllbare "Nebenbedingung" weggewischt. "Halluzinieren ist zwar nicht schön, aber wird ja immer weniger." Ich bin immer noch der Meinung derjenigen, die sagen, hier wächst eine Blase, aber ein nachhaltiges Geschäft kann doch daraus nicht wachsen. Oder warum sollten auf einmal Schlösser auf Sand gebaut werden, da waren doch unsere Vorfahren schon weiter, oder?
Ich erwarte, dass LLMs auch immer noch besser werden, aber im Prinzip sich einem Plateau nähern. Der Grenznutzen nimmt ab. Manchmal gibt es noch Ausreißer und Überraschungen (Überschallflugzeuge, Nurflügler,…), aber die Technologie kommt irgendwann in Balance und die Menschheit weiß, was sie damit und davon hat.
Ich hoffe, es gibt noch genug, die kritisch denken können, die sich nicht einnebeln lassen von macht- und geldgiergesteuerten Big Tech CEOs und die wissen, was urmenschliche Eigenschaften wie Denken, kreatives Ausdrücken und Erschaffen bedeutet. Entweder diese Aktivitäten sind anstrengend und müssen gelernt, regelmäßig geübt und entwickelt werden, oder sie sind ein Quell von Freude, Leichtigkeit und menschlicher Befriedigung. Beide Pole gehören zum Menschen, werden von jedem Kind neu erfahren und zur Anwendung gebracht und sind untrennbar mit unserem Dasein und Großwerden als Mensch verbunden - für das Individuum aber auch für die Geschichte des Homo Sapiens im großen Ganzen. Ich würde mich freuen, wenn die vielen, vielen Milliarden an Investionen mehr in Bereiche gelenkt werden, die uns Menschen mehr bei den "unmenschlicheren" Aktivitäten unterstützen würden. Das ist für mich zum Beispiel Unterstützung bei schwerer oder riskanter körperliche Arbeit. Andersrum, zeigt mir Robotor, die in kritischen Domänen nur die Hälfte von dem können, was ihr von Euren LLMs versprecht! Dann reden wir über echten, nachhaltigen Nutzen für die Menschheit.
Besser ist es, die Blase platzt früher als später. Überall da, wo es um echte menschliche Entwicklung geht, Bildung, Gesundheit, Soziales fühlt es sich nicht richtig an, zu viel auf LLMs zu setzen. Und beim Rest glaube ich, wird die Qualität so leiden, dass langfristig auch wieder das menschliche Wohlbefinden negativ betroffen ist oder, dass wir in Summe zwangläufig geistig degenerieren, ja, dümmer, werden. Das passiert ja jetzt schon durch die Schwemme an AI generierten Inhalten im Internet, in Firmen, in Gemeinschaften jeder Art.