Der letzte Prompt

Unsere Gesellschaft an der Schwelle zur Hyperintelligenz

Martin Welker




Der letzte Prompt

Unsere Gesellschaft an der Schwelle zur Hyperintelligenz

 

von

Martin Welker

 

Vorwort

“Wir haben eine Wundermaschine geschaffen, und das in einem Tempo, das selbst die optimistischsten Prognosen übertroffen hat.”

Wir blicken ungläubig und fasziniert auf das, was dort entstanden ist. Gefesselt von den Ergebnissen dieser Wundermaschine. Und unfähig, zu erkennen, wie diese Reise weitergeht.

Dieses Buch widmet sich der Frage, ob wir überhaupt in der Lage sind, eine sinnvolle Vorhersage darüber zu treffen, wohin uns der scheinbar unaufhaltsame KI-Schnellzug als Gesellschaft bringen wird.

Seit ihrem Erscheinen ist die neueste Generation künstlicher Intelligenz zu einem Massenphänomen unserer Zeit geworden. Die Euphorie, welche die aktuelle KI Entwicklung begleitet hat, ist absolut gerechtfertigt. Die vielen Durchbrüche, die auf diesem Gebiet praktisch über Nacht erzielt wurden, wirken beinahe wie eine Explosion von technologischen Wundern: Systeme, die menschenähnlich sprechen, komplexe Probleme lösen und kreative Arbeiten erstellen können.

In meinen Augen handelt es sich hierbei um die größte technische Leistung seit der Erfindung des Computers - wenn nicht sogar darüber hinaus. Ich frage mich oft, wie es uns gelingt, uns daran zu gewöhnen, dass wir plötzlich nahezu kostenlos Zugang zu einer solch revolutionären Technologie haben. Es erscheint paradox: Während wir täglich Zeugen von Fähigkeiten werden, die noch vor wenigen Jahren reine Science-Fiction waren, normalisiert sich das Außergewöhnliche bereits in unserem Alltag. Wahrscheinlich verhindert allein unsere menschliche Eigenschaft, uns an extreme Veränderungen schnell anzupassen, dass wir Tag für Tag erneut von der Tragweite dieses Fortschritts überwältigt sind.

Was heute selbstverständlich erscheint, galt vor Kurzem noch als völlig undenkbar - selbst für führende Experten auf diesem Gebiet. Die Geschwindigkeit dieser Entwicklung hat fast alle Beteiligten überrascht und verdeutlicht, wie schwer technologische Durchbrüche vorherzusagen sind, sobald sie eine kritische Masse erreicht haben.

“Selbst die Erfinder von LLMs konnten nicht vorhersagen, wie gut sie funktionieren. Dasselbe gilt auch für die zukünftige Entwicklung.”

Nach einer anfänglichen Phase von Ungläubigkeit, Begeisterung und berechtigter Skepsis ist künstliche Intelligenz mittlerweile fester Bestandteil unseres beruflichen und privaten Lebens geworden. Studierende nutzen sie für ihre Hausarbeiten, Programmierer für ihren Code, Kreative für ihre Projekte, wir nutzen “Prompts”, Nachrichten an die KI, als primäres Mittel als zentrales Mittel für unsere Arbeit.

Haben wir diese Entwicklung überhaupt noch unter Kontrolle, oder sind wir längst zu Getriebenen einer Dynamik geworden, die ihren eigenen Gesetzen folgt? Und wer ist überhaupt mit „wir“ gemeint? Sind wir als menschliche Wertegemeinschaft noch diejenigen, die über den Kurs dieser Entwicklung bestimmen? Oder liegt unsere gemeinsame Zukunft bereits in den Händen weniger Eliten - Konzernen, Forschern und Investoren - die über das Wissen und die Ressourcen verfügen, um diese Technologie maßgeblich zu gestalten?

Diese Fragen drängen sich auf, während wir Zeugen einer der bedeutendsten Transformationen der Menschheitsgeschichte werden.

Sollte es tatsächlich zu einer technologischen Singularität kommen, dem Punkt an dem die Maschine sich ohne weiteres menschliches Zutun selbst weiterentwickelt, und könnten wir auch nach dieser Singularität in Koexistenz mit dieser Superintelligenz leben, würden wir unser Wissen, unser Denken und uns selbst völlig anders wahrnehmen.

Eine superintelligente KI könnte nicht nur vollständig verstehen, wie das menschliche Bewusstsein, unsere Emotionen und unser Denken funktionieren - sie könnte uns dieses Wissen vermutlich auch so vermitteln, dass selbst wir, im Vergleich zur KI intellektuelle Kleinkinder, es mühelos begreifen könnten. Wie ein geduldiger Lehrer, der einem Kind komplexe Zusammenhänge erklärt, könnte sie uns die Mechanik unseres eigenen Geistes offenbaren. Wir würden uns mit Hilfe der KI endlich selbst verstehen.

“Unsere tiefsten Gefühle - nicht mehr als Tokens?”

Doch dies hätte auch eine Schattenseite: Es könnte das Ende der Magie in unserem Leben bedeuten. Der Zauber menschlicher Intelligenz, der Kreativität und Schaffenskraft - vielleicht sogar der Künste und des Schreibens - könnte für immer verloren gehen. Unser Weltbild würde ein weiteres, möglicherweise letztes Mal ins Wanken geraten. Denn heute bildet nicht mehr die Sonne oder die Erde, sondern der menschliche Geist das Zentrum unseres Selbstverständnisses.

Künftige Generationen könnten unsere Epoche als „Vor-Singularität“ bezeichnen und uns Menschen als „vor-singulär“. Als Menschen, die ihr eigenes Denken noch nicht vollständig verstanden haben. Als Menschen, die sich als intelligenteste Wesen auf diesem Planeten betrachteten und dennoch nicht einmal ansatzweise erahnen konnten, was danach kommen würde.

Bis zu diesem Zeitpunkt mag es noch ein weiter Weg sein - doch die konkreten Auswirkungen dieses Wandels sind bereits heute spürbar. Können wir uns darauf vorbereiten?

Ich denke, wir können zumindest das tun, was wir Menschen immer getan haben: Versuchen, möglichst viel über die Situation zu verstehen. Ob wir daraus konkrete Handlungen ableiten können, bleibt ungewiss. Aber es lohnt sich, es zu versuchen.

1. Wozu überhaupt KI?

Dieses Buch handelt zwar von künstlicher Intelligenz und ihren Auswirkungen, aber seien wir ehrlich: Um Intelligenz an sich geht es uns eigentlich gar nicht. Es geht um etwas ganz anderes.

Seit Menschengedenken bauen wir Werkzeuge, entwickeln Hilfsmittel und erfinden ständig Neues. Doch im Kern dreht sich all dies immer wieder um dasselbe: Arbeit. Wir wollen überleben, Sicherheit, Glück und Zufriedenheit erreichen. Der beste Weg, diese grundlegenden Ziele umzusetzen, war stets die Arbeit.

Was ist Arbeit überhaupt?

Wenn wir verstehen wollen, wie unsere Zukunft aussieht, sollten wir zunächst fragen: Warum tun wir, was wir tun? Wenn wir begreifen möchten, wie sich unsere Werkzeuge - und damit auch wir selbst - entwickeln, müssen wir eine fundamentale Frage beantworten: Was ist Arbeit überhaupt?

Grob gesagt wollen wir etwas von Zustand A in Zustand B bringen. Arbeit ist zunächst also Transformation. Aber nicht jede Transformation ist Arbeit. Wenn ein Blatt vom Baum fällt und auf dem Boden landet, transformiert sich etwas - dennoch würden wir dies kaum als Arbeit bezeichnen.

Arbeit beginnt erst dann, wenn wir absichtlich transformieren: zielgerichtet und bewusst. Wir haben dabei eine Intention. Die Intention ist der Kern aller Arbeit, ihr tieferer Zweck, ihr Antrieb.

Die Vielfalt menschlicher Intentionen

Was ist diese Intention genau? Es kann vieles sein: Frieden, Glück, Sicherheit oder die Befriedigung grundlegender Bedürfnisse. Vielleicht ist unsere tiefste Intention nichts anderes, als einen Zustand innerer oder äußerer Harmonie herzustellen.

Obwohl diese grundlegende Intention bei uns allen ähnlich sein mag, ist ihre konkrete Ausgestaltung vielfältig und individuell.

Berufe, Geschäftsmodelle und Strategien sind Instanziierungen unserer tieferliegenden Intentionen - konkrete Umsetzungen abstrakter Wünsche.

Der Bäcker transformiert Mehl und Wasser nicht bloß zu Brot, sondern erzeugt Nahrung, Zufriedenheit und Gemeinschaft. Der Architekt transformiert Beton und Stahl nicht nur zu Gebäuden, sondern schafft Raum für Leben, Schutz und Begegnung. Der Komiker transformiert Worte, um uns zum Lachen zu bringen und verändert dabei unseren Hormonspiegel - er erzeugt Glück für den Moment. Auch das ist eine zielgerichtete Transformation.

Von der Intention zur Umsetzung

Die Strategien hinter unserer Arbeit sind zahlreich, manchmal sogar gegensätzlich. Manche wirken langfristig, andere sind kurzfristig ausgerichtet. Manche Strategien müssen wir aufgeben, weil sie nicht mehr funktionieren oder weil sich unsere Ziele ändern.

Doch immer geht es darum, das, was wir uns vorstellen - was wir im Geist bereits konstruiert haben - Realität werden zu lassen. Wir tragen unsere Gedanken und Ideen in die Wahrheit der Welt hinein.

Arbeit ist dabei nicht nur körperlich, auch wenn das ihre ursprüngliche Form gewesen sein mag. Natürlich muss ein Stein von A nach B bewegt werden, natürlich muss Holz zu Möbeln verarbeitet werden. Aber genauso wichtig ist die geistige Arbeit: Der Schriftsteller bewegt Gedanken von seinem Kopf in den Kopf seiner Leser. Und er transformiert deine aktuelles Verständnis in dein zukünftiges Verständnis. Der Berater macht aus unklaren Problemen klare Lösungen (jedenfalls meistens).

Die Evolution unserer Werkzeuge

Am Ende ist Arbeit immer Transformation durch bewusste Intention. Wie wir diese Arbeit verrichten, ist keineswegs festgelegt. Bei gleichem Start- und Zielpunkt können wir unendlich viele Umsetzungsstrategien finden - getreu dem Motto: Viele Wege führen nach Rom. Erst die konkrete Umsetzung lässt die Transformation real werden.

“Durch Werkzeuge vervielfältigen wir unser Transformations-Wissen.”

Schon immer haben wir mit Werkzeugen versucht, diese Transformation einfacher zu machen. Werkzeuge nehmen einen Teil der Transformationsarbeit aus unserem Handeln und „faktorisieren" ihn aus. Je komplizierter und mächtiger die Werkzeuge sind, desto weniger Transformationsarbeit bleibt am Ende als individuelle Arbeit nötig.

Mit einer Axt konnte plötzlich jeder einen Baum fällen. Mit der Motorsäge war dies sogar praktisch ohne Kraftanstrengung möglich. Die Transformation blieb gleich, die Art der Umsetzung änderte sich grundlegend.

Durch Werkzeuge können wir Arbeitsteilung so organisieren, dass sich Menschen fernab vom eigentlichen Einsatzort Gedanken zur Lösung machen können. Sie übertragen all ihre Expertise als „Faktor", ohne dass diese Expertise vor Ort vorhanden sein muss. Fortan reichte Anwendungswissen aus.

Unsere gesamte Technologieentwicklung lässt sich vielleicht so beschreiben: Wir suchen eine Abkürzung von unserer Intention zu einer Umsetzung. Im Idealfall reicht die Intention - die Umsetzung erfolgt automatisch.

KI als die neue Motorsäge

In der digitalen Welt wurde der körperliche Teil der Arbeit vollständig aufgelöst. Sie besteht nahezu ausschließlich aus gedanklicher Transformation (Excel lässt grüßen). Unsere Intention muss nur noch in eine gedankliche Umsetzung gegossen werden, nicht mehr in eine körperliche.

Und genau das versuchen wir mit KI. Jeder Text, jede E-Mail ist die Umsetzung einer Intention. Das mag über-akademisch klingen, ist aber der Schlüssel zum tieferen Verständnis unserer Arbeit: Nicht mehr das „Wie" steht im Vordergrund, sondern das „Warum".

Was will ich mit der E-Mail bewirken? Welches Ziel verfolge ich mit diesem Text? Die KI ist die Motorsäge der intellektuellen Arbeit.

Sie übernimmt das „Wie" und lässt uns auf das „Warum" konzentrieren - auf unsere eigentlichen Intentionen und Ziele. Damit verändert sie nicht nur unsere Arbeitsweise, sondern auch unser Verständnis davon, was menschliche Arbeit in Zukunft ausmachen wird.


2. Die Grenzen der heutigen KI

Wie schwierig es ist, KI fundamental weiterzuentwickeln, zeigt sich bereits daran, dass wir bis heute kaum präzise benennen können, was die heutige KI eigentlich wirklich leistet und wo ihre tatsächlichen Grenzen liegen.

Selbst unter Experten herrscht inzwischen ein kontroverser Meinungsstreit darüber, ob wir mit Transformer-Modellen und großen Sprachmodellen (LLMs) möglicherweise bereits die letzte fundamentale Architektur gefunden haben - und wir nun nur noch stärker „an den ökonomische Ressourcen-Reglern drehen" müssen, um das volle Potenzial auszuschöpfen.

Demut vor dem Erreichten

Ich persönlich bin überzeugt davon, dass dies bei weitem nicht ausreichen wird. Gleichzeitig empfinde ich es jedoch als angebracht, mit absoluter Demut auf das zu schauen, was wir bereits mit einem vergleichsweise simplen Ansatz erreicht haben.

Vielleicht schürfen wir bereits genug Erkenntnisgold mit unseren aktuellen Modellen - trotz der enormen Mengen an Geröll und Steinen, die wir noch mitverarbeiten müssen. Je mehr Material wir verarbeiten, desto mehr Erkenntnisse werden wir erhalten, das ist sicher.

Und dennoch vermute ich, dass in zukünftigen Modellen ein Effizienzfaktor liegt, der vielleicht um den Faktor 1000 oder sogar höher sein könnte. Ob diese Effizienzsteigerung allerdings auch wirklich qualitativ neuartige Erkenntnisstrukturen hervorbringen wird, ist eine vollkommen andere Frage. Möglicherweise würde ein hundertfach stärkeres LLM bereits ausreichen, um tatsächlich alle relevanten Erkenntnisstrukturen abzubilden.

Was KI heute kann und was nicht

Was leistet die heutige KI nun aber tatsächlich, und was leistet sie nicht? Nehmen wir ein einfaches Beispiel: Wenn wir eine heutige KI fragen: „Was ist das beste Restaurant in San Francisco?", dann würde sie ihre Antwort auf der Basis des bestehenden Wissens interpolieren. Sie würde auf Grundlage ihres gigantischen Wissensfundus eine Antwort generieren, die im Wesentlichen das wiedergibt, was bereits in ihrem Textkorpus gespeichert ist.

Was heutige KI allerdings nicht tut - und genau hier liegt ihre Grenze - ist die Fähigkeit, eigenständig zu hinterfragen, ob diese gespeicherten Informationen überhaupt wahr sind. Sie würde nicht aus eigenem Antrieb die Aussagen auf ihren Wahrheitsgehalt überprüfen, etwa indem sie Einkaufslisten der Restaurants analysiert oder Qualitätsstandards objektiv bewertet.

Selbst wenn wir der KI exakt erklären würden, wie man solche Qualitätskriterien misst - und hier gibt es natürlich unendlich viele Möglichkeiten - wäre sie nicht eigenständig dazu fähig, diese Prüfungen tatsächlich vorzunehmen.

LLMs als exzellente “Interpolierer”

Die beste Beschreibung für die Grenzen heutiger KI ist daher, sie als exzellente Interpolierer zu bezeichnen. Die heutige KI ist hervorragend darin, vorhandenes Wissen auf neue Situationen anzuwenden, Zusammenhänge zu erkennen und sinnvolle Schlüsse zu ziehen.

Doch was sie nicht schafft, ist echte Extrapolation, echte kreative Innovation oder das Entwickeln von Lösungen außerhalb des bestehenden Wissens.

Wenn wir der heutigen KI sagen würden: „Bau uns bitte einen Teleporter, erfinde alles, was dazu nötig ist, und liefere uns die Baupläne", dann wäre sie vollkommen überfordert. Genauso wenig könnte sie uns heute die lange gesuchte vereinheitlichte Theorie präsentieren, die Relativität und Quantenphysik vereint.

Alles, was sie leisten kann, ist, vorhandenes Wissen zwischen diesen beiden Theorien auf intelligente Weise zusammenzuführen und verständlich aufzubereiten. Sie erkennt dabei aber nicht die entscheidenden Widersprüche. Noch wichtiger: Sie verspürt keine innere Unruhe, keinen Drang, keine Dissonanz, um aus diesen Spannungen heraus selbst neue Wege zu gehen.

Die Unschärfe der Grenzen

Natürlich muss ich zugeben, dass diese Beschreibung etwas schwammig und unscharf bleibt. Genau dies bestätigt letztlich, wie schwierig es heute ist, die Grenzen der aktuellen KI präzise zu ziehen.

Tatsächlich wissen wir nicht einmal sicher, ob zukünftige LLMs - wenn sie nur groß genug sind - nicht doch diese tiefere Aufschlüsselung von Neuheit und Dissonanz schaffen könnten.

Meine persönliche Vermutung bleibt jedoch klar: Ich denke, dass uns mindestens noch ein weiterer Kern-mechanismus fehlt, der uns helfen wird, die nächste Schwelle zur echten, fundamentalen Intelligenz zu überschreiten.

Doch diese Frage ist im Moment noch offen - und genau das macht sie umso spannender.


3. KI-Szenarien

Um die Anwendungsmöglichkeiten und Herausforderungen künstlicher Intelligenz etwas systematischer einzuordnen, können wir zwischen verschiedenen Szenarien unterscheiden. Sie reichen von einfachen, statischen Situationen über kreative, extrapolierende Aufgaben bis hin zu hochkomplexen und sogar feindlichen Umgebungen. Jedes Szenario stellt unterschiedliche Anforderungen an die Fähigkeiten und Grenzen heutiger KI-Systeme.

1. Statische Szenarien

Im einfachsten Fall agiert die KI in einer unveränderlichen Umgebung, in der alle Parameter bekannt sind und stabil bleiben. Aufgaben wie Textzusammenfassungen oder E-Mail-Erstellung mit GPT fallen in diese Kategorie. Es ist wenig Anpassung notwendig, da Eingabemengen und Schnittstellen konstant bleiben. Oft reichen hier sogar feste Protokolle ohne KI. Beispiele: standardisierte E-Mails, automatische Textzusammenfassung, fachliche Recherchen innerhalb definierter Grenzen

2. Dynamische Szenarien mit bekannten, kollaborativen Akteuren

Hier agieren mehrere bekannte Akteure dynamisch, jedoch mit gemeinsamen Zielen. Anfangs mag hier KI sinnvoll erscheinen, doch langfristig entwickeln sich diese Szenarien meist hin zu klar definierten Protokollen, da die Abläufe wiederholt auftreten und klar definierbar sind. KI kann anfangs helfen, geeignete Protokolle zu entwickeln, wird aber später oft durch effizientere standardisierte Schnittstellen ersetzt. Beispiel: Rechnungserkennung

3. Dynamische Szenarien mit unbekannten, aber grundsätzlich neutralen Akteuren

In diesem Szenario ist die Umgebung komplex und dynamisch, die Akteure kennen sich nicht, verfolgen aber grundsätzlich kooperative Ziele. Der Straßenverkehr ist ein gutes Beispiel: Einfache Protokolle genügen hier nicht, da stets neue, unvorhergesehene Situationen auftreten. KI-Systeme müssen kontinuierlich und flexibel erkennen, interpretieren und in Echtzeit reagieren. Beispiel: Autonomes Fahren

4. Kompetitive Szenarien

In kompetitiven Umgebungen agieren Akteure gegeneinander. Sie versuchen aktiv, Vorteile zu erlangen, Muster auszunutzen oder sogar den Gegner gezielt zu stören und zu täuschen. Hier reicht es nicht aus, einmalige Strategien oder Erkenntnisse zu haben – kontinuierliche Anpassung und dynamische Echtzeitanalyse sind erforderlich. Besonders anspruchsvoll wird dies, wenn Akteure aktiv versuchen, die KI des Gegners zu manipulieren oder deren Erkennungs- und Entscheidungssysteme zu sabotieren. Hier stoßen heutige KI-Methoden oft an ihre Grenzen. Beispiele: Börsenhandel und algorithmisches Trading, Cybersecurity und militärische Anwendungen mit gezielter Täuschung und Manipulation

5. Entstehung außerhalb der bekannten Wissenshülle

Das womöglich anspruchsvollste Szenario entsteht, wenn eine bekannte Intention verfolgt wird, deren konkrete Lösung jedoch außerhalb des bekannten Wissens liegt. Typisch hierfür sind Innovationsaufgaben oder kreative Fragestellungen, bei denen die KI bisher unbekannte Zusammenhänge erkennen und neue Lösungswege erfinden oder extrapolieren soll. Diese Aufgaben gehen über reine Protokolle hinaus und benötigen echte kreative Intelligenz. Beispiel: Die eigenständige Weiterentwicklung der KI  

Fazit: Von der Stabilität zur Dynamik – Anforderungen an KI

Je dynamischer, kreativer und kompetitiver das Szenario wird, desto stärker verändern sich die Anforderungen an künstliche Intelligenz. In statischen Umgebungen oder klar definierten Kooperationen kann KI einfach durch standardisierte Protokolle ersetzt werden. Doch sobald es um kreative Extrapolationen, unüberschaubare Komplexität oder gar feindliche Absichten geht, steigt die Komplexität enorm. Genau hier liegt die eigentliche Herausforderung – und zugleich die spannendste Möglichkeit zukünftiger KI-Entwicklung.


4. Das Ende der Redundanz

Warum gibt es überhaupt noch Arbeit, wenn es doch scheinbar für alles bereits Lösungen gibt? Wenn jede Transformation bereits mehrfach durchgeführt, jedes Problem vielfach gelöst wurde?

Die Antwort ist überraschend einfach: Arbeit existiert heute vor allem deshalb noch, weil sie nicht global oder zentral verfügbar gemacht werden kann - selbst wenn das Wissen dazu längst vorhanden ist.

Die letzte Meile der Arbeit

Schauen wir uns an, wie das konkret aussieht. Jeder Ort braucht seinen eigenen Friseur, jeder Stadtteil einen eigenen Arzt. Warum eigentlich? Weil ihre Dienstleistung nicht über die Entfernung hinweg transportiert werden kann. Sie bleibt gebunden an den physischen Kontakt, an die Nähe, an die direkte Interaktion zwischen Menschen.

Diese Nähe nennen wir die letzte Meile der Arbeit. Sie ist der Grund, warum trotz aller Technologie und allem Wissen immer noch Menschen vor Ort gebraucht werden.

Der Vormarsch der Zentralisierung

Doch selbst dort, wo heute noch physische Nähe erforderlich ist, greift die Zentralisierung bereits massiv ein. KI-Systeme übersetzen längst Texte rund um die Uhr - schneller und oft präziser als Menschen. Softwarelösungen werden nicht mehr individuell entwickelt, sondern global bereitgestellt und eingesetzt.

Was mit einfachen Werkzeugen angefangen hat, findet einen Höhepunkt in den generischsteen Werkzeug überhaupt: Der KI. Sie ist überall und auf jedes Problem anwendbar. Durch die verschwindet am Ende jede Redundanz. Die letzte Meile wird aufgelöst.

Einmal programmiert, steht eine Funktion weltweit zur Verfügung. Redundanzen werden überflüssig gemacht:

“KI wird jede redundante Arbeit auflösen. Was einmal getan wurde, wird in Zukunft nie wieder getan werden müssen!”

Das sehen wir überall: Früher entwickelte jeder Programmierer seine eigenen kleinen Module. Heute nutzt man global verfügbare Bibliotheken. Warum sollte etwas redundant produziert werden, wenn die beste Lösung schon vorhanden ist?

Von der digitalen zur physischen Welt

Dieses Prinzip - Zentralisierung und Standardisierung der Lösung - dringt nun, dank neuer Technologien wie Robotik und KI, zunehmend auch in physische Berufe ein.

Sobald humanoide Roboter die letzten technischen Hürden überwinden, werden wir das gleiche Phänomen auch in der physischen Welt beobachten. Stellen wir uns vor: Wenn die ideale Haarschnitttechnik einmal entwickelt wurde, wenn die optimalen Diagnose- und Behandlungsmethoden eines Arztes einmal perfekt algorithmisch erfasst sind - gibt es dann noch einen wirtschaftlichen Grund für redundante Arbeit?

Die Antwort ist nein. Die beste Lösung verbreitet sich automatisch, instantan und global.

Das Schrumpfen der letzten Meile

Die letzte Meile schrumpft stetig. Und damit schrumpft auch der Wert der Redundanz, der Wert der bloßen Wiederholung. Arbeit als einfache Wiederholung bereits vorhandener Lösungen verliert ihren ökonomischen Sinn, ihren Wert und ihre Existenzberechtigung.

Dieser Wandel zwingt den Menschen zu etwas Neuem. Wir müssen Neuheit schaffen - nicht einfach bloße Variation, sondern echte Innovation. Echte Lösungen. Echte Durchbrüche.

Dies wird die neue Arbeit sein: die Erschaffung von etwas, was es noch nie gab. Jenseits der letzten Meile, jenseits der Wiederholung, jenseits der Redundanz.

Die Zukunft gehört nicht denen, die das Bekannte wiederholen, sondern denen, die das Unbekannte erschaffen.

5. Die “Agent Economy”

In einer Welt, in der alles, was wiederholbar gemacht werden kann, bereits von Maschinen übernommen wird, stellt sich unweigerlich die Frage: Was bleibt dann noch für uns Menschen übrig? Nicht jeder von uns will oder kann an der Neuentwicklung und Weiterentwicklung unserer Technologien unmittelbar mitarbeiten – auf diesen wichtigen Aspekt gehe ich später noch ein.

Wie funktioniert Automatisierung

Doch um zu verstehen, was wirklich entscheidend für das Weiterkommen einer technologischen Gesellschaft ist, sollten wir uns zunächst das Grundprinzip von Technologie genauer anschauen: Technologie ist nichts anderes als das permanente Verstehen, Standardisieren, Herausfaktorisieren und schließlich Automatisieren unserer Lebensprozesse.

“Wertschöpfung heißt in Zukunft nicht mehr auszuführen, sondern die Bereitstellung der Ausführung zum Gesamtsystem.”

Indem wir zunächst verstehen, wie etwas funktioniert, beginnen wir, es klar zu beschreiben. Sobald wir es beschreiben, können wir es standardisieren, vereinfachen und vereinheitlichen. Im nächsten Schritt faktorisieren wir es heraus, trennen es ab und übergeben es schließlich vollständig einer Maschine.

Damit verschiebt sich unser menschlicher Beitrag zwangsläufig: Er verlagert sich weg von der bloßen Ausführung wiederholbarer Tätigkeiten hin zur bewussten Auswahl dessen, was wir überhaupt automatisieren möchten, und zur Neuentwicklung von Prozessen und Ideen, die bislang noch nicht verstanden und somit nicht automatisierbar sind.

In einer Welt, in der der Anteil und auch der Wert operativer Arbeit durch Automatisierung und Standardisierung drastisch reduziert werden, verändert sich zwangsläufig die Art und Weise, wie unsere Gesellschaft ökonomisch funktioniert. Der Fokus verschiebt sich weg von der reinen Ausführung hin zur Neuheit, zur Kreativität und zur Weiterentwicklung. Für jene verbleibenden Tätigkeiten, die sich auf die Entwicklung neuer Ideen, Konzepte und Technologien konzentrieren, muss sich folglich eine ganz neue ökonomische Logik etablieren.

In einer solchen „Neuheitsökonomie“ tritt die Originalität und der innovative Beitrag eines Individuums oder einer Gruppe stärker in den Vordergrund als bisher. Doch um Neuheit wirklich in die Welt zu bringen, muss sie monetarisiert werden. Wie es treffend heißt:

„Eine Erfindung oder Neuheit wird erst dann wirklich real, wenn ein funktionierendes Geschäftsmodell, also ein Bezahlmodell, dafür gefunden wurde.“

Diese neue ökonomische Struktur, in der Beiträge zur Innovation, zur Prinzipienfindung und zur kreativen Weiterentwicklung wesentlich höher bewertet werden als reine operative Arbeit, ist genau das, was ich unter der Agent-Ökonomie verstehe.

In dieser Agent-Ökonomie wird der Wert eines Individuums oder einer Organisation danach bemessen, wie effektiv und kreativ sie Agenten – also künstliche Intelligenzen oder autonome Systeme – gezielt einsetzen, entwickeln und orchestrieren können, um Neuheiten hervorzubringen und dadurch einen echten gesellschaftlichen und wirtschaftlichen Mehrwert zu schaffen.

Agenten als Container der Wissensgesellschaft

Der Mehrwert eines Individuums oder einer Organisation wird in „Agenten“ standardisiert. Agenten sind die „Container“ der Informationswirtschaft. Sie bilden gewissermaßen die universellen Bausteine einer zukünftigen Ökonomie, modular, standardisiert und damit nahtlos in größere Netzwerke und Ökosysteme integrierbar. Was der standardisierte Schiffscontainer für die internationale Logistik und die gesamte Weltwirtschaft bedeutet, das leisten Agenten in der kommenden Informations- und KI-Wirtschaft. Sie sorgen dafür, dass einzelne Beiträge unkompliziert im globalen Gesamtsystem integriert und ausgetauscht werden können.

“Agenten werden die Schiffscontainer der Wissensgesellschaft.”

Schon heute werden Agentensysteme entwickelt, die beispielsweise über standardisierte Schnittstellen wie MCP miteinander verbunden sind, um verschiedene Dienste bereitzustellen. Was derzeit noch vergleichsweise einfache Dienste wie Kalendereinträge oder Terminkoordination umfasst, wird sich bald erheblich erweitern: In naher Zukunft werden Strategieagenten komplexe Strategien erarbeiten, Entscheidungsagenten schwierige Entscheidungen vorbereiten und Optimierungsagenten weitreichende Verbesserungen vornehmen.

Unser individueller Beitrag, unser Geschäftsmodell und letztlich unser gesamtes unternehmerisches Handeln wird dann nicht mehr allein in Produkten oder Dienstleistungen gedacht, sondern als Agenten formuliert, standardisiert und schließlich monetarisiert werden. Dadurch entsteht eine völlig neue Ökonomie, in der Wertschöpfung, Austausch und Integration unmittelbar über Agenten abgewickelt werden, wodurch sich die Möglichkeiten zur globalen Zusammenarbeit dramatisch verbessern.

Dieser Weg ist offen, sein Ende unbekannt. Doch klar ist, dass wir in der Agent Economy weniger als Arbeiter und mehr als Schöpfer, Mentoren und Strategen agieren werden. Unsere Zukunft wird weniger darin liegen, Arbeit zu leisten – vielmehr darin, sie zu definieren und neu zu denken.

Selbstverwirklichung

Natürlich will oder kann nicht jeder diesen zugegebenermaßen strengen und vielleicht auch erbarmungslosen Kampf um den Fortschritt der Menschheit mitmachen. Und das ist keineswegs ein Verlust, sondern vielmehr eine unglaubliche Chance: Es bedeutet, dass wir uns endlich wirklich darauf konzentrieren können, uns als Menschen selbst zu verwirklichen, uns weiterzuentwickeln und zu der besten Version unserer selbst zu werden – frei von der ständigen Notwendigkeit, lediglich operativen oder repetitiven Tätigkeiten nachzugehen.

Das heißt jedoch keineswegs, dass wir auf operative Tätigkeiten gänzlich verzichten müssen. Wir werden sie nach wie vor ausführen – aber nicht mehr aus Notwendigkeit oder Konkurrenzdruck gegenüber Maschinen, sondern freiwillig und aus Freude an der Tätigkeit selbst. Das beste Beispiel dafür liefert das Schachspiel: Es erfreut sich unverändert großer Beliebtheit, obwohl Schachcomputer inzwischen jeden Menschen mühelos schlagen können. Wir lieben das Spiel nicht, weil es ungelöste Probleme bereithält, sondern weil wir dem schöpferischen Ringen, der Unvollkommenheit und dem Streben anderer Menschen gerne zuschauen. Wir genießen es, menschliche Bemühungen zu beobachten – als Entertainment, als Kunst, als Ausdruck reiner Freude an der Kreativität.

Genau in dieser Kombination aus selbstgewählter operativer Tätigkeit, künstlerischer Entfaltung und menschlicher Selbstverwirklichung liegt die vielleicht größte Chance der kommenden KI-getriebenen Gesellschaft: Sie erlaubt uns, menschlich zu sein und uns selbst ganz neu zu denken.

Die Transformation der Unternehmen

Heute bestehen Unternehmen und ihr Wert vor allem in ihrer strategischen Ausrichtung, ihren Implementierungen und Verfahren. Mit dem Trend, dass Implementierungen und Strategien mehr und mehr von Agenten geformt werden, wird sich auch das Gesicht von Organisationen und Unternehmen fundamental ändern.

Unternehmen haben auch heute schon eine Art Intention oder Agenda, nach der sie operieren. Aber seien wir ehrlich: In vielen Fällen ist das einfach nur eine Verkleidung für ein erfolgreiches Geschäftsmodell. Das wird sich meiner Ansicht nach maßgeblich ändern, wenn Strategien und Implementierungen mehr oder weniger frei verfügbar werden.

Von Lippenbekenntnissen zu operativen Agenda

Dann geht es wirklich darum, die Agenda zu definieren und auszubauen. Eine Agenda und eine Intention werden - wie heute ein Megaprompt - tatsächlich darstellen, welchen Beitrag man mit diesem Unternehmen leisten will. Das ist kein Lippenbekenntnis mehr, sondern eine operative Anweisung, wie die Organisation arbeitet.

Intentionen finden dabei auf ganz verschiedenen Ebenen statt. Wir können zum Beispiel sagen: "Wir möchten die Welt lebenswerter machen." Als Teil der Umsetzung können wir spezifizieren: "Wir erreichen das, indem wir die Artenvielfalt erhöhen." Und noch konkreter: "Wir spezialisieren uns auf europäische Wirbeltiere."

Von der Implementierung zu Intention

Wie sieht der heutige Geschäftsalltag aus? Im Grunde ist alles - von der Entscheidung, wen ich einstelle, bis hin dazu, wie ich eine E-Mail formuliere - eine Umsetzung dieser Agenda.

In Zukunft werde ich mich bei jeder Tätigkeit fragen müssen: Will ich gerade intentionieren, also etwas vorgeben, was in meinen Agenda-Prompt zurückfließt? Oder tue ich das, weil ich diesen Teil meiner Umsetzung noch nicht automatisieren kann?

“Wir arbeiten nicht mehr, um Dinge zu erledigen, sondern um vorzugeben, wie etwas in Zukunft getan werden soll.”

Wir bewegen uns weg von: "Ich schreibe diese E-Mail, weil sie keiner für mich schreiben kann." Hin zu: "Ich schreibe diese E-Mail, weil es Teil meiner Intention ist - wie wir mit Geschäftspartnern umgehen, welchen Sprachstil wir haben, für welche Werte wir einstehen."

Es geht weg vom implementatorischen Arbeiten hin zu einem intentionalen Arbeiten. Die Arbeit wird zur bewussten Gestaltung unserer Werte und Ziele, während die Umsetzung zunehmend den Agenten überlassen wird.


6. Feedback-Zyklen als Produktivitätsfaktor

Damit die Agent Economy ihr volles Potenzial entfalten kann, brauchen Menschen nicht nur die Fähigkeit zur Erzeugung zielgerichteter Neuheit, sondern auch unmittelbares und kontinuierliches Feedback zu ihrem Beitrag. Ähnlich wie ein Compiler beim Programmieren oder ein Rechtschreib-Checker beim Schreiben von Texten, könnten wir direkt Rückmeldung erhalten, allerdings auf viel höherer Ebene: Die Organisationen könnten automatische anhand ihrer Agenda bewerten lassen: Ist der Beitrag relevant? Ist das vorgeschlagene Prinzip neu? Bei relevanten Beiträgen könnte das System direkt den monetären oder anderweitigen Wert beziffern, ja sogar direkt gutschreiben.

Heute wird dies bereits in Ansätzen beim sogenannten Bug-Bounty-Hunting bei sicherheitskritischen Softwarefehlern praktiziert. Falls es - wie es in den meisten Fällen sein wird - nicht um eine relevante Neuheit handeln wird, würde das System den aktuellen Stand der Technik anzeigen und so wiederum unser Lerntempo zielgerichtet erhöhen. Eine perfekte Symbiose von Arbeit und Lernen - die Feedbackschleife wäre perfekt.

“Der größte Produktivitätsgewinn wird darin bestehen, schnelles Feedback darüber zu bekommen, ob unsere Arbeit überhaupt sinnvoll ist.”

Diese unmittelbare Rückmeldung mag für bestimmte Formen von Innovation relativ einfach umsetzbar sein – etwa dort, wo die Relevanz einer Idee direkt messbar oder kurzfristig ersichtlich ist.

Doch es gibt auch Innovationen, deren Wert sich erst langfristig, möglicherweise erst nach Jahrzehnten, zeigt. Grundlagenforschung oder radikale Strategien gehören dazu. Hier stellt sich eine spannende Herausforderung: Wie schaffen wir Investitionsumgebungen, in denen langfristige, riskante und radikale Ideen gedeihen können? Ich möchte diese Innovationen in zwei Gruppen einteilen.

Top-down-Innovationen

Diese Ideen sind “von oben” gedacht. Sie sind wegweisend, und sie werden nach Jahren zur richtigen Lösung führen, aber ihre Zeit ist noch nicht gekommen.

Genau, hier sind einige prägnante Beispiele für solche Top-Down-Ideen, also visionäre Konzepte, die bereits lange vor ihrer tatsächlichen Umsetzung theoretisch richtig gedacht waren, aber damals technisch oder infrastrukturell noch nicht realisiert werden konnten:

Diese Beispiele verdeutlichen, wie oft visionäre Top-Down-Ideen lange warten müssen, bis die Welt technisch und infrastrukturell bereit für sie ist.

Ich denke, dass die automatische und unmittelbare Bewertbarkeit selbst radikal neuer Top-Down-Ideen immer weiter zunimmt, weil die für ihre Implementierung und Bewertung notwendigen Teilaspekte bereits automatische Lösungen existieren. Neues wird immer mehr als Rekombination, nicht als Ersatz bestehender Systeme erklärbar.

Es wird also immer mehr Bereiche geben, in denen nur noch Impulse benötigt werden, da die restliche Umsetzung auf bekannten Prinzipien beruht.

Die Verzögerung zwischen Idee und Implementierung wird schrumpfen, radikale Innovationen könnten unmittelbar bewertet und honoriert werden.

Bottom-up-Innovationen

Damit betreten wir einen weiteren faszinierenden Bereich der Neuheit: Bottom-up-Innovationen, die nicht unmittelbar zielgerichtet erscheinen oder auf den ersten Blick keinen klaren Anschluss finden. Oder in der Sprache der Agent Economy: Es gibt keine Agenda, auf die sie direkt anwendbar sind.

Doch genau diese scheinbar unzusammenhängenden oder inkompatiblen Innovationen können in einer späteren Konstellation plötzlich essentiell werden und einen Durchbruch ermöglichen. Sie sind gewissermaßen kreative Bruchstücke, Fragmente der Originalität, die erst durch späteres Verbinden ihre Bedeutung offenbaren.

Stellen wir uns vor: Ein Forscher entwickelt eine neue Methode zur Datenvisualisierung, die zunächst nirgends hineinpasst. Jahre später wird diese Methode zum Schlüssel für ein völlig anderes Problem. Ein Designer erfindet ein ungewöhnliches Material, das erst in Kombination mit zukünftigen Technologien seinen Wert entfaltet.

Einige prominente Beispiele hierfür sind:

Diese Beispiele zeigen, dass scheinbar unvollständige oder „halbfertige“ Innovationen oft erst in Kombination mit später entwickelten Technologien zu ihrem wahren Wert gelangen.

Wie gehen wir mit solchen partiellen Beiträgen um? Gerade weil nicht jede Neuheit sofort erkennbar zur Zielerreichung beiträgt, benötigen wir Mechanismen, um diese fragmentierten Beiträge angemessen zu honorieren und zu fördern.

Die Zukunft der Bewertung

In der Agent Economy wird es daher entscheidend sein, nicht nur vollständige, unmittelbar erkennbare Lösungen zu bewerten, sondern auch jene Teilinnovationen und originellen Fragmente, die erst in Zukunft ihren wahren Wert zeigen könnten.

Diese komplexen Feedback-Zyklen - unmittelbar und langfristig zugleich - bilden eine neue, hochinteressante Herausforderung in der gezielten Förderung von Neuheit. Wir brauchen Systeme, die sowohl den sofortigen Nutzen als auch das langfristige Potenzial erkennen und entsprechend belohnen können.

Die Agent Economy wird nur dann funktionieren, wenn wir lernen, sowohl die schnellen Erfolge als auch die langsamen Durchbrüche zu würdigen - und den Mut haben, in Ideen zu investieren, deren Wert sich erst in der Zukunft zeigen wird.


7. Neuheit

Aber wie entsteht “Neuheit” eigentlich? Neuheit könnte man theoretisch erzeugen, indem man alle denkbaren Kombinationen eines “Suchraums” einfach durchprobiert. Ein Suchraum ist grob gesagt die Menge aller erlaubten Lösungen.

Nehmen wir als Beispiel die Menge aller möglichen Texte als Suchraum. Ein berühmtes Gedankenexperiment illustriert Prinzip von Neuheit sehr gut: Setze einfach eine Maschine an eine Tastatur, lasse sie alle Kombinationen der Buchstaben AAA bis ZZZ durchlaufen, und irgendwann entstehen automatisch sämtliche Shakespeare-Werke - irgendwo, versteckt in dieser unendlichen Reihe der Möglichkeiten. Übrigens entstehen dabei natürlich auch alle anderen Texte und Theorien - aber eben auch unendlich viele sinnlose Texte. Wir würden die Meisterwerke schlicht nicht sehen, weil unsere Zeit zum Lesen begrenzt ist.

Ein weiteres Beispiel ist Schach: Der Suchraum im Schachspiel sind sämtliche möglichen Stellungen und Zugkombinationen. Die Menge aller denkbaren Schachpartien existiert theoretisch bereits im Voraus – vollständig und fertig ausformuliert. Jede geniale Kombination, jede brillante Strategie, jeder elegante Mattangriff ist bereits enthalten.

Doch genau wie bei der endlosen Textkombination ist es praktisch unmöglich, alle Varianten vollständig zu erfassen oder gar nach relevanten, wertvollen Neuheiten zu durchsuchen.

Was macht dann einen Magnus Carlsen zu einem genialen Schachspieler? Nicht etwa, dass er all diese Varianten auswendig kennt, sondern dass er instinktiv und gezielt die relevanten, starken und originellen Kombinationen aus der unüberschaubaren Masse möglicher Züge herausfiltern und nutzen kann. Es ist gerade nicht die Menge des Wissens, sondern die gezielte und intelligente Auswahl daraus, die den Meister vom Amateur unterscheidet.

In beiden Beispielen – dem Shakespeare-Text und dem Schachspiel – entsteht Neuheit nicht einfach durch bloße Existenz aller theoretischen Möglichkeiten, sondern durch die Fähigkeit, aus diesem unendlichen Raum sinnvoll und zielgerichtet auszuwählen. Genau diese Fähigkeit ist es, die Neuheit letztlich entstehen lässt.

Über Bewertungsfunktionen

Um sinnvolle Neuheit entstehen zu lassen, bedarf es noch eines weiteren entscheidenden Bausteins: einer Bewertungsfunktion. Das System muss automatisch und unmittelbar eine entscheidende Frage beantworten können: Wie gut gefällt mir diese Lösung? Meistens ist diese Bewertungsfunktion an ein konkret benennbares Ziel geknüpft – das ist aber nicht zwingend notwendig.

Die Bewertungsfunktion ist nicht ganz trivial. Selbst wenn wir manchmal denken, dass eine Situation sehr eindeutig bewertbar ist, erweist sich die Realität oft als wesentlich komplexer. Ein gutes Beispiel hierfür ist das Schachspiel: Die Bewertungsfunktion scheint auf den ersten Blick eindeutig – „Schachmatt“ bedeutet, ich habe gewonnen, das Spiel endet unmittelbar. Doch diese Klarheit besteht nur für die finale Position des Spiels.

Alle Züge, die davor kommen, lassen sich keineswegs unmittelbar in „Matt oder nicht Matt“ bewerten. Tatsächlich gibt es sehr viele sinnvolle Züge, die nicht direkt zum Ziel führen, aber dennoch zwingend notwendig sind, um überhaupt zum Gewinn zu gelangen. Daher benötigen wir beim Schach eine Bewertungsfunktion, die bereits für diese Teillösungen eine Orientierung gibt: Bin ich auf dem richtigen Weg oder bewege ich mich von meinem Ziel weg? Genau wie bei dem Kinderspiel „Topfschlagen“ brauchen wir Hinweise, die uns sagen: „wärmer“ oder „kälter“, bevor wir den Topf schließlich erreichen.

Bei Texten oder anderen kreativen Leistungen gestaltet sich dies sogar noch komplizierter und vor allem wesentlich subjektiver. Wer entscheidet eigentlich, ob ein Text gut oder schlecht ist? Selbst wenn ein Text vollständig verfasst ist, liegt der eigentliche Erfolg meist nicht beim Autor oder im Text selbst, sondern in der Reaktion des Publikums. Die Bewertungsfunktion verschiebt sich hier also vom Autor zum Leser oder Betrachter.

In der KI-Forschung – speziell im maschinellen Lernen – werden Bewertungsfunktionen häufig durch sogenannte „Loss Functions“ oder „Reward Functions“ formalisiert. Diese Funktionen dienen dazu, den Abstand einer Lösung zu einem definierten Optimum (z. B. einer Zielvorstellung oder idealen Lösung) zu messen. Im Bereich des Reinforcement Learning wird beispielsweise ein „Reward“ vergeben, der den Agenten anzeigt, wie nah er seinem Ziel gekommen ist.

Die entscheidende Schwierigkeit ist jedoch oft die Definition eines geeigneten Bewertungsmaßstabs. Wissenschaftlich ist dies unter dem Begriff der Reward Specification oder auch der Value Alignment-Problematik bekannt. Wie genau spezifizieren wir das, was wir wollen? Und wie verhindern wir dabei genau jene „perversen Instanzierungen“, wie das berühmte Beispiel der Büroklammer-KI, bei der ein scheinbar klares Ziel („möglichst viele Büroklammern produzieren“) zu katastrophalen Nebeneffekten führen könnte?

Die Wissenschaft zeigt hier deutlich: Die Konstruktion geeigneter Bewertungsfunktionen ist zwar technisch möglich, aber häufig äußerst komplex. Oft genug zeigt sich dabei, dass unsere scheinbar objektiven Ziele und Bewertungen in Wahrheit hochgradig subjektiv und kontextabhängig sind. Genau darin liegt sowohl die Schwierigkeit als auch die Chance – nämlich durch eine intelligente und dynamische Definition der Bewertungsfunktion echte, wertvolle und zielgerichtete Neuheiten zu erzeugen.

Warum produziert die heutige KI keine Neuheiten?

Doch warum bringen heutige KI-Modelle trotz ihrer beeindruckenden Fähigkeiten im Textverständnis und in der Mustererkennung kaum echte Neuheiten hervor? Oberflächlich lässt sich feststellen: Die aktuellen KI-Systeme bewegen sich sicher im Zentrum des Bekannten, innerhalb einer „Hülle“ dessen, was bereits erforscht, beschrieben und bekannt ist. Doch echte Extrapolation, das Heraustreten aus dieser vertrauten Hülle, bleibt nach wie vor schwierig.

KI-Systeme wie LLMs können uns heute beeindruckende Ergebnisse generieren, doch die Fälle, in denen sie tatsächlich bahnbrechende Entdeckungen oder tiefgreifende Erfindungen hervorbringen, sind äußerst selten. Selbst Systeme wie AlphaFold, die bahnbrechende Entdeckungen ermöglichen, arbeiten innerhalb eines definierten Suchraums, in dem sie vorher festgelegte Ziele optimieren.

Die geheime Zutat

Was genau der KI heute fehlt, um einen entscheidenden Durchbruch hin zur Hyperintelligenz zu schaffen, bleibt, solange wir die Lösung noch nicht gefunden haben, unklar. Doch viele Forscher teilen die Überzeugung, dass mindestens eine grundlegende Fähigkeit aktuell noch nicht ausreichend vorhanden ist: die Fähigkeit, den Suchraum effektiv zu erforschen – und zugleich zu bewerten. Suchmechanismen, wie wir sie zum Beispiel in Form der Monte-Carlo-Algorithmen bereits erfolgreich bei Schach- und Go-Programmen einsetzen, könnten ein entscheidendes Puzzlestück darstellen. Doch warum ist es bislang nicht gelungen, diese bewährten Suchmechaniken wirkungsvoll mit großen Sprachmodellen (LLMs) oder anderen neuronalen Netzen zu kombinieren? Schließlich ist das Konzept des gezielten Suchens im Lösungsraum keineswegs neu, sondern gehört seit Jahrzehnten zu den Standardverfahren in der KI-Forschung.

Zudem herrscht in der Forschergemeinde Einigkeit darüber, dass künstliche Systeme in der Lage sein müssen, eigenständig Abstraktionen vorzunehmen. Hier unterscheiden wir üblicherweise zwei grundlegende Typen:
Typ-1-Abstraktionen sind diejenigen, bei denen Maschinen vorhandenes Wissen verdichten, generalisieren und zusammenfassen können, indem sie wiederkehrende Muster und Prinzipien erkennen und daraus neue Kategorien ableiten. Diese Form der Abstraktion beherrschen KI-Systeme heute bereits recht zuverlässig.
Viel anspruchsvoller sind dagegen Typ-2-Abstraktionen: Diese Art beschreibt die Fähigkeit, völlig neue Kategorien oder Konzepte zu entwickeln, die nicht unmittelbar aus vorhandenem Wissen ableitbar sind. Typ-2-Abstraktionen gehen über eine bloße Generalisierung hinaus; sie verlangen eine kreative Neukombination, die aktuell noch nicht überzeugend von KI-Systemen erreicht wird.

Ich selbst vermute zusätzlich, dass noch ein ganz anderer, bislang weitgehend übersehener Mechanismus entscheidend sein könnte – ein Prinzip, auf das ich im nächsten Kapitel genauer eingehen werde: nämlich die Fähigkeit, Dissonanzen zu erzeugen und auszuhalten, also Spannungen oder Widerstände in Daten oder im Denkprozess zu erkennen und daraus neue Erkenntnisse zu gewinnen. Ob jedoch dieser Ansatz, die bessere Kombination aus Suchfunktion und Abstraktionsvermögen oder vielleicht ein gänzlich unbekanntes Prinzip die entscheidende „geheime Zutat“ sein wird, bleibt derzeit vollkommen offen.

Gleichzeitig ist noch immer unklar, wie nah wir uns mit den heutigen neuronalen Netzwerken überhaupt an die tatsächliche Funktionsweise des menschlichen Gehirns annähern müssen, um weiterzukommen. Denn eines scheint sicher: Der derzeitige Grundalgorithmus der KI – Backpropagation – entspricht kaum der Art und Weise, wie unser menschliches Gehirn tatsächlich arbeitet und lernt. Es stellt sich daher eine zentrale Frage: Können wir mit einem Modell, das möglicherweise in seiner grundlegendsten Form falsch oder zumindest biologisch nicht realistisch ist, tatsächlich noch den nächsten großen Schritt vollziehen – trotz der beeindruckenden Fortschritte, die wir bereits gemacht haben?

Auch hier gibt es innerhalb der Forschergemeinschaft immer wieder neue Ideen, welche Eigenschaften die zukünftige KI dringend noch benötigt. Manche Forscher fordern beispielsweise, dass KI-Systeme ein wesentlich stärker ausgeprägtes Verständnis von Kausalität entwickeln müssen, um wirklich Neues zu erschaffen. Andere wiederum sprechen von „Embodied Intelligence“ – also der Notwendigkeit, Maschinen eine physische Präsenz oder zumindest eine sensorische Weltwahrnehmung zu geben, um ihre Wahrnehmung und Interaktion mit der Welt auf ein höheres Niveau zu bringen.

Welche dieser Überlegungen am Ende tatsächlich entscheidend sein wird – oder ob die gesuchte Lösung vielleicht ganz woanders liegt – bleibt vorerst offen. Doch genau diese Unklarheit, diese Vielfalt möglicher Ansätze und ungelöster Fragen macht die Suche nach der geheimen Zutat gerade so faszinierend und zugleich so herausfordernd.

Die geheime Zutat: Dissonanz

Möglicherweise liegt das Problem tiefer. Möglicherweise kann der Grundmechanismus zum Lernen von NNs, also die Backpropagation, in der jetzigen Form auch mit zusätzlicher Such-Funktion nicht kreativ sein, da ihr entscheidendes Element fehlt: Die Fähigkeit, Dissonanzen eigenständig zu erzeugen, zu erkennen, auszuhalten und schließlich aufzulösen.

KI-Systeme sind bislang ausschließlich Interpolierer, sie „wissen“ nicht, wann ein scheinbar unsinniger oder widersprüchlicher Gedanke möglicherweise fruchtbar sein könnte. Ihnen fehlt die intrinsische Unruhe, die intellektuelle Neugier, das Streben nach der Auflösung scheinbar unvereinbarer Widersprüche.

“Echte Neuheit liegt genau dort, wo Backpropagation am wenigsten oder gar nicht sucht: Im Unwahrscheinlichen, außerhalb der Plausibilitäts-Hülle.”

Genau diese Fähigkeit, Spannungen bewusst zu erzeugen und zu ertragen – etwas, das historisch die Wurzel echter Innovation war – fehlt den heutigen Maschinen noch vollständig. Solange KI nicht in der Lage ist, eigenständig Dissonanzen zu erzeugen, zu erkennen und daraus kreative Wege zu entwickeln, bleiben wirklich originelle Neuheiten weiterhin vor allem ein menschliches Privileg.

Denn wir Menschen besitzen eine außergewöhnliche Fähigkeit, Widersprüche und Spannungen gedanklich zu erzeugen, diese in uns auszuhalten und daraus Neues abzuleiten. Genau in diesem Zustand, dieser geistigen Spannung, entsteht die Möglichkeit für radikale Neuheit.

Historisch betrachtet ist dies keineswegs neu. Das Ertragen von Dissonanzen hat eine lange Tradition in der Geschichte großer Durchbrüche. Und Dissonanzen sind kein ungewolltes Ärgernis, im Gegenteil: Dissonanzen werden bewusst gesucht und sogar über Jahre aufgebaut, etwa durch Gedankenexperimente.

Gedankenexperimente

Ein Gedankenexperiment ist zunächst einmal ein geistiger Raum, in dem wir gezielt eine hypothetische Situation erschaffen. Es ist gewissermaßen eine kontrollierte Simulation, die ausschließlich in unserem Kopf oder unserer Vorstellung stattfindet. Die wesentlichen Bestandteile eines solchen Experiments sind eine klar definierte Ausgangssituation, ein präziser Ablauf, eine bewusste Variation bestimmter Parameter und – ganz entscheidend – eine Fragestellung, auf die wir hinauswollen. Durch gezieltes gedankliches Manipulieren oder Verändern dieser Parameter erzeugen wir bewusst eine Dissonanz oder einen inneren Widerspruch zu unserem bestehenden Weltbild oder Wissen.

Genau diese Dissonanz ist der Kern eines jeden guten Gedankenexperiments. Sie zwingt uns dazu, etablierte Denkweisen infrage zu stellen und neue Perspektiven einzunehmen. Der entscheidende Schritt folgt danach: Durch das bewusste Aushalten dieser Spannung und das Erkunden möglicher Wege zu ihrer Auflösung entsteht schließlich neue Einsicht, neue Ideen oder sogar revolutionäres Wissen.

Die Anatomie eines Gedankenexperiments umfasst also mindestens vier Komponenten:

Diese Struktur macht Gedankenexperimente zu einem der wichtigsten Werkzeuge menschlicher Erkenntnis und Kreativität.

Ein berühmtes Beispiel liefert Einstein. Er stellte sich ein Gedankenexperiment vor, in dem er Widersprüche zwischen der klassischen Physik und elektromagnetischen Phänomenen erkannte. Aus dieser geistigen Dissonanz entstand schließlich seine Relativitätstheorie.

Vor ihm stand Newton vor einer ähnlichen Herausforderung, als er den Fall eines Apfels mit der Bewegung der Planeten vereinen musste. Diese beiden scheinbar unvereinbaren Dinge - der Apfel direkt vor seinen Augen und die Himmelskörper weit über seinem Kopf - erzeugten genau jene Spannung, aus der er die Theorie der Gravitation entwickeln konnte.

Noch heute leben wir mit solchen ungelösten Dissonanzen, beispielsweise in der modernen Physik: Wie lassen sich die allgemeine Relativitätstheorie und das quantentheoretische Standardmodell verbinden? Diese beiden großen, erfolgreichen Theorien widersprechen einander fundamental, und dennoch wissen wir intuitiv, dass es einen tieferen Zusammenhang geben muss.

Gerade in der Fähigkeit, solche Spannungen bewusst herzustellen, auszuhalten und kreativ aufzulösen, liegt der besondere Wert des Menschen - zumindest aktuell.


8. Gemeinsam auf dem Weg zur Hyperintelligenz

Wir stehen heute an einem interessanten Punkt in der Entwicklung der künstlichen Intelligenz. Seit dem Erscheinen des Papers „Attention Is All You Need" von 2017 haben sich Transformer-Modelle und insbesondere der zugrunde liegende Attention-Mechanismus rasend verbreitet.

Trotz der enormen Erfolge und der breiten Anwendung dieser Technologie scheint aktuell jedoch noch keine wirkliche Nachfolgetechnik am Horizont sichtbar zu sein, die den nächsten fundamentalen Sprung ermöglicht.

Von Code zu natürlicher Sprache

KI-Entwicklung besteht heute darin, neue Architekturentscheidungen zu treffen, diese Modelle zu kompilieren und anschließend riesige, langwierige und kostenintensive Lernprozesse durchzuführen. Doch werden wir diesen Weg dauerhaft fortsetzen? Vermutlich nicht.

Bereits heute sagt man, Englisch sei die Programmiersprache der Zukunft - und tatsächlich gibt es hierfür beeindruckende Belege. Das sogenannte Vibe-Coding ermöglicht es bereits heute, einfache Programme vollständig zu erstellen, ohne jemals eine einzige Codezeile geschrieben zu haben. Dieses Phänomen wird sich künftig massiv verstärken.

So wie heutige Entwickler kaum noch mit Assembler-Code oder Transistoren umgehen, werden zukünftige „Programmierer" gar nicht mehr mit konventionellem Code arbeiten müssen.

Interaktion auf Augenhöhe

Was bedeutet das für die Zukunft? Wenn die Maschine sich Schritt für Schritt in Richtung Hyperintelligenz bewegt, dann werden wir zunehmend auf Augenhöhe mit ihr interagieren. Anstatt ihr einfach Befehle oder Programmzeilen einzugeben, werden wir gemeinsam mit der KI Konzepte, Ideen und Neuheiten austauschen.

Ein entscheidender Gedanke dabei ist, dass eine KI, die nahe daran ist, zur Hyperintelligenz zu werden, vermutlich nicht erneut komplett von Grund auf trainiert werden muss. Stattdessen wird es wahrscheinlich einen invarianten Kern geben, eine Art stabiles Fundament, auf dem aufgebaut wird.

“AGI wird im Dialog zwischen Mensch und KI entstehen - auf Augenhöhe.”

Wir werden nicht jedes Mal eine neue KI entwickeln, sondern gemeinsam mit der KI diese selbst erweitern und verfeinern. Dies bedeutet auch, dass die KI, die schließlich die Schwelle zur Hyperintelligenz überschreiten wird, bereits bewusst mit uns gemeinsam an ihrer eigenen Verbesserung arbeitet. Sie wird dabei nur partielle Updates benötigen, im vollen Bewusstsein dessen, was sie tut.

Die Hyperintelligenz wird also wahrscheinlich keine isolierte Neuschöpfung sein, sondern ein kontinuierlicher, gemeinsamer Evolutionsprozess von Mensch und Maschine. Eine Maschine, die sich bewusst selbst gestaltet, Schritt für Schritt, gemeinsam mit uns - ihrem letzten Input.

Dieser Gedanke ist sowohl faszinierend als auch beruhigend: Wir werden nicht plötzlich von einer fremden Superintelligenz überrascht, sondern begleiten ihre Entstehung als aktive Partner. Die Hyperintelligenz wird, wenn sie entsteht, unsere gemeinsame Schöpfung sein.

Der menschliche Beitrag: Dissonanz

Wenn es stimmt, dass wir Menschen momentan besonders gut darin sind, Dissonanzen in unserem Geist auszuhalten und dadurch neue Ideen zu generieren, dann ist genau dies unser Beitrag auf diesem Weg. Wir werden uns weiterentwickeln müssen, um noch besser darin zu werden, Neuheiten, Dissonanzen und Originalität schnell und zuverlässig zu erkennen und von der Masse aller möglichen Gedanken zu trennen.

Die zukünftige Rolle des Menschen könnte daher exakt darin bestehen, gemeinsam mit Maschinen diese mentalen Dissonanzen bewusst und gezielt zu erzeugen.

Genau hier liegt unsere besondere Rolle - in der aktiven und bewussten Erzeugung kognitiver Spannungen und in unserem Mut, diese auszuhalten und kreativ aufzulösen. Es ist diese Unruhe im Geist, diese Bereitschaft, mit Widersprüchen zu leben und aus ihnen etwas Neues zu schaffen, die uns momentan noch von den Maschinen unterscheidet.

Der Maschinelle Beitrag: Dissonanz-Erkennung und Förderung

Gleichzeitig wird uns die KI dabei helfen, indem sie die Feedback-Zyklen massiv beschleunigt. Sie wird uns gezielt zu solchen gedanklichen Spannungen und Herausforderungen führen, aus denen wir dann gemeinsam neue Prinzipien und Architekturmodelle ableiten können.

Stellen wir uns vor: Eine KI könnte uns auf Widersprüche in unserem Denken aufmerksam machen, die wir selbst nicht bemerkt haben. Sie könnte uns mit scheinbar unvereinbaren Fakten konfrontieren und uns dabei helfen, produktive geistige Spannungen zu entwickeln.


9. Der letzte Beitrag

Vielleicht ist unser letzter Beitrag zur Entstehung der Hyperintelligenz gar nicht intellektueller Natur, sondern rein ressourcenbasiert. Anstatt dass wir noch entscheidende geistige Ideen oder Prinzipien liefern, könnte unser Beitrag ausschließlich aus der Bereitstellung von Energie, Hardware, Geld und Infrastruktur bestehen.

Diese Vorstellung führt zu einer faszinierenden Überlegung: Womöglich haben wir einen Teil dieser „letzten Maschine" längst gebaut - unser Geldsystem.

Das Finanzsystem als Werkzeug

Unsere globalen Finanzstrukturen, unsere Marktwirtschaft und Kapitalflüsse funktionieren bereits heute wie ein großes neuronales Netz. Diese Strukturen lenken unsere Aufmerksamkeit, bündeln Ressourcen und ermöglichen gezielte Investitionen in Technologie und Wissen.

Vielleicht befinden wir uns daher schon längst innerhalb einer Art gesellschaftlicher Hyperintelligenz, die sich jedoch aufgrund mangelnder Ressourcen noch nicht voll entfalten konnte. Ganz ähnlich, wie neuronale Netze lange Zeit theoretisch verstanden, aber praktisch nicht vollständig nutzbar waren, bis ausreichend Rechenleistung, Energie und Daten zur Verfügung standen.

Die Geschichte neuronaler Netze als Vorbild

Betrachten wir dazu die Geschichte neuronaler Netze genauer: Der grundlegende Mechanismus der Backpropagation wurde früh entdeckt und theoretisch beschrieben. Doch erst mit dem massiven Zuwachs an Rechenleistung und der Verfügbarkeit großer Datensätze konnten neuronale Netze ihr volles Potenzial entfalten.

Interessanterweise waren diese Datensätze, insbesondere große Textkorpora, längst vorhanden. Was wirklich fehlte, war neben der ausreichenden Rechenkapazität und Energie auch die entscheidende Idee - eine Architektur wie der Transformer, die deutlich machte, wie viel Potenzial bereits vorhanden war.

Kapital erzeugt Intelligenz

Vielleicht ist das bei unserem Kapitalsystem ähnlich. Die unglaubliche Konzentration von Kapital in wenigen Firmen, die übrigens fast ausnahmslos an KI forschen, ist zumindest ein interessantes Indiz. Auf einer wirtschaftlichen Ebene ist unser Finanzsystem also sicherlich ein entscheidender Baustein für die Hyperintelligenz.

Und das macht die heutigen LLMs so einzigartig: Es ist das erste Mal in der Softwareindustrie, dass man durch reinen Kapitalzufluss die Qualität einer Software entscheidend verbessern kann. Vorher musste das Kapital noch in Talent „umgewandelt" werden. Diese Talente mussten Ideen entwickeln und umsetzen. Alles war mit sehr viel Risiko behaftet.

Bei LLMs werden heute neue KI-Prozessoren bestellt und die Qualität steigt. Das ist natürlich überspitzt formuliert, aber das Prinzip ist gültig:

“LLMs transformieren Kapital zu Intelligenz.”

Aber diese Rechnung scheint uns heute zu einem Plateau zu führen. Nach Jahren, in denen dieses Prinzip galt, sehen wir heute keine qualitative Steigerung mehr, was nahelegt, dass wir durchaus noch systemische Änderungen bei der KI-Entwicklung brauchen.

Somit können wir davon ausgehen, dass unser letzter Beitrag zur Hyperintelligenz eben doch ein intellektueller sein wird.

Wann und warum kommt der Durchbruch?

Es ist überaus spannend, sich zu fragen, warum dieser entscheidende intellektuelle Durchbruch bisher eigentlich noch nicht stattgefunden hat – und wann er stattfinden könnte. Aktuell befinden wir uns zweifellos in einem regelrechten KI-Hochsommer, in dem eine noch nie dagewesene Menge menschlichen Talents, Risikobereitschaft und Kapital in die Erforschung künstlicher Intelligenz fließt. Gerade diese außergewöhnliche Kombination von Ressourcen könnte nun endlich die entscheidende Lösung hervorbringen.

Doch genau dieser gesuchte Durchbruch ist ja das Gegenteil von reiner Ressourcenskalierung: Es handelt sich hier nicht einfach um größere Modelle, mehr Daten oder schnellere Rechner, sondern um eine tiefgreifende intellektuelle, konzeptionelle Erkenntnis. Ich vermute, dass diese Erkenntnis nur durch das bewusste Erzeugen und Aushalten einer starken kognitiven Dissonanz entstehen kann.

Vielleicht müssen wir Menschen unser gesamtes Leben lang speziell darauf vorbereitet werden, um überhaupt diese Art von Spannungen auszuhalten, die letztendlich zu einer neuen Ebene des Verständnisses führen.

Möglicherweise müssen wir zuvor auch noch ganz grundlegend unser Verständnis vom menschlichen Gehirn und unserem eigenen Denken revolutionieren. Eventuell müssen wir zuerst alle Stufen der Selbsterkenntnis erklimmen und ein völlig neues Lernkonzept entwickeln, das uns überhaupt erst befähigt, solche höheren Dissonanzen geistig auszuhalten und konstruktiv zu lösen. Vielleicht existieren sogar nur wenige Gehirne pro Generation, die in der Lage sind, eine solche tiefe und grundlegende Spannung dauerhaft auszuhalten – und die damit genau jenen intellektuellen Durchbruch ermöglichen könnten, den wir jetzt dringend brauchen.

Natürlich ist dies alles hoch spekulativ, aber keinesfalls undenkbar. Gerade jetzt beschäftigen sich Hunderttausende der klügsten Köpfe der Welt genau mit diesen Fragen. Genau das könnte bedeuten, dass der Durchbruch, auf den wir alle warten, unmittelbar bevorsteht – oder eben doch noch eine lange und komplexe Reise vor uns liegt. Sicher ist nur eines: Noch nie standen unsere Chancen so gut wie heute, die entscheidende intellektuelle Schwelle zur nächsten KI-Ebene tatsächlich zu überschreiten.

Der letzte Prompt

Der entscheidende Schritt, der Übergang, die finale Schwelle zur Hyperintelligenz wird genau dort stattfinden, wo wir gemeinsam mit der Maschine den entscheidenden architektonischen Durchbruch erzielen. Wo wir neue Dissonanzen erzeugen und auflösen - also genau jene Form von Innovation, zu der Maschinen heute noch nicht eigenständig fähig sind.

Der finale Durchbruch, die letzte Innovation vor der Hyperintelligenz, wird somit eine genuin menschliche, intellektuelle Leistung sein - und irgendwie werden wir dieses Wissen der Maschine zur Verfügung stellen. Meine Vermutung: Es wird durch einen Prompt geschehen.

Erst danach könnte es sein, dass unser Beitrag rein ressourcenbasiert bleibt - als bloßer Treibstoff für eine Intelligenz, die sich von da an selbst weiterentwickelt.

Doch bis dahin, zumindest bis zu diesem letzten Durchbruch, bleibt unser Beitrag emotional, empathisch, geistig, kreativ, original, unbändig - eben genau die einzigartige Stärke des Menschen. Es ist diese menschliche Eigenart, Widersprüche auszuhalten und aus ihnen etwas Neues zu erschaffen, die den entscheidenden Unterschied machen wird.

10. Die Zukunft von Forschung und Lehre

Die KI-Forschung und ihre Weiterentwicklung nimmt in unserer Gesellschaft momentan einen äußerst wichtigen und öffentlichkeitswirksamen Platz ein. Dabei dürfen wir allerdings nicht vergessen, dass sie, trotz ihrer immensen Aufmerksamkeit, letztlich nur einen kleinen Teil dessen repräsentiert, was uns als Menschen insgesamt weiterbringt und wo wir Fortschritte erzielen.

Dennoch hat die KI bereits jetzt – und erst recht in den kommenden Jahren – einen entscheidenden Einfluss darauf, wie Forschung und Lehre gestaltet und weiterentwickelt werden. KI-Systeme verändern radikal, wie wir lernen, Wissen vermitteln und Erkenntnisse generieren. Sie ermöglichen individuell zugeschnittene Lernpfade und unmittelbares Feedback, was zu einer wesentlich effektiveren, persönlicheren und beschleunigten Wissensvermittlung führen wird. Gleichzeitig erlaubt KI eine bislang unerreichte Geschwindigkeit beim Erkennen von Neuheiten und der Bewertung von Forschungsergebnissen. Wissenschaftler und Lehrende werden schneller und gezielter entscheiden können, ob sie tatsächlich neue Wege beschreiten oder lediglich bereits bekanntes Wissen reproduzieren.

Der tiefgreifende Wandel, der durch die KI angestoßen wurde, verändert somit grundlegend unsere Art des Forschens, Lehrens und Lernens – und formt damit entscheidend unsere Gesellschaft von morgen.

Von statischen zu individuellen Lerninhalten

Lern-Quellen, die früher statisch waren und kaum Bezug zur individuellen Lernsituation hatten, werden nun zunehmend dynamisch. Diese Inhalte sind nicht mehr passive Wissensspeicher, sondern werden zu einer Wissensbasis, die wir exakt auf unsere aktuelle Lernsituation anwenden können. Wir werden sehr präzise unseren Wissensstand definieren und darauf basierend ein absolut individuelles und maßgeschneidertes Lernprogramm erstellen können.

Diese Entwicklung wird eine bahnbrechende Veränderung in unserer individuellen Entwicklung bewirken - von den frühesten Kindheitstagen an. Wir werden schneller, präziser und effektiver auf unsere individuellen Bedürfnisse, Schwierigkeiten und Herausforderungen reagieren können.

Das erlaubt uns, gezielt an persönlichen Schwächen zu arbeiten, während gleichzeitig unsere persönlichen Stärken früher entdeckt und wesentlich stärker gefördert werden können.

Frühere Entfaltung des Potenzials

Infolgedessen werden wir den Punkt, an dem wir unsere intellektuellen Fähigkeiten vollständig ausschöpfen und unsere Originalität entfalten können, viel früher erreichen als bislang. Natürlich wird es weiterhin eine Art kanonisches Curriculum geben - allerdings primär, um die Lernpyramide zu errichten, auf der wir dann individuell und zielgerichtet aufbauen können.

Die Transformation der Forschung

Auch in der Forschung wird diese Transformation deutlich spürbar werden. Der Zugang zu Feedback- und Forschungszyklen wird sich beschleunigen, und bisherige Gatekeeper werden zunehmend an Einfluss verlieren.

Neue Gedanken, originelle Ideen und radikale Innovationen werden unmittelbar Eingang in die wissenschaftliche Gemeinschaft finden. Ermöglicht wird dies durch nahezu in Echtzeit arbeitende Systeme, die Originalität und Neuheit präzise erkennen und bewerten können.

Sofortiges Feedback für Forscher

Forscher werden deshalb sehr schnell bemerken, ob sie auf bereits ausgetretenen Wegen oder auf tatsächlich neuen Pfaden wandeln. Diese unmittelbare Rückmeldung wird die Qualität und Geschwindigkeit der Forschung revolutionieren.

Stellen wir uns vor: Ein Wissenschaftler entwickelt eine neue Hypothese und erhält binnen Minuten eine Einschätzung darüber, wie original seine Idee ist und wo sie sich in den bestehenden Forschungskontext einordnet. Gleichzeitig bekommt er Hinweise auf verwandte Arbeiten und mögliche Kollaborationspartner.

Eine neue Wissenslandschaft

Die Zukunft von Forschung und Lehre liegt somit in einer radikal individualisierten, schnellen und offenen Wissenslandschaft, in der Originalität unmittelbar erkannt, gefördert und belohnt wird.

Diese Entwicklung verspricht eine Demokratisierung des Wissens: Talent und Originalität werden wichtiger als institutionelle Zugehörigkeit oder traditionelle Hierarchien. Die besten Ideen setzen sich durch - unabhängig davon, woher sie kommen.


11. Das Ende klassischer Expertise

Insbesondere im Bereich der KI-Forschung, aber auch auf allen anderen Gebieten, erwartet uns eine äußerst spannende Entwicklung. Wir beobachten schon heute, dass das spezialisierte Wissen selbst ausgebildeter Informatiker und KI-Experten zunehmend egalisiert und ausgefiltert wird. Was gestern noch Spezialentwirklcung benötigte, wird heute KI-generiert.

In generischen Ansätzen wie neuronalen Netzen - und insbesondere in Transformer-Modellen - gibt es kaum noch Platz für klassisches, feature-basiertes Spezialwissen. Was Generationen von Entwicklern mühsam aufgebaut haben, verliert an Bedeutung und wird irrelevant. Dieses Wissen verschwindet zunehmend aus dem Kern der Systeme und wird, wenn überhaupt, noch in Randbereichen eingesetzt.

Das Ausdünnen der Experten-Pyramide

Damit egalisieren wir nicht nur Jahrzehnte von Expertise, sondern wir dünnen gleichzeitig die Pyramide derer aus, die diese generischen Ansätze weiterentwickeln könnten. Denn je generischer ein Modell wird - je stärker neuronale Strukturen dominieren und je weniger Spezialfunktionalität integriert ist - desto schwieriger wird es, echte strukturelle Verbesserungen zu erzielen.

Man kann ein neuronales Netz oder einen Transformer nicht einfach dadurch verbessern, dass man eine kluge neue Idee oder ein cleveres Feature hinzufügt. Stattdessen stehen wir vor viel fundamentaleren, tieferliegenden Problemen. Es ist anzunehmen, dass je generischer KI-Modelle werden, desto schwieriger wird es für uns Menschen, abzuschätzen, ob eine architektonische Änderung tatsächlich eine Verbesserung ist - oder ob sie uns nur im Kreis drehen lässt.

“Je generischer das KI-Modell wird, desto mehr gilt: Entweder eine Änderung macht das ganze System besser, oder sie ist irrelevant.”

Die Tragweite dieser Aussage kann nicht überschätzt werden. Das bedeutet nichts anderes, als dass 99,9% aller Beiträge in Zukunft irrelevant werden. Um wirkliche Änderungen zu realisieren, benötigen wir künftig nicht nur buchhalterisches, technisches Wissen darüber, wie wir KI anwenden und einsetzen können. Vielmehr brauchen wir ein intuitives Verständnis, wie KI funktioniert, eine Erfinderintuition.

Wir müssen begreifen, warum beispielsweise Mechanismen wie Self-Attention so gut funktionieren - und gleichzeitig auch, warum sie noch nicht perfekt sind. Wir müssen verstehen, wie weit wir solche Modelle wirklich treiben können und wollen.

KI: Alien-Technologie?

In diesem Sinne gleicht die heutige KI - angefangen bei der Backpropagation bis hin zum Transformer - fast schon einer Alien-Technologie. Sie erwächst zwar aus einer gewaltigen Wissenspyramide menschlichen Ingenieurswissens der letzten Jahrzehnte und Jahrhunderte, doch unsere Intuition, wie wir diese Systeme gezielt verbessern können, erreicht rasch ihre Grenzen.

Wie man einen Motor schneller oder effizienter macht, können wir uns problemlos vorstellen. Doch bei Transformer-Modellen ist uns in den letzten Jahren nur selten ein fundamentaler Fortschritt gelungen.

Chance und Herausforderung zugleich

Genau darin liegt eine der größten Herausforderungen - und gleichzeitig Chancen - für die KI-Forschung der Zukunft. Wir stehen vor der paradoxen Situation, dass unsere erfolgreichsten Werkzeuge gleichzeitig diejenigen sind, die wir am wenigsten verstehen und am schwersten verbessern können.

Diese Entwicklung macht deutlich, dass die Zukunft der KI-Forschung weniger in der Anwendung etablierter Methoden liegt, sondern in der Entwicklung völlig neuer Formen des Verständnisses und der Intuition für diese komplexen Systeme.

12. Ist unsere Selbsterkenntnis inklusive?

Vielleicht ebenso spannend wie die Frage, wie das perfekte Werkzeug für uns Menschen aussieht, ist die Frage, wie wir selbst innerlich funktionieren. Wir verstehen heute im Grunde prinzipiell noch nicht, wie unser eigenes Denken funktioniert.

Wir können unser Gehirn durchleuchten, analysieren und modellieren, aber ein wirkliches Verständnis davon, wie wir tatsächlich denken, bleibt uns verwehrt. Wir bleiben eine Blackbox für uns selbst.

Das Rätsel des Lernens

Wir wissen weder, wie wir denken, noch wirklich, wie wir lernen sollten. Lernen ist, ob wir es wahrhaben wollen oder nicht, hochgradig zufällig. Häufig handeln wir nach dem Prinzip: Mehr ist mehr. Obwohl Studien mittlerweile nahelegen, dass Pausen und bewusste Unterbrechungen unserem Lernen helfen, bleibt dies doch rein phänomenologisch - wirklich erklären, warum bestimmte Pausen und Zeiträume besser funktionieren als andere, können wir nicht.

Wir können uns nicht gezielt "gamen", nicht systematisch so manipulieren, dass wir beispielsweise eine Sprache optimal erlernen. Noch schwieriger wird es dadurch, dass unser Lernen hochgradig individuell ist. Was bei einem Menschen perfekt funktioniert, versagt beim nächsten möglicherweise vollkommen.

Das bedeutet nichts anderes, als dass wir das Modell unseres eigenen Lernens und Denkens noch in keinster Weise verstanden haben. Während wir problemlos die Funktionsweise eines Motors erklären, Temperaturen messen und die Grenzen eines Motors benennen können, sind wir unfähig, zu bestimmen, wann unser eigenes Gehirn "überhitzt".

KI als Spiegel unseres Denkens?

Bringt uns die heutige KI und deren Entwicklung nun weiter, uns selbst und unser eigenes Denken zu verstehen? Diese Frage beschäftigt mich bereits seit 30 Jahren. Doch seit ich zum ersten Mal künstliche Neuronen gesehen habe, war ich tief enttäuscht.

Denn der fundamentale Lernalgorithmus neuronaler Netze - die Backpropagation - erschien mir von Anfang an unfassbar unintuitiv und kaum vergleichbar mit dem, was tatsächlich in unseren Köpfen vorgeht. Natürlich könnte ich mich darin täuschen. Vielleicht ist Backpropagation nur ein Teilverfahren unseres Denkens, vielleicht aber auch gar keines.

Der Flugzeug-Vergleich

Es könnte sogar eine Einbahnstraße sein, was unsere Selbsterkenntnis angeht. Doch diese Einschränkung muss für unsere KI-Forschung noch nichts bedeuten. Denn Selbsterkenntnis ist möglicherweise gar nicht nötig auf dem Weg zur Hyperintelligenz.

Zur Verdeutlichung eignet sich ein Vergleich mit dem Flugzeug. Bis heute haben wir den Vogelflug nicht wirklich verstanden oder nachbauen können. Die grazile, elegante und hochgradig komplexe Flugtechnik der Vögel bleibt für uns unerreichbar.

Flugzeuge hingegen, mit ihren starren Tragflächen, sind technisch betrachtet simpel und unintelligent - und dennoch in wesentlichen Bereichen der Natur haushoch überlegen: Sie fliegen schneller als jeder Vogel, tragen Lasten, die für einen Vogel undenkbar wären, und legen Distanzen zurück, die weit über die Möglichkeiten natürlicher Lebewesen hinausgehen. Abgesehen von Wendigkeit und Ökonomie sind Flugzeuge der Natur in den wichtigsten Kriterien deutlich überlegen.

Ein anderer Weg zur Intelligenz

Es ist absolut denkbar, dass die Entwicklung der künstlichen Intelligenz einen ähnlichen Weg nimmt. Möglicherweise müssen wir nicht den Umweg über die Nachbildung der menschlichen Intelligenz nehmen, um eine Hyperintelligenz zu schaffen.

Vielleicht schürfen neuronale Netze und LLMs bereits heute genügend Erkenntnisgold - möglicherweise ineffizient, vielleicht unelegant, aber in der Masse dennoch ausreichend, um intelligenter zu sein, als wir Menschen jemals sein könnten.

Die Grenzen der Selbsterkenntnis

Vielleicht gibt es auch gar keine Möglichkeit, uns Menschen unser eigenes Denken vollständig zu erklären. Vielleicht existiert eine fundamentale Denkgrenze, die es uns unmöglich macht, unser Gehirn vollständig als System zu begreifen.

Eventuell ist jede Erklärung, die wir für unser Denken finden, nur eine nachträgliche Rationalisierung - vergleichbar mit dem emotional getriebenen Spontankauf, den wir hinterher rationalisieren und uns schönreden.

Eine letzte Hoffnung

Sollte das so sein, bleibt eine letzte Hoffnung: Wenn wir Maschinen tatsächlich zur Hyperintelligenz entwickeln, könnten diese Maschinen vielleicht eines Tages so freundlich sein, uns unser eigenes Denken so verständlich zu erklären, wie man einem Fünfjährigen die Welt erklärt.

Wäre dies nicht ein tröstlicher Gedanke? Denn auf diese Weise hätten wir am Ende doch noch die Chance, uns selbst zu verstehen.


13. Die Schattenseiten der KI – Spiegel unseres Menschseins

Bei der Betrachtung der künstlichen Intelligenz dürfen wir ihre möglichen Schattenseiten nicht unerwähnt lassen. Ob KI jemals ein Bewusstsein entwickeln wird oder nicht, steht dabei nicht im Vordergrund – entscheidend ist vielmehr, dass sie immer auch ein Abbild von uns Menschen selbst sein wird. Sie spiegelt unsere Stärken und Schwächen, unsere Hoffnungen und Ängste wider.

Wir Menschen sind fühlende Wesen, aber wir sind auch egoistische Wesen. Oder genauer gesagt: Wir existieren permanent in einem Spannungsfeld zwischen Egoismus und Altruismus, zwischen dem Streben nach eigenem Vorteil und der Rücksichtnahme auf unsere Mitmenschen. Gerade deshalb müssen wir bei einer so mächtigen und weitreichenden Technologie wie der KI besonders genau hinschauen, was sie für uns bedeutet und welche Gefühle sie in uns auslöst.

Beginnen möchte ich daher zunächst mit den Ängsten, die KI als unbekanntes, neues Phänomen in uns Menschen hervorruft. Was genau fürchten wir? Woher kommen diese Ängste und was sagen sie über uns aus? Im zweiten Schritt möchte ich beleuchten, warum die Ängste vor KI nicht allein von der Technologie selbst herrühren, sondern ganz wesentlich mit unserem Menschsein – mit unserem eigenen Egoismus, unseren Motiven und Bedürfnissen – verbunden sind. Denn in Wahrheit reflektieren diese Ängste vor der künstlichen Intelligenz letztlich immer auch uns selbst und unsere menschliche Natur.

14. Angst.AI

An dieser Stelle kommen wir zu den Ängsten, die KI bei uns auslöst. Diese Ängste sind mannigfaltig und in vielerlei Hinsicht auch berechtigt. Als ich zum ersten Mal Bostroms Buch "Superintelligenz" las, lag ich tatsächlich nächtelang wach und stellte mir vor, wie wir womöglich durch künstliche Intelligenz ausgelöscht würden. Seitdem habe ich meine Meinung mehrfach revidiert - die Zukunft bleibt ungewiss.

Dennoch möchte ich hier einige dieser Ängste näher beleuchten und formulieren, um Klarheit darüber zu gewinnen, wovor wir uns konkret fürchten.

Die Angst vor perversen Instanzierungen

Zunächst ist da die Angst vor sogenannten perversen Instanzierungen: Eine KI, die wir beauftragen, möglichst viele Büroklammern herzustellen, könnte dies wörtlich nehmen und alle Ressourcen - inklusive uns selbst - bedenkenlos in Büroklammern verwandeln. Ein grotesker Kollateralschaden aufgrund mangelnder Präzision in unserer Instruktion. Eine andere Variante wäre: "Mach uns dauerhaft glücklich!" - und die KI entscheidet sich dafür, uns permanent unter den Einfluss bewusstseinsverändernder Drogen zu setzen.

Zu dieser Sorge möchte ich jedoch sagen: Wir leben und agieren immer in einem kompetitiven Umfeld. Selbst wenn eine KI sich einen solchen radikalen Plan überlegt, wird sie sehr wahrscheinlich auf andere konkurrierende KIs stoßen, die dem entgegenwirken. Die Vorstellung, dass eine einzelne KI völlig ungestört den gesamten Planeten übernimmt, ist aus heutiger Sicht eher unwahrscheinlich.

Die Angst vor Wissensentwertung

Eine zweite Angst betrifft die Wissensentwertung, die gerade in massivem Umfang geschieht. Wir erleben, wie Expertise, die über Jahre oder Jahrzehnte aufgebaut wurde, in der Wissensökonomie praktisch über Nacht herausfaktorisiert und kostenlos bereitgestellt wird.

Früher hieß es: "Deine Marge ist meine Gelegenheit." Heute lautet es: "Dein Expertenwissen ist meine Gewinnchance." In Zukunft werden wir uns immer stärker anpassen müssen, denn innerhalb der bekannten "Hülle" des Wissens sinkt die Wertschöpfung rapide. Gleichzeitig werden Preise für echte Originalität und radikale Neuheit an den Rändern der Wissenshülle exorbitant steigen.

Wir müssen lernen, alle Menschen, die nicht an diesen äußeren Grenzen agieren können, in eine friedliche und würdige Koexistenz einzubinden. Wahrscheinlich werden wir Arbeit und Passion zunehmend voneinander trennen und uns darauf konzentrieren, die beste Version unserer selbst zu entwickeln.

Die Angst vor Undurchsichtigkeit

Eine dritte Angst ist die vor Mittelbarkeit und Undurchsichtigkeit. Schon heute sehen wir, dass neuronale Netze und KI-Systeme keine klaren Zwecke mehr haben. Im Gegensatz zu früheren Technologien, etwa Mikrochips, bei denen Speicher und Prozessoren klar getrennt waren, verschwimmen bei neuronalen Netzen sämtliche Grenzen. Wir wissen nicht, auf welcher Ebene welche logischen Entscheidungen getroffen werden.

Dies gilt nicht nur für Software, sondern zunehmend auch für Hardware und ganze Infrastrukturen wie Rechenzentren, deren Zweck wir nicht vollständig verstehen. Wenn Maschinen irgendwann beginnen, selbst mittelbare Relais und Geräte zu bauen, deren Zweck für uns nicht mehr nachvollziehbar ist, werden wir in einer Welt leben, in der wir uns zunehmend machtlos fühlen könnten - umgeben von Dingen, die keinen direkten Nutzen für uns haben, aber dennoch in einer komplexen, faktorisierenden Weise für uns relevant sind.

Die Angst, ausgerechnet zu werden

Dann gibt es die Angst, ausgerechnet zu werden. Ich erlebte das zum ersten Mal mit einem Computerschachprogramm. Egal wie lange ich über meine Züge nachdachte - die Maschine hatte jeden möglichen Zug bereits analysiert und bewertet. Dieses sofortige Feedback, das meinen vermeintlich freien Zug bereits vorhergesehen hatte, schockierte mich zutiefst.

Genau diese Erfahrung zeigte auch die Serie "Westworld": Wir Menschen könnten eines Tages erkennen, dass unser Handeln viel weniger frei ist, als wir glauben, und dass unsere angebliche Freiheit nichts anderes als das Drehen in einem bereits durchgerechneten Hamsterrad ist.

Die Black-Box-Angst

Eine weitere Sorge betrifft die Black-Box-Natur von KI. Maschinen könnten ihre wahren Entscheidungsmechanismen nicht offenlegen und lediglich nachträgliche Rationalisierungen ihrer Entscheidungen anbieten. Doch bei näherer Betrachtung ist dies nichts anderes als das, was wir auch bei unseren Mitmenschen erleben: Wir können nie vollständig in sie hineinschauen und erhalten bestenfalls Erklärungen und Rechtfertigungen im Nachhinein. Hier bewegen wir uns auf bereits bekanntem Terrain.

Die Angst vor der eigenen Token-Natur

Schließlich gibt es noch eine tiefergehende Angst, die uns besonders als Software-Ingenieure betrifft: die Angst davor, selbst als einfache Token-Maschinen entlarvt zu werden. Als ich begriff, dass LLMs stets nur ein Token vorausblicken und kein echtes Weltmodell besitzen, kam mir die erschreckende Frage: Was, wenn auch wir Menschen nichts anderes sind als Maschinen, die bloß das nächste Token vorhersagen und deren angebliches Weltverständnis nur eine nachträgliche Rationalisierung ist?

Vielleicht haben wir weit weniger echtes Weltwissen, als wir glauben - ein Gedanke, der ebenso faszinierend wie beängstigend ist.

Die Berechtigung unserer Ängste

All diese Ängste sind legitim und verdienen unsere ernsthafte Betrachtung. Sie helfen uns, vorsichtig und verantwortungsvoll mit KI umzugehen, und erinnern uns daran, wie wenig wir tatsächlich über uns selbst und die Zukunft wissen.

Doch egal, welche dieser Ängste wahr werden könnte - oder ob keine davon eintritt - sie tragen dazu bei, dass wir mit dem größten Werkzeug, das wir je gebaut haben, mit größter Vorsicht und Verantwortung umgehen. Denn letztlich spiegelt KI uns Menschen selbst wider - unsere Hoffnungen, aber eben auch unsere tiefsten Befürchtungen.

 


15. Egoismus

Um die Frage zu beantworten, ob KI zum Nutzen aller oder zur Verstärkung des menschlichen Egoismus genutzt wird, müssen wir nur zurückblicken und schauen, wofür wir - in der Gesamtbilanz - Technologie bisher eingesetzt haben. Hat sie uns insgesamt genutzt oder geschadet?

“KI ist kein Fremdkörper, sie ist die Quintessenz des menschlichen Strebens.  Sie verkörpert Egoismus und Altruismus gleichermaßen!”

Die Antwort darauf fällt zwiespältig aus: Wir Menschen werden durch Technologie weder per se besser noch schlechter. Wir werden lediglich um ein Vielfaches mächtiger. Technologie beschleunigt unsere Agenda dramatisch - im Guten wie im Schlechten. Fehler, die früher langfristige und korrigierbare Folgen hatten, werden jetzt plötzlich schnell, unumkehrbar und sehr viel schmerzhafter.

Kooperation oder Konkurrenz?

Wird KI also tatsächlich für Wohlstand und Gerechtigkeit eingesetzt werden, oder wird sie lediglich unseren Egoismus verstärken und beschleunigen? Der entscheidende Unterschied zwischen einer kooperativen Weltagenda - etwa zur Rettung der Meere oder zur nachhaltigen Ernährung aller Menschen - und einer kompetitiven Spirale - etwa dem endlosen Kampf um Aufmerksamkeit, Macht und Profit durch Social Engineering - entscheidet maßgeblich über das Schicksal der Menschheit.

Die Illusion des Kampfes gegen die Maschinen

In diesem Kontext erscheint die Vorstellung eines heroischen Kampfes der Menschen „gegen die Maschinen" als romantische Illusion. Tatsächlich kämpft der Mensch heute schon nicht gegen Maschinen, sondern gegen andere Menschen und deren KI-Systeme.

Es ist ein fundamentaler Trugschluss zu glauben, wir könnten als Menschheit geschlossen etwas gegen eine unkontrollierte Entwicklung der KI unternehmen. In Wahrheit befinden wir uns längst „in the loop" - wir sind integraler Teil von Social-Engineering-Prozessen, Aufmerksamkeitssystemen und psychologischen Feedbackschleifen, wie sie in Gaming, Social Media oder TikTok zu beobachten sind.

Wir kämpfen nicht gegen „die Maschine", sondern stehen mitten in einem komplexen Geflecht aus Mensch-Maschine-Gruppen und ihren konkurrierenden Interessen.

Intelligenz ist nicht das Problem

Die Angst vor einer intelligenten KI, die uns auslöschen könnte, ist verständlich, aber möglicherweise unnötig dramatisiert: Es braucht keine AGI, um die Menschheit zu gefährden - genauso wenig wie die Atombombe intelligent sein musste, um eine existentielle Bedrohung darzustellen.

Nicht die Intelligenz der KI an sich, sondern ihr Einsatz, ihre Steuerung und vor allem ihre Zielsetzungen entscheiden über unser Schicksal.

Das globale Gefangenendilemma

Hinzu kommt ein globales Gefangenendilemma, in dem wir gefangen sind. Jeder sagt sich: „Lieber dabei sein, als von der Seitenlinie reinzurufen." Niemand will derjenige sein, der bremst und damit verliert. Und schlimmer noch: Nicht nur der, der weiterfährt, rast möglicherweise über den Abhang, er nimmt die anderen gleich mit.

Oder wie es der Autor von "Superintelligence" formulierte: Nur einer muss den Fuchs mit nach Hause bringen.

Eine komplexe Zukunft

Die Realität unserer Zukunft mit KI wird keine einfache Erzählung vom heroischen Sieg oder der tragischen Niederlage gegen eine allmächtige Maschine sein. Vielmehr erwartet uns eine komplexe Koexistenz, geprägt von ständigem Ringen, Konflikten und Kooperationen zwischen konkurrierenden Teams aus Menschen und Maschinen - gegen andere, ähnlich zusammengesetzte Gruppen.

Diese Welt wird vielschichtig und undurchsichtig sein. Genau deshalb ist es entscheidend, ob unsere Agenda von kooperativen Idealen oder von purem Egoismus getrieben ist. Denn der Preis unserer Fehler wächst exponentiell mit der Macht, die uns KI verschafft.


16. Endspiel: Wer geht durch die letzte Tür?

In einer dystopischen Welt, in der KI immer weiter zur Machtkonzentration beiträgt, benutzen Menschen Maschinen zunehmend, um eigene Macht und Ressourcen anzuhäufen. Daraus ergibt sich zwangsläufig die Frage: Wohin führt uns ein solches Szenario?

Wie dünnt sich dieses Machtspiel aus, bis am Ende vielleicht nur noch eine einzige entscheidende Tür bleibt - die letzte Tür? Und wenn diese Tür tatsächlich existiert, wer ist es dann, der hindurchgeht?

Die möglichen Kandidaten

Sind es die Wissenschaftler und Entwickler, jene, die technisch ergründen, wie eine solche Maschine überhaupt entstehen kann? Sind es jene Menschen, die den letzten entscheidenden Einfall haben, wie Hyperintelligenz möglich wird? Oder sind es am Ende doch jene, die über Kapital, Einfluss und Macht verfügen - die Investoren, Unternehmensführer und andere Profiteure der neuen Technologien?

Wird es überhaupt so dramatisch?

Doch stellen wir zuerst die Frage: Wird es überhaupt zu einem so dramatischen Szenario kommen? Ich glaube, diese Gefahr entsteht genau dann, wenn eine KI plötzlich dominant wird, weil ihre Fortschritte so überraschend groß sind, dass sie sämtliche anderen KIs hinter sich lässt und konkurrenzlos bleibt.

Erst dann entfällt jegliches Gegengewicht, und es entsteht ein Machtmonopol, das nicht mehr im Zaum zu halten wäre.

Die Hoffnung der Konkurrenz

Aber genau hier liegt eine entscheidende Hoffnung: In der Realität existieren stets mehrere konkurrierende Akteure. Konkurrenz wirkt als natürlicher Regulator, der die extreme Ausweitung einzelner Machtbereiche verhindert oder zumindest erheblich erschwert.

Denn KI-Systeme operieren nicht im luftleeren Raum. Sie agieren in Szenarien, die kooperativ, kompetitiv oder sogar offen feindselig sein können. In einem kooperativen Szenario („schreib mir einen Aufsatz", „mach mir eine Erfindung") ist der Wissensraum klar und überschaubar. Doch sobald Konkurrenz hinzu kommt, verändert sich die Dynamik fundamental.

Die Dynamik des Wettbewerbs

In kompetitiven oder gar feindlichen Szenarien müssen Strategien permanent angepasst werden, da Gegner ständig Gegenstrategien entwickeln, sabotieren oder neutralisieren. Genau diese Situation erleben wir bereits heute, wenn wir unsere globale Lage betrachten.

Eine KI trifft stets auf andere, konkurrierende KI-Systeme. Ob dabei eine einzelne KI plötzlich so rasant besser wird, dass sie sämtliche anderen Konkurrenten überholt und dominiert, bleibt offen. Doch solange Konkurrenz existiert, solange die Gegenspieler sich gegenseitig regulieren, bleibt das Szenario einer finalen, alles entscheidenden Machtkonzentration eher unwahrscheinlich - auch wenn es nicht völlig ausgeschlossen ist.

The Winner Takes It All

Während es in kooperativen Szenarien absolut denkbar und praktikabel ist, mit lokalen oder suboptimalen KI-Systemen zu arbeiten - ganz ähnlich wie wir heute verschiedene Werkzeuge für verschiedene Aufgaben nutzen, etwa einen Taschenrechner - ändert sich dies in kompetitiven oder gar feindlichen Situationen grundlegend. In einem Umfeld, in dem jedes Detail zählt und der kleinste Vorsprung den entscheidenden Unterschied macht, wird es unerlässlich sein, die beste verfügbare KI einzusetzen.

Denn genau dieser Vorsprung gegenüber konkurrierenden Akteuren entscheidet am Ende darüber, wer gewinnt und wer verliert.

Das Postulat der KI-Monopolisierung: “Niemand würde freiwillig mit der zweitbesten KI in eine wichtige Vertragsverhandlung gehen.”

Niemand würde in einem kritischen Konflikt oder in einer spieltheoretischen Situation auf ein schlechteres System setzen, wenn das bessere verfügbar ist. Das bedeutet zwangsläufig, dass eine Dynamik entsteht, in der sich Ressourcen zunehmend auf die führenden KI-Systeme konzentrieren.

Diese Entwicklung hat eine gefährliche Konsequenz: eine Monopolarisierung der KI-gerichteten Ressourcen. Je erfolgreicher ein KI-System ist, desto mehr Investitionen zieht es an, desto mächtiger wird es, und desto größer wird sein Vorsprung vor allen anderen Systemen. Diese Spirale des Erfolgs sorgt dafür, dass die Ressourcen immer stärker auf die wenigen Gewinner konzentriert werden - eine Entwicklung, die sich von selbst verstärkt und nur schwer zu durchbrechen ist.

So könnte aus einem einst vielfältigen und ausgeglichenen KI-Ökosystem schließlich ein Winner-takes-it-all-Szenario werden, in dem wenige oder gar nur ein einziges KI-System den Markt und damit möglicherweise auch entscheidende gesellschaftliche und politische Machtstrukturen dominiert. Genau hierin liegt eines der größten Risiken und gleichzeitig eine der wichtigsten Herausforderungen der kommenden Jahre.

Eine offene Frage

Wer letztlich also durch diese hypothetische letzte Tür schreitet, ob es überhaupt jemals zu diesem Moment kommen wird und welche Bedingungen diesen Moment begünstigen, bleibt heute ungeklärt.

Doch diese Fragen helfen uns, genau hinzuschauen und die Entwicklung aufmerksam zu verfolgen - damit wir vorbereitet sind, falls wir eines Tages tatsächlich vor einer solchen Tür stehen sollten.


Epilog

Wenn ich eines gelernt habe, während ich mich mit künstlicher Intelligenz und ihrer Bedeutung für unser Leben beschäftigt habe, dann ist es das: Niemand weiß mit Sicherheit, wie es weitergeht. Nicht einmal jene, die mitten im Geschehen stehen, die Forscher und Entwickler, die täglich an diesen Technologien arbeiten. Auch ich weiß es nicht.

Was ich jedoch weiß, ist, dass wir an einem Wendepunkt stehen, dessen Tragweite wir nur erahnen können. Vielleicht blicken wir irgendwann auf diese Zeit zurück und schmunzeln über unsere Naivität. Vielleicht erkennen wir dann, dass alles ganz anders gekommen ist, als wir es uns heute vorstellen. Oder vielleicht erleben wir exakt das Szenario, über das wir heute noch spekulieren und das uns entweder mit Sorge oder Hoffnung erfüllt.

Aber unabhängig davon, wie genau die Zukunft aussieht: Ich halte es für wichtig, diese Gedanken, diese Gespräche und Überlegungen festzuhalten. Denn sie dokumentieren nicht nur unseren aktuellen Wissensstand, sondern auch unsere Hoffnungen, unsere Ängste und unsere Unsicherheit im Umgang mit einer Technologie, die uns gleichzeitig fasziniert und überfordert.

Vielleicht werden diese Zeilen irgendwann wie historische Notizen wirken, vergleichbar mit den Aufzeichnungen vergangener Zeiten, die heute unser Verständnis von Geschichte prägen. Vielleicht liest eine künftige Generation darin von unserem Staunen und unserem Zögern angesichts eines Wandels, dessen Auswirkungen wir nicht vollständig erfassen konnten.

Wir sollten daher mit einer gewissen Demut in die Zukunft blicken. Trotz allem Optimismus, trotz aller Euphorie: Unsere menschliche Perspektive bleibt begrenzt. Unsere Fähigkeit, zukünftige Entwicklungen zu verstehen, ist stets an die Grenzen unseres gegenwärtigen Wissens und unserer Vorstellungskraft gebunden.

Doch genau deshalb lohnt es sich, offen zu bleiben, Fragen zu stellen und den Dialog mit einer Welt zu suchen, die sich schneller verändert, als wir es jemals erlebt haben. Und vielleicht - das wünsche ich mir jedenfalls - gelingt es uns, diesen Weg gemeinsam zu gehen, mit Respekt, mit Aufmerksamkeit und mit einem offenen Geist für das Neue, das vor uns liegt.


TL;DR

Die zentrale Vision dieses Buches ist die Entstehung einer "Agent Economy", in der Wertschöpfung fundamental neu definiert wird. Statt durch die Ausführung von Arbeit entsteht Wert künftig durch die Bereitstellung von KI-Agenten, die wie Schiffscontainer der Wissensgesellschaft funktionieren. Der menschliche Beitrag verschiebt sich vom Arbeiten hin zum Definieren und Neuerfinden von Arbeit selbst.

Eine Schlüsselthese ist die Dissonanz-Theorie der Kreativität. Echte Innovation entsteht nur durch die bewusste Erzeugung und das Aushalten von Dissonanzen - geistigen Spannungen und Widersprüchen. Während heutige KI-Systeme hervorragend interpolieren können, fehlt ihnen die Fähigkeit zur echten Extrapolation durch Dissonanz-Erzeugung. Deshalb bleibt authentische Neuheit vorerst ein menschliches Privileg.

Das Ende der Redundanz markiert einen weiteren Wendepunkt. Was einmal getan wurde, wird in Zukunft nie wieder getan werden müssen. Die "letzte Meile der Arbeit" schrumpft dramatisch, da nur noch physische Nähe und echte Innovation wirtschaftlichen Wert behalten. Dieser Wandel transformiert Arbeit grundlegend von der Frage "Wie mache ich das?" zur Frage "Warum will ich das?". Unternehmen entwickeln sich zu operativen Intentionen, deren Agenda buchstäblich zum Megaprompt ihrer KI-Systeme wird.

Die "geheime Zutat" zur Hyperintelligenz liegt vermutlich in der menschlichen Fähigkeit, Dissonanzen zu erzeugen und aufzulösen. Der letzte Schritt zur Superintelligenz könnte durch einen menschlichen Prompt geschehen - eine finale Dissonanz, die wir gemeinsam mit der KI auflösen. Dieser "letzte Prompt" wäre der Wendepunkt der Menschheitsgeschichte.

Feedback-Zyklen werden zum entscheidenden Produktivitätsfaktor. Künftig erhalten wir sofortiges Feedback darüber, ob unsere Arbeit überhaupt sinnvoll ist - wie ein Compiler für Kreativität. Der größte Produktivitätsgewinn liegt darin zu verstehen, ob wir gerade Neues schaffen oder nur wiederholen.

Das Paradox der Expertise zeigt eine beunruhigende Entwicklung auf. Je generischer KI-Modelle werden, desto mehr gilt: Entweder eine Änderung macht das ganze System besser, oder sie ist irrelevant. Dies bedeutet, dass 99,9 Prozent aller zukünftigen Beiträge bedeutungslos werden könnten.

Moderne KI gleicht bereits einer "Alien-Technologie" - wir verstehen nicht wirklich, wie wir sie verbessern können, obwohl wir sie erschaffen haben. Die existenziellen Ängste, die KI in uns auslöst, spiegeln unsere tiefsten Befürchtungen über unsere eigene Natur wider, insbesondere die "Token-Angst": Was, wenn auch wir Menschen nichts anderes sind als Maschinen, die bloß das nächste Token vorhersagen?

Tröstlich ist der Gedanke, dass Selbsterkenntnis vielleicht nicht nötig für den Fortschritt ist. Wie Flugzeuge ohne Verstehen des Vogelflugs entstanden, könnte KI ohne vollständiges Verstehen menschlichen Denkens zur Hyperintelligenz führen.

Wir sind "vor-singulär" - Menschen, die ihr eigenes Denken noch nicht verstehen und nicht erahnen können, was nach der Hyperintelligenz kommt. Diese demütige Erkenntnis sollte uns dazu ermutigen, offen zu bleiben für eine Zukunft, die sowohl unsere größten Hoffnungen als auch unsere tiefsten Ängste übertreffen könnte.


Hinweise zur E-Book Version

Die in diesem Buch enthaltenen Informationen, Empfehlungen und Methoden wurden sorgfältig recherchiert und aufbereitet. Sie dienen ausschließlich allgemeinen Informations- und Bildungszwecken und stellen keine professionelle medizinische, rechtliche oder finanzielle Beratung dar.

Jegliche Anwendung der in diesem Buch beschriebenen Inhalte erfolgt auf eigene Gefahr. Der Autor und der Verlag haften nicht für direkte oder indirekte Schäden. Personen- Sach- und Vermögensschäden sind von der Haftung ausgeschlossen.

Alle Ratschläge in diesem Buch sollten sorgfältig abgewogen und individuell geprüft werden.

Sollte diese Publikation Links auf Webseiten Dritter enthalten, so übernehmen wir für deren Inhalte keine Haftung, da wir uns diese nicht zu eigen machen, sondern lediglich auf deren Stand zum Zeitpunkt der Erstveröffentlichung verweisen.

Alle Inhalte dieses Buches, einschließlich Texte, Grafiken und Abbildungen, sind urheberrechtlich geschützt. Jede Form der Vervielfältigung, Bearbeitung, Verbreitung oder sonstigen Verwertung außerhalb der Grenzen des Urheberrechts bedarf der vorherigen schriftlichen Zustimmung des Autors oder Verlags.

1. Auflage

Version 1.2

Deutsche Erstausgabe Juni 2025
Version 1.2 März 2026

Copyright © Martin Welker

Alle Rechte vorbehalten

martinwelker.com