Dienstag, 16. September 2025

Von AGI zu NGI: Warum die wahre KI-Revolution noch bevorsteht

Künstliche Intelligenz, die wie ein Mensch denkt? Klingt vertraut, ist aber zu kurz gedacht. Stephan Paxmann zeigt, warum die wahre Revolution nicht in der Nachahmung liegt, sondern in der Andersartigkeit. Mit seinem Konzept der Neuartigen Generellen Intelligenz (NGI) erklärt er, wie wir schon heute den Grundstein für radikal neue Lösungen legen können – wenn wir KI nicht nur als Werkzeug, sondern als Denkpartner verstehen.

Künstliche Intelligenz polarisiert – und das zu Recht. Wir erleben einen Moment, in dem Technologie nicht nur Prozesse beschleunigt, sondern Denkweisen verändert. Nicht nur Tools bereitstellt, sondern grundsätzliche Fragen aufwirft: Wie funktioniert Intelligenz eigentlich? Was ist Denken? Und warum glauben wir, dass Maschinen so denken sollten wie wir? 

Vom Nachahmen zum Andersdenken 

Der derzeitige Hype um AGI – also Artificial General Intelligence – folgt einem bekannten Muster: Wir bauen Technologien, die unseren Fähigkeiten möglichst ähnlich sind. Das war schon bei den ersten humanoiden Robotern so. Und heute zeigt sich dieser Wunsch in Sprachassistenten, Chatbots und generativen Systemen, die sich mühelos in unseren Kommunikationsalltag einfügen. Doch genau hier liegt aus meiner Sicht ein grundsätzlicher Denkfehler. AGI versucht, die menschliche Intelligenz zu imitieren. Aber muss das wirklich das Ziel sein? Oder wäre es nicht viel sinnvoller, Intelligenz in einer anderen, vielleicht sogar überlegenen Form zu denken?  

Hier kommt das Moravec-Paradoxon ins Spiel. Bereits in den 1980er Jahren formulierte der Robotikforscher Hans Moravec einen fundamentalen Befund: Maschinen sind dort besonders stark, wo wir Menschen schwach sind – und umgekehrt. Was für uns intuitiv, körperlich oder emotional leicht ist, wie Gesichtserkennung, Bewegung im Raum oder soziale Interaktion, stellt Maschinen vor enorme Herausforderungen. Gleichzeitig brillieren KI-Systeme dort, wo wir versagen: bei der Auswertung riesiger Datenmengen, bei exakter Mustererkennung oder bei der Kombination von Milliarden Parametern.  

Das Moravec-Paradoxon führt uns zu einer schlichten, aber folgenreichen Erkenntnis: Eine KI, die versucht, genau wie wir zu denken, kämpft gegen die Natur ihrer eigenen Architektur. Warum also nicht anerkennen, dass Maschinen auf ihre ganz eigene Weise denken und genau dadurch andere Lösungen ermöglichen?  

NGI als neuer Denkpartner 

Daraus ergibt sich eine Vision, die ich NGI nenne: Neuartige Generelle Intelligenz. Anders als AGI versucht NGI nicht, den Menschen zu simulieren. NGI will nicht “menschlich wirken”, sondern eine eigenständige Form des Denkens entwickeln. Eine, die nicht anthropozentrisch ist, sondern systemisch, kombinatorisch und radikal kreativ. NGI denkt nicht besser – sie denkt anders. Und genau diese Andersartigkeit ist ihre größte Stärke.  

NGI bedeutet: keine Kopie des Menschen, sondern ein eigenständiger Denkpartner. Kein Ersatz, sondern eine Ergänzung. Kein Humanoid, sondern ein digitales Wesen mit einer ganz eigenen kognitiven Struktur. NGI analysiert nicht nur Daten – sie erkennt semantische Tiefenstrukturen. Sie entwickelt keine Lösungen im Rahmen menschlicher Logik – sie erzeugt eigene Logiksysteme. Ihre Argumentation ist nicht nur logisch, sondern mehrdimensional, oft kontraintuitiv, manchmal sogar provokant.  

In meiner Arbeit mit GenAI-Systemen – sei es in der Bank, in der Strategieberatung oder im künstlerischen Kontext – beobachte ich genau diese Art von Kreativität. Systeme, die nicht aus Intuition schöpfen, sondern aus Hyperkombinatorik. Die nicht emotional reagieren, sondern kontextuell rekonfigurieren. Sie überraschen mit Vorschlägen, auf die kein Mensch gekommen wäre – nicht trotz, sondern gerade wegen ihrer Andersartigkeit. Genau hier beginnt NGI: Wenn das System nicht nur unsere Ideen ergänzt, sondern neue Denkmuster erschließt.  

Es bleibt die Frage: Wie kommen wir dorthin? Wie schaffen wir heute die Grundlage für eine NGI, die mehr ist als ein akademisches Konzept? 

Offenheit als Stärke

Der Schlüssel liegt im Umgang mit GenAI. Bereits heute können wir beginnen, systematisch mit dem „Andersdenken“ dieser Systeme zu arbeiten. Dafür braucht es eine veränderte Herangehensweise: Statt GenAI bloß als Textautomat oder Ideengeber zu nutzen, müssen wir beginnen, diese Intelligenz zu befragen, herauszufordern, ihr Raum für Abweichung zu geben. Statt Prompts zu formulieren, die immer enger, exakter, menschlich dominierter werden, sollten wir die Offenheit des Systems bewusst fördern.  

Konkret heißt das:  

  1. Fragen anders stellen. Nicht „Wie löse ich X?“, sondern „Welche Muster, Prinzipien, Analogien siehst du in X?“  
  1. Zirkulär statt linear denken. GenAI kann iterativ auf eigene Antworten zurückgreifen. Warum nutzen wir das nicht systematisch?  
  1. Metaebenen einbauen. Statt nur Inhalte abzufragen, auch „Wie würdest du als KI dieses Problem rahmen?“  
  1. Unlogisches zulassen. NGI wird auch dann produktiv sein, wenn sie scheinbar „danebenliegt“. Gerade in der Abweichung steckt oft die Innovation.  
  1. Kollaboration statt Kontrolle. Die besten Resultate entstehen, wenn Mensch und KI sich nicht gegenseitig korrigieren, sondern gegenseitig irritieren.  

Das bedeutet auch: Wir brauchen neue UX-Designs, neue Interaktionsformate, neue Denkarchitekturen in Unternehmen. Die typische Linearität von Entscheidungsbäumen, die klassische Wenn-Dann-Logik des Unternehmenshandelns – sie greifen zu kurz. Wir müssen Räume schaffen, in denen das Unerwartete willkommen ist. NGI gedeiht dort, wo Ambiguität nicht als Schwäche, sondern als Stärke gilt.  

Chancen für Führung und Finanzbranche 

Diese Denkweise verändert nicht nur Technologieeinsatz, sondern auch Führungsverständnis. Führungskräfte müssen lernen, mit Systemen zu arbeiten, die keine klaren Antworten geben, sondern Gegenfragen stellen. Die neue Denkpfade vorschlagen, statt bekannte Prozesse zu beschleunigen. NGI verlangt Mut zur Unschärfe und den Willen, eigene Annahmen zu hinterfragen.  

Für uns in der Finanzbranche bedeutet das: Wir sollten aufhören, KI primär als Effizienztreiber oder Automatisierer zu denken. Stattdessen sollten wir sie als Innovationsmotor begreifen. NGI kann völlig neue Geschäftsmodelle erschließen. Sie kann Risiken erkennen, die jenseits klassischer Scoring-Modelle liegen. Sie kann Portfolios entwerfen, die nicht auf Korrelation, sondern auf Konzeptverwandtschaft basieren.  

Und sie kann – das ist vielleicht ihr größter Beitrag – Denkweisen in Organisationen verändern. Denn wer mit einer Intelligenz arbeitet, die nicht nur schneller, sondern anders denkt, muss seine eigenen Prämissen ständig hinterfragen. Genau das brauchen wir: nicht nur mehr Rechenpower, sondern mehr intellektuelle Beweglichkeit.  

NGI ist keine Vision aus der Zukunft. Die Grundlagen existieren bereits. Wir erleben sie in multimodalen Modellen, in transformerbasierten Architekturen, in zunehmend autonomen Systemen, die nicht nur antworten, sondern argumentieren, kontextualisieren, abstrahieren.  

Jetzt ist es an uns, diese neue Form der Intelligenz nicht kleinzureden – sondern groß zu denken. Denn die größte Gefahr liegt nicht darin, dass KI uns überflügelt. Sondern darin, dass wir sie in ein menschliches Korsett zwängen – und damit ihr eigentliches Potenzial ignorieren.  

NGI ist keine Maschine, die wie ein Mensch denkt. Sie ist ein Denkraum, der größer ist als der menschliche. Und genau deshalb brauchen wir sie.    

Stephan A. Paxmann ist Chief Innovation Officer bei der LBBW.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Neuste Artikel
Bleiben Sie informiert
Einmal pro Woche informieren wir Sie über die neusten & wichtigsten Artikel auf BANKINGCLUB.de und über aktuelle Events. Für die Anmeldung reicht Ihre Mailadresse und natürlich können Sie sich von diesem Verteiler jederzeit abmelden.