,

Welche Fragen KI an uns stellt

KI trifft immer häufiger Entscheidungen mit drastischen Auswirkungen auf unser Leben. Das wirft nicht nur ethische Fragen für Unternehmen auf, sondern auch für jeden Einzelnen. Dr. Marie-Luise Sessler begibt sich ins Dickicht von Ethical Design, Kooperationen von Mensch und Maschine und den Grenzen von KI.


Mensch mit Fragezeichen schaut auf Hände mit einem Menschen links und einer KI rechts
Bildnachweise: iStock.com/erhui1979, iStock.com/Jackie Niam

Sprechen wir von Künstlicher Intelligenz in der Bankenwelt, handelt es sich in der Regel um eine KI, die auf dem Ansatz des Maschinellen Lernens beruht – einem selbstadaptiven Algorithmus. Die Maschine bekommt hier keine Regeln beigebracht, sondern wird mit Trainingsdaten gefüttert und erschließt sich auf dieser Basis die Regeln selbst, um dann eigenständig Entscheidungen zu treffen.

Der heutige Erfolg der KI ist der Möglichkeit zuzuschreiben, große Datenmengen in schnellster Zeit zu verarbeiten. Eine Faustregel lautet: Je mehr Daten ich habe, umso besser ist meine KI. Das führt nicht nur zu datenethischen Fragen, sondern betrifft unsere Gesellschaft so elementar, dass sich gleich auch die Grundfrage „Wie wollen wir leben?“ stellt. Wenn in China ein KI-basierter Gesichtserkennungsalgorithmus ein Verbrechen voraussagen kann, bevor es begangen wird, berührt dies fundamentale Fragen zu Macht, Freiheit, Sicherheit und Demokratie.

Die Generierung, Speicherung und Nutzung von Daten ist per se nichts Schlechtes. Ein reflektierter Umgang mit Daten und technologischer Fortschritt schließen sich nicht aus. Im Gegenteil: Das eröffnet Unternehmen die Möglichkeit, weltweit eine Vorreiterrolle einnehmen zu können. Methoden wie Ethical Design oder Social Experience Design helfen Unternehmen bei der Ausrichtung ihrer Algorithmen.

Der Mensch wird sich daran gewöhnen müssen, dass ihn die Maschine in vielen Bereichen übertrifft.

Auch die Zunahme autonomer Systeme stellt eine große Herausforderung dar. Wenn wir den Maschinen Verantwortung übergeben, sind wir in vielen Fällen gezwungen, die Maschine vorab in den Kategorien „Richtig“ und „Falsch“ (im ethischen Sinn) zu trainieren. Unabhängig von der Frage, wer diese Entscheidungen festlegen sollte, wird das spätestens dann zu einem Problem, wenn ethische Dilemmata auftreten, in Situationen also, in denen es kein eindeutiges Richtig oder Falsch gibt.

Mit der Zunahme der autonomen Systeme wird auch die Arbeitswelt, wie wir sie bisher kennen, infrage gestellt. Der Mensch wird sich daran gewöhnen müssen, dass ihn die Maschine in vielen Bereichen übertrifft. Das gilt nicht nur für Routinetätigkeiten, sondern zunehmend auch für komplexe Fachaufgaben – Tendenz steigend.

Der Schlüssel zum Erfolg liegt in der Kooperation zwischen Mensch und Maschine. Dies erfordert ein Umdenken. Beginnen sollte es bereits in der Bildung. Hier sollte der Mensch gerade jene Fähigkeiten fördern und ausbauen, durch die er sich von der Maschine elementar unterscheidet. Dazu gehören Kreativität, Empathie, Querdenken, Reflexion und die Bereitschaft, von anderen zu lernen – Fähigkeiten, die in der deutschen Arbeitswelt maximal als Soft Skills eine Würdigung erfahren.

KI hat durchaus ihre Grenzen.

An der Universität Stanford, der Ideenschmiede des Silicon Valley, besuchen viele Informatik- Studenten Vorlesungen zu Philosophie und Literatur. Das schult den menschlichen Geist im Denken. Und „tiefer denken“ bedeutet, größere Dinge zu erschaffen. Das hilft, auch unter schwierigen Bedingungen Geschäftsmodelle weiterzuentwickeln und Neues entstehen zu lassen – gerade auch in der Bankenbranche.

KI hat durchaus ihre Grenzen. Sie ist nicht in der Lage, Gelerntes in einen anderen Kontext zu übertragen oder über sich selbst zu reflektieren. Erst wenn sie dazu in der Lage ist, sprechen wir von einer „starken KI“. Um sie zu entwickeln, schlagen Forscher andere Wege ein, zum Beispiel die Nachbildung des menschlichen Gehirns. Sollte dies gelingen, ist nicht klar, ob tatsächlich die „magische Wand zwischen Geist und Materie“ überwunden werden kann, wie es der Neurobiologe Christoph von der Malsburg umschreibt. Wenn wir sie überwinden, könnten wir den Geist als eine Art Software begreifen und das Gehirn wäre die Hardware, auf der sie läuft. Dann wären wir Menschen den von uns geschaffenen Maschinen gar nicht so unähnlich. Und dies würde uns in unserem Selbstverständnis und unserer Einzigartigkeit erschüttern.

Es gibt genug Geschäftsmodelle für Banken – man muss sie nur suchen.

In einer Zukunfts-Dystopie wäre die Erschaffung einer starken KI die letzte Erfindung, welche die Menschheit hervorgebracht hat, weil sie den Menschen überflüssig machen würde. In einer utopischen Zukunft nutzt der Mensch diese Errungenschaft zur Selbstoptimierung und zur Überwindung seiner körperlichen Grenzen. Trans- und Posthumanismus sind hier gängige Schlagwörter.

Wissenschaftler wie Stephen Hawking und Ray Kurzweil warnten und warnen vor ihrer Unterschätzung und ihren Gefahren. Für den Fall des Eintretens des Trans- und Posthumanismus‘, für die bereits jetzt einige technologische Voraussetzungen existieren, gibt es genug Geschäftsmodelle für Banken. Man muss sie nur suchen. Vielleicht im bankeigenen Innovation Lab.

Tipp: Mehr zum Thema KI finden Sie in der BANKINGNEWS 276. Zum Beispiel die Artikel „KI ist wie Statistik auf Speed“ oder „Wir haben dem Bot beigebracht sich selbst zu verbessern„.

Lesen Sie auch

Fachbeiräte