Banken binden Generative AI zunehmend in umfassende KI-Strategien ein: Fast jedes zweite Finanzinstitut nutzt diese Technologie bereits (60 Prozent), wie eine globale Studie des Daten- und KI-Experten SAS zeigt. Umfassend implementiert ist sie jedoch erst bei 17 Prozent der Banken. Selbst Entscheidungsträger haben keinen umfassenden Durchblick: Nicht einmal jeder fünfte Bankmitarbeiter (18 Prozent) hat laut eigener Einschätzung ein vollständiges oder zumindest gutes Verständnis von Generative AI und den damit potenziell einhergehenden Auswirkungen auf Geschäftsprozesse.
Entsprechender Nachholbedarf herrscht auch im Hinblick auf Compliance mit aktuellen und künftigen Richtlinien, denn erst 63 Prozent der Banken weltweit fühlen sich ausreichend darauf vorbereitet. Zudem verfügen laut der SAS-Studie lediglich sechs Prozent über ein bewährtes und umfassendes Governance Framework. Als größte Hürde, die einer Etablierung effektiver Maßnahmen für Governance und Monitoring im Zusammenhang mit Generative AI im Weg stehen, nannten die Befragten neben technologischen Beschränkungen den Mangel an Transparenz und Accountability (jeweils 30 Prozent).
Die erste Aufgabe besteht also darin, Vertrauen in die Technologie aufzubauen. Laut der Studie hegen drei Viertel der IT-Entscheider weltweit Bedenken im Hinblick auf Datenschutz und -sicherheit. Darüber hinaus äußern 56 Prozent der Befragten Vorbehalte zu Governance, und mehr als die Hälfte (52 Prozent) macht sich Gedanken über ethische Auswirkungen.
Integriert und kontrolliert eingesetzt bietet Generative AI jedoch vielseitige Anwendungsoptionen, wie etwa Large Language Models (LLMs), die das Kundenmanagement optimieren, Synthetic Data – statistisch kongruente Daten – die insbesondere Mehrwert im Bereich der sensiblen Informationen schaffen, und Digital Twins, die in einer Real-World-Umgebung schwierige oder regulatorisch untersagte Simulationen und „What if“-Szenarien ermöglichen.
Unterschiedlichste Branchen können bereits von Generative AI profitieren. Banken und andere Finanzdienstleistungsunternehmen sind so in der Lage, anhand von Simulationsdaten, die mit Generative AI erstellt wurden, für Stresstests und Szenario-Analysen finanzielle Risiken vorherzusagen und Verluste zu verhindern. Simulierte Daten können auch die Modellierung von seltenen Ereignissen verbessern, wie etwa von Betrugsfällen.
Innovation versus Risiken
Einerseits birgt Generative AI ein beträchtliches Potenzial für den Businesseinsatz. Andererseits bestehen auch erhebliche Bedenken gegenüber der Technologie, insbesondere wenn es um die Verwendung sensibler Daten geht. Das folgende Framework kann Banken bei der Entwicklung und Anwendung von verantwortungsvoller Generative AI helfen:
1. Human-centricity – Mensch stets im Fokus: Im Vorfeld der Einführung eines neuen Tools ist unter anderem zu beantworten, inwieweit das Projekt mit den ethischen Prinzipien der Organisation im Einklang steht und welche Auswirkungen (positiv/negativ) langfristig sowohl für Kunden als auch für die Organisation zu erwarten sind.
2. Transparency – Gründe für die Entwicklung: Entscheidend für die Akzeptanz von Generative-AI-Anwendungen ist, ob die Resultate für Mitarbeiterverständlich und erklärbar sind und welche Risiken mit dem Einsatz verbunden sind.
3. Robustness – Bewusstsein für Beschränkungen und Risiken: Um Schäden zu vermeiden, gilt es sicherzustellen, dass das KI-Tool in genau dem vorgesehenen Rahmen eingesetzt wird und sich die Ergebnisse, die die Anwendung hervorbringt, zuverlässig reproduzieren lassen. Grundsätzlich sind in dem Zusammenhang auch mögliche Fehlschläge zu berücksichtigen.
4. Privacy and Security – Sicheres Umfeld schaffen: Zu hinterfragen ist beim Einsatz von ChatGPT und Co. stets, ob ein Risiko besteht, persönliche beziehungsweise sensible Informationen oder intellektuelles Eigentum zu teilen. Zudem sind potenzielle Cyberattacken oder sonstige Angriffe, denen die Anwendung ausgesetzt sein kann, mitzudenken.
5. Inclusivity – Diverse Anforderungen berücksichtigen: Im Hinblick auf die verschiedenen Ansprüche an Diversität ist zu beobachten, ob die Anwendung unterschiedliche Ergebnisse für einzelne Personengruppen liefert und aus welchen Gründen. Ebenso gilt es zu hinterfragen, wie die Trainingsdaten die Inklusivität von Generative-AI-Anwendungen beeinflussen könnten.

Sascha Schubert
Sascha Schubert ist Head of Cloud, Data and AI, Global Technology Practice EMEA bei SAS.