Montag, 20. April 2026
0,00 €

Es befinden sich keine Produkte im Warenkorb.

Generative AI im Bankenumfeld: Wie die Grauzonen beherrschbar werden

Generative AI ist seit ChatGPT in aller Munde. Dabei bewegt sich Generative AI โ€“ ebenso wie Kรผnstliche Intelligenz (KI) allgemein โ€“ auf einem schmalen Grat zwischen Hype und regulatorischer Verantwortung.

Banken binden Generative AI zunehmend in umfassende KI-Strategien ein: Fast jedes zweite Finanzinstitut nutzt diese Technologie bereits (60 Prozent), wie eine globale Studie des Daten- und KI-Experten SAS zeigt. Umfassend implementiert ist sie jedoch erst bei 17 Prozent der Banken. Selbst Entscheidungstrรคger haben keinen umfassenden Durchblick: Nicht einmal jeder fรผnfte Bankmitarbeiter (18 Prozent) hat laut eigener Einschรคtzung ein vollstรคndiges oder zumindest gutes Verstรคndnis von Generative AI und den damit potenziell einhergehenden Auswirkungen auf Geschรคftsprozesse.

Entsprechender Nachholbedarf herrscht auch im Hinblick auf Compliance mit aktuellen und kรผnftigen Richtlinien, denn erst 63 Prozent der Banken weltweit fรผhlen sich ausreichend darauf vorbereitet. Zudem verfรผgen laut der SAS-Studie lediglich sechs Prozent รผber ein bewรคhrtes und umfassendes Governance Framework. Als grรถรŸte Hรผrde, die einer Etablierung effektiver MaรŸnahmen fรผr Governance und Monitoring im Zusammenhang mit Generative AI im Weg stehen, nannten die Befragten neben technologischen Beschrรคnkungen den Mangel an Transparenz und Accountability (jeweils 30 Prozent).

Die erste Aufgabe besteht also darin, Vertrauen in die Technologie aufzubauen. Laut der Studie hegen drei Viertel der IT-Entscheider weltweit Bedenken im Hinblick auf Datenschutz und -sicherheit. Darรผber hinaus รคuรŸern 56 Prozent der Befragten Vorbehalte zu Governance, und mehr als die Hรคlfte (52 Prozent) macht sich Gedanken รผber ethische Auswirkungen.

Integriert und kontrolliert eingesetzt bietet Generative AI jedoch vielseitige Anwendungsoptionen, wie etwa Large Language Models (LLMs), die das Kundenmanagement optimieren, Synthetic Data โ€“ statistisch kongruente Daten โ€“ die insbesondere Mehrwert im Bereich der sensiblen Informationen schaffen, und Digital Twins, die in einer Real-World-Umgebung schwierige oder regulatorisch untersagte Simulationen und โ€žWhat ifโ€œ-Szenarien ermรถglichen.

Unterschiedlichste Branchen kรถnnen bereits von Generative AI profitieren. Banken und andere Finanzdienstleistungsunternehmen sind so in der Lage, anhand von Simulationsdaten, die mit Generative AI erstellt wurden, fรผr Stresstests und Szenario-Analysen finanzielle Risiken vorherzusagen und Verluste zu verhindern. Simulierte Daten kรถnnen auch die Modellierung von seltenen Ereignissen verbessern, wie etwa von Betrugsfรคllen.

Innovation versus Risiken

Einerseits birgt Generative AI ein betrรคchtliches Potenzial fรผr den Businesseinsatz. Andererseits bestehen auch erhebliche Bedenken gegenรผber der Technologie, insbesondere wenn es um die Verwendung sensibler Daten geht. Das folgende Framework kann Banken bei der Entwicklung und Anwendung von verantwortungsvoller Generative AI helfen:

1. Human-centricity โ€“ Mensch stets im Fokus: Im Vorfeld der Einfรผhrung eines neuen Tools ist unter anderem zu beantworten, inwieweit das Projekt mit den ethischen Prinzipien der Organisation im Einklang steht und welche Auswirkungen (positiv/negativ) langfristig sowohl fรผr Kunden als auch fรผr die Organisation zu erwarten sind.

2. Transparency โ€“ Grรผnde fรผr die Entwicklung: Entscheidend fรผr die Akzeptanz von Generative-AI-Anwendungen ist, ob die Resultate fรผr Mitarbeiterverstรคndlich und erklรคrbar sind und welche Risiken mit dem Einsatz verbunden sind.

3. Robustness โ€“ Bewusstsein fรผr Beschrรคnkungen und Risiken: Um Schรคden zu vermeiden, gilt es sicherzustellen, dass das KI-Tool in genau dem vorgesehenen Rahmen eingesetzt wird und sich die Ergebnisse, die die Anwendung hervorbringt, zuverlรคssig reproduzieren lassen. Grundsรคtzlich sind in dem Zusammenhang auch mรถgliche Fehlschlรคge zu berรผcksichtigen.

4. Privacy and Security โ€“ Sicheres Umfeld schaffen: Zu hinterfragen ist beim Einsatz von ChatGPT und Co. stets, ob ein Risiko besteht, persรถnliche beziehungsweise sensible Informationen oder intellektuelles Eigentum zu teilen. Zudem sind potenzielle Cyberattacken oder sonstige Angriffe, denen die Anwendung ausgesetzt sein kann, mitzudenken.

5. Inclusivity โ€“ Diverse Anforderungen berรผcksichtigen: Im Hinblick auf die verschiedenen Ansprรผche an Diversitรคt ist zu beobachten, ob die Anwendung unterschiedliche Ergebnisse fรผr einzelne Personengruppen liefert und aus welchen Grรผnden. Ebenso gilt es zu hinterfragen, wie die Trainingsdaten die Inklusivitรคt von Generative-AI-Anwendungen beeinflussen kรถnnten.

Sascha Schubert ist Head of Cloud, Data and AI, Global Technology Practice EMEA bei SAS.

Neuste Artikel
Bleiben Sie informiert
Einmal pro Woche informieren wir Sie รผber die neusten & wichtigsten Artikel auf BANKINGCLUB.de und รผber aktuelle Events. Fรผr die Anmeldung reicht Ihre Mailadresse und natรผrlich kรถnnen Sie sich von diesem Verteiler jederzeit abmelden.