finantio-logo-transparent
cropped finantio logo transparent e1679575002365 1

INHALT

Warum KI im Finanzsektor als Hochrisiko-Technologie gilt

Künstliche Intelligenz hat sich im Finanzsektor von einem experimentellen Werkzeug zu einem festen Bestandteil zentraler Prozesse entwickelt. Banken, Zahlungsdienstleister und Finanzplattformen setzen KI ein, um Risiken zu bewerten, Auffälligkeiten zu erkennen und Entscheidungen vorzubereiten. Parallel dazu hat der Gesetzgeber die regulatorischen Anforderungen deutlich verschärft. Diese Entwicklung ist kein Widerspruch, sondern Ausdruck der besonderen Sensibilität finanzieller Entscheidungen. Wo automatisierte Systeme über Zugang zu Konten, Krediten oder Zahlungsdiensten mitentscheiden, berühren sie unmittelbar wirtschaftliche Handlungsfähigkeit und gesellschaftliche Teilhabe. Genau deshalb werden bestimmte KI-Anwendungen im Finanzsektor als Hochrisiko-Technologie eingestuft.

Law KI im Finanzsektor

Wo KI im Finanzsektor heute eingesetzt wird

Der Einsatz von KI konzentriert sich auf datenintensive und zeitkritische Aufgaben. Besonders verbreitet ist sie bei der Kreditwürdigkeitsprüfung und im Bonitätsscoring, wo große Mengen historischer und aktueller Daten ausgewertet werden. Ebenso spielt KI eine zentrale Rolle bei der Betrugs- und Geldwäscheprävention, indem Transaktionen in Echtzeit analysiert und Abweichungen vom Normalverhalten erkannt werden.

Darüber hinaus wird KI für Risiko- und Limitbewertungen bei Konten, Karten und Finanzprodukten genutzt. Auch Sperr- und Entsperrprozesse, etwa bei auffälligen Zahlungsvorgängen oder regulatorisch bedingten Einschränkungen, werden häufig durch automatisierte Systeme unterstützt. Formal bleibt die Entscheidung oft beim Menschen, praktisch aber beeinflussen KI-Ergebnisse maßgeblich, welche Fälle eskaliert, verzögert oder abgelehnt werden. Damit verschiebt sich die Entscheidungsmacht faktisch in Richtung algorithmischer Vorbewertungen.

Was Hochrisiko regulatorisch bedeutet

Die regulatorische Einstufung folgt einem risikobasierten Ansatz. KI gilt dort als hochriskant, wo sie erhebliche Auswirkungen auf Rechte, Chancen oder den Zugang zu essenziellen Leistungen haben kann. Finanzielle Entscheidungen gehören explizit dazu, weil sie über Kreditvergabe, Zahlungsfähigkeit oder Ausschluss aus dem Wirtschaftsleben entscheiden.

Abzugrenzen ist Hochrisiko-KI von klassischer Automatisierung. Während einfache regelbasierte Systeme transparente Abläufe abbilden, arbeiten KI-Modelle probabilistisch und lernend. Ihre Ergebnisse sind nicht immer vollständig erklärbar. Gerade diese Kombination aus Wirkungstiefe und begrenzter Nachvollziehbarkeit begründet den erhöhten Schutzbedarf aus Sicht von Verbraucherschutz und Marktaufsicht.

Automatisierung und ihre regulatorischen Grenzen

Ein zentrales Risiko liegt in der Datengrundlage. KI-Systeme lernen aus historischen Daten, die gesellschaftliche Verzerrungen oder vergangene Marktbedingungen widerspiegeln. Werden solche Muster unkritisch fortgeschrieben, können systematische Fehlbewertungen entstehen. Hinzu kommt die Intransparenz vieler Modelle, die es selbst Fachleuten erschwert, einzelne Entscheidungen detailliert zu erklären.

Problematisch ist zudem die Skalierung. Automatisierte Entscheidungen wirken nicht punktuell, sondern massenhaft. Fehlerhafte Annahmen oder Modellschwächen können sich dadurch schnell vervielfältigen. Für Betroffene ist es oft schwierig, Entscheidungen anzufechten oder korrigieren zu lassen, was das Vertrauen in Finanzinstitutionen zusätzlich belastet.

Vor diesem Hintergrund schreiben Aufsichtsbehörden vor, dass KI-Ergebnisse überprüfbar bleiben müssen. Besonders bei Bonitäts- und Scoringfragen, etwa im Umfeld von Auskunfteien wie SCHUFA, darf die Entscheidung nicht vollständig automatisiert erfolgen. Gleiches gilt für Sperr- und Entsperrentscheidungen, bei denen der Zugang zu Konten oder Zahlungsdiensten eingeschränkt wird.

Dazu zählen auch spielbezogene Sperrsysteme wie die zentrale Spielersperrdatei OASIS, wobei diese sich auf Deutschland beschränkt, während viele andere Nationen keine Sperrdatei im Casino vorsehen. Da solche Sperren erhebliche Auswirkungen auf die wirtschaftliche und persönliche Handlungsfreiheit haben können, ist vorgesehen, dass automatisierte Prüfungen nur unterstützend wirken. Die finale Entscheidung – insbesondere bei Entsperrungen oder strittigen Fällen – muss durch eine menschliche Stelle überprüft und verantwortet werden.

Der Mensch fungiert hier als letzte Kontrollinstanz. Er soll KI-Empfehlungen bewerten, Kontext berücksichtigen und im Zweifel korrigierend eingreifen. Diese Abgrenzung zwischen unterstützender Technologie und finaler Entscheidung ist zentral für Haftung, Verantwortung und Rechtsschutz.

Neben individuellen Fehlentscheidungen rücken systemische Effekte in den Fokus. Wenn viele Marktteilnehmer ähnliche KI-Modelle einsetzen, kann es zu gleichgerichtetem Verhalten kommen. In Stresssituationen besteht die Gefahr, dass Modelle parallel reagieren und Marktbewegungen verstärken. Solche Effekte unterscheiden sich qualitativ von Einzelfehlern, da sie die Stabilität ganzer Marktsegmente beeinträchtigen können.

Was Aufsicht und Gesetzgeber konkret verlangen

Für Hochrisiko-KI gelten deshalb strenge Vorgaben. Unternehmen müssen ihre Modelle dokumentieren, Trainingsdaten prüfen, Risiken bewerten und eine wirksame menschliche Aufsicht sicherstellen. Entscheidungen müssen für Betroffene nachvollziehbar sein, und es müssen Möglichkeiten zur Überprüfung und Korrektur bestehen. Ergänzt wird dies durch Prüfpflichten und einen klaren Sanktionsrahmen bei Verstößen.

KI bleibt ein zentrales Werkzeug im Finanzsektor. Ihre Einstufung als Hochrisiko-Technologie ist kein Innovationshemmnis, sondern Ausdruck der Einsicht, dass finanzielle Entscheidungen tief in Lebensrealitäten eingreifen. Wo Algorithmen über Zugang, Ausschluss oder wirtschaftliche Chancen mitwirken, dürfen sie menschliche Verantwortung nicht ersetzen.

Über den Autor
Redaktion Finantio

Co-Founder von Finantio

NEWS

Weitere Beiträge

Inhaltsverzeichnis