„Digitaler Wandel“. Dabei handelt es sich längst um kein Novum mehr. Drängende Fragen sind nicht mehr, welche Plattform sich am besten für eine Videokonferenz eignet, sondern, wie sich der Vermittleralltag durch Künstliche Intelligenz (KI) ergänzen oder sogar erleichtern lässt. Allerdings: Mit großer Macht folgt große Verantwortung. Mit dem im März 2024 beschlossenen KI-Gesetz in Deutschland sollen daher weiter klare rechtliche Rahmenbedingungen geschaffen werden. Was bedeutet dies für die tägliche Arbeit mit KI?
KI für alle Lebenslagen
In der Finanz- und Versicherungsbranche bietet Künstliche Intelligenz eine Fülle von Möglichkeiten zur Optimierung von Prozessen und Dienstleistungen. Beispielsweise kann die Analyse von Kundendaten durch KI-Algorithmen dazu beitragen, maßgeschneiderte Versicherungspakete anzubieten. Darüber hinaus finden Anwendungen inzwischen fast schon selbstverständlich statt. Online-Abschlüsse, Telefon- oder Chatbots im Kundenservice, Risikobewertung oder Anlageberatung.
Und auch im Makleralltag folgt auf die Digitalisierung nun die Nachbesserung per KI. Von der Kundenanalyse über die Kommunikation bis hin zur administrativen Unterstützung, es gibt zahlreiche, auch kostenfreie Tools, welche die Arbeit erleichtern. Dem Kundenwunsch kommt das absolut entgegen. Einer Bitkom-Studie zum Finanzverhalten der Deutschen, aus dem Jahr 2023 zufolge, haben 79 Prozent der Befragten bereits online eine Versicherung abgeschlossen. Bei Service-Apps legen sie zudem gesteigerten Wert auf die Benutzerfreundlichkeit. Hier sollte also auch der Makler zum Thema Beratung zu finden sein.
Entwicklung des KI-Gesetzes
Anforderungen und Angebot erleichtern Vermittlern hier nicht nur den Zugang zur Arbeit mit künstlicher Intelligenz, sie verleiten geradezu zu einer mehrheitlichen Nutzung. Was nun allerdings aufholt, ist die Gesetzeslage. Bis 2018 war die Rechtslage zur Nutzung von KI weitgehend durch bestehende Gesetze und Verordnungen geregelt, die spezifische Anwendungen und Technologien umfassten, jedoch gab es keine spezifischen Gesetze für KI selbst. Die Rechtslage war in vielen Ländern, darunter auch Deutschland, durch allgemeine Datenschutzgesetze, Verbraucherrechte und Produktsicherheitsstandards geprägt. In der Europäischen Union war die Datenschutz-Grundverordnung (DSGVO) das wichtigste Regelwerk, das die Verarbeitung personenbezogener Daten, einschließlich der Nutzung von KI, regulierte.
Im Jahr 2018 verabschiedete die Bundesregierung dann die „Strategie Künstliche Intelligenz der Bundesregierung“, die eine Reihe von Maßnahmen zur Förderung und Regulierung von KI vorsieht. Eine Strategie, die 2020 aktualisiert wurde und Maßnahmen zur Schaffung von „Rahmenbedingungen für eine vertrauenswürdige KI, zur Forschung und Entwicklung sowie zur Sicherstellung der gesellschaftlichen Akzeptanz von KI“, umfasst.
Im April 2021 verschärfte sich die Rechtslage in Deutschland erneut. Insbesondere durch Entwicklungen auf europäischer Ebene und nationale Initiativen. Die konkrete Reglementierung erfolgte durch die Einführung des Vorschlags der Europäischen Kommission für den „Artificial Intelligence Act“. Ein Vorschlag, der zum Ziel hat, ein einheitliches Rechtsrahmenwerk für die Entwicklung, den Einsatz und die Vermarktung von Künstlicher Intelligenz in der EU zu schaffen. Das Gesetz umfasst dabei auch die Punkte Ethik und Haftung. Neuerungen im Dezember 2023: EU-Parlament und Rat einigen sich schließlich auf ein KI-Gesetz. Im März 2024 trat das „Gesetz über Künstliche Intelligenz“ schließlich in Kraft. Aber was ändert sich dadurch konkret für die Nutzung?
KI-Gesetz: Risikobasierter Ansatz in drei Stufen
Das neue KI-Gesetz der EU verfolgt einen risikobasierten Ansatz, um die Nutzung von KI zu regulieren. Es kategorisiert KI-Systeme nach ihrem Risikopotenzial:
- Systeme mit minimalem Risiko wie Empfehlungssysteme oder Spam-Filter sind von verpflichtenden Auflagen befreit.
- Hingegen müssen hochriskante KI-Systeme, etwa in kritischen Infrastrukturen oder im Gesundheitswesen, strenge Anforderungen erfüllen, wie die Risikominderung, transparente Datensätze und menschliche Aufsicht.
- Systeme, die ein unannehmbares Risiko für die Grundrechte darstellen, wie etwa Social Scoring oder bestimmte Emotionserkennungssysteme, werden verboten.
Das Gesetz fordert zudem Transparenz bei der Nutzung von KI, insbesondere bei Deepfakes und Chatbots, und stellt sicher, dass Nutzer über die Interaktion mit KI informiert werden.
Risikobasierte Compliance-Anforderungen
Für Unternehmen bedeutet das neue KI-Gesetz eine Anpassung an unterschiedliche Compliance-Anforderungen je nach Risikoeinstufung der verwendeten KI-Systeme. Anwendungen mit minimalem Risiko können weitgehend ohne zusätzliche Auflagen betrieben werden, während hochriskante Systeme strengen Kontrollen und Anforderungen unterliegen.
Unternehmen, die KI-Systeme einsetzen, müssen sicherstellen, dass ihre Anwendungen genau und sicher sind. Zudem müssen sie die Nutzung dieser Systeme dokumentieren und überwachen. Und: Unternehmen müssen Transparenz schaffen sowie Nutzer informieren, wenn sie KI-Systeme verwenden. Unternehmen, die die Vorschriften nicht einhalten, riskieren erhebliche Geldstrafen.
Ein Praxisbeispiel aus der (nicht allzu fernen) Zukunft
Ein Beispiel zur Veranschaulichung: Ein Vermittler setzt ein hochmodernes KI-System zur Analyse von Kundendaten sowie zur Erstellung von Risikoprofilen ein. Dieses System nutzt emotionale Erkennungssoftware, um während der Beratungsgespräche die emotionalen Reaktionen der Kunden zu analysieren und darauf basierend individuelle Versicherungsangebote zu erstellen.
Nach den neuen Vorschriften fällt dieses KI-System unter die Kategorie der hochriskanten Anwendungen. Denn: Es verarbeitet persönliche und sensible Daten verarbeitet und beeinflusst potenziell die Grundrechte der Kunden. Vernachlässigt es der Makler, die notwendigen Maßnahmen zur Risikominderung umzusetzen, dokumentiert die Nutzung des Systems nicht ausreichend oder informiert die Kunden nicht transparent über den Einsatz der emotionalen Erkennungssoftware, gilt ein Gesetzesverstoß. Ebenso, wenn wichtige Sicherheits- und Genauigkeitsprüfungen des Systems fehlen. Infolge wird das Maklerunternehmen mit einer erheblichen Geldstrafe belegt.
Besser Vor- als Nachsicht zur optimalen Chancennutzung
Vermittler sollten sich intensiv mit den neuen gesetzlichen Anforderungen auseinandersetzen, um die Chancen der KI optimal zu nutzen, gleichzeitig jedoch rechtliche Risiken zu vermeiden.
Titelbild: © LS Visuals/stock.Adobe.com