Natürlich beschäftigt das Thema KI auch den DAHAG Vorstand bereits seit geraumer Zeit. Nachdem die Euphorie mit Launch von ChatGPT zunächst groß war, kristallisierten sich nach und nach auch einige Risiken heraus. Was Johannes Goth (Jurist, Gründer und Vorstand der DAHAG und zuständig für die Partnerschaft mit den Rechtsschutzversicherern) und Jonas Zimmermann (Wirtschaftsinformatiker, IT-Vorstand der DAHAG und dort zuständig für die vielfältigen KI-Projekte) unter vier Augen schon häufiger diskutiert haben, besprechen sie heute auch im Rechtsschutz-Report.


Informationen über die Interviewpartner

Johannes Goth – Vorstand DAHAG Rechtsservices AG
Rückfragen, Feedback und Anmerkungen zum Artikel sind immer willkommen!
Schreiben Sie an johannes.goth@dahag.de

Jonas Zimmermann – Vorstand DAHAG Rechtsservices AG
Rückfragen, Feedback und Anmerkungen zum Artikel sind immer willkommen!
Schreiben Sie an jonas.zimmermann@dahag.de


Hallo Johannes, hallo Jonas, wir wollen heute ein wenig über eure Einschätzung der Chancen und der Risiken von KI für die Rechtsschutzbranche sprechen. Wie steht ihr generell zu KI?

Jonas: KI ist ein wirklich tolles Werkzeug, das viele Arbeitsschritte übernehmen oder zumindest unterstützen kann. Wir sind begeistert davon, was unsere KI schon jetzt alles für die DAHAG-Partnerkanzleien, für die RSVs und für die interne Mannschaft leisten kann!

Johannes: Gerade Anwälte und Juristen werden durch den Wegfall der Babyboomer immer knapper. Das betrifft die RSVs ebenso wie die DAHAG. KI kam gerade zum richtigen Zeitpunkt, um insbesondere bei den nicht-wertschöpfenden Teilaufgaben in die Bresche zu springen – zum Beispiel in der Telefonberatung die Aufnahme und Prüfung der VS-Nummer zu übernehmen. Das Prüfen kostet zwar nur eine Minute – aber bei 500.000 Anrufen spart das dann eben 500.000 kostbare Sachbearbeiter-Minuten. Das sind 8.333 Arbeitsstunden oder über fünf Vollzeitstellen pro Jahr.

Ich meine, im Grunde sind den Möglichkeiten von KI kaum Grenzen gesetzt. KI-Rechtsberatung ist ja so ein Thema und die Antworten sind auch schon sehr gut, aber nicht fehlerfrei. Prinzipiell könnte man da sogar überlegen, ob man die KI-Antworten wiederum von einer KI selbst prüfen und gegebenenfalls korrigieren lässt…

Jonas: …ok, da muss ich dich mal kurz bremsen. Ganz so grenzenlos sind die Möglichkeiten dann doch wieder nicht. Eine KI-Prüfung von KI-Antworten beispielsweise ist quasi unmöglich, da hier ja auf dieselbe Datenbasis zurückgegriffen wird und die KI auch ihren eigenen Halluzinationen zum Opfer fällt.

Woran liegt das?

Jonas: KI ist eben NICHT intelligent! GPT versteht nicht, was eine „Kündigung“ ist. GPT kann nur sehr gut auf Basis von Algorithmen und Wahrscheinlichkeiten Worte kombinieren, die zu Kündigung passen. Das kann GPT allerdings so gut, dass es oft den Eindruck von Intelligenz erweckt. Die Auslieferung der Antworten in „Ich-Form“ verstärkt die Täuschung. Dass KI nichts, aber auch gar nichts von dem versteht, was sie als Ergebnis liefert, ist nicht schlimm. Das Ergebnis muss nur korrekt und für den Anwender nützlich sein.

Wo kann KI den RSVs helfen?

Jonas: Bei einer ausreichenden Anzahl an entsprechenden Trainingsdaten werden KI-basierte Deckungsprüfungen, Rechnungsprüfungen oder auch Erfolgsaussichten-Prüfungen möglich sein. Auch das Durchforsten von Bestandsdaten nach Regress-Fällen oder telefonische Schadensteuerung samt Datenerfassung ist der KI jetzt schon oder demnächst zuzutrauen.

In diesen Feldern kann die KI ihre Stärke ausspielen, kann sie die Effizienz von Mitarbeitenden enorm steigern, vernachlässigte Arbeitsschritte verbessern wie z.B. Erfolgsaussichten-Prüfungen – und im Ergebnis ein besseres, schnelleres Kundenerlebnis bei massiv reduzierten Kosten ermöglichen.

Wie stellt ihr euch das ideale Kundenerlebnis mit KI vor?

Johannes: Mal ein Beispiel. Ein VN ruft an einem Sonntag um 21:00 Uhr bei seiner RSV an, weil er eben seinen Bußgeldbescheid geöffnet hat. Ein menschlicher Sachbearbeiter ist da nicht im Dienst. Eine freundliche KI fragt die VS-Nummer und das Anliegen des VN ab. Sie bittet ihn, den Bußgeldbescheid mit seinem Handy zu fotografieren und hochzuladen. Die KI prüft innerhalb von Sekunden den Tatzeitpunkt und den Vorwurf (wie es ein RSV Sachbearbeiter tun würde). Es handelt sich nur um ein Bußgeld von 80 Euro ohne Punkte und Fahrverbot. Die KI schlägt dem VN eine Deckungsabfindung von 100 Euro vor. Für dieses Angebot ist die KI durch ein Regelwerk und entsprechende Prompts konfiguriert worden. Der VN willigt freudig ein, seine Zustimmung wird gespeichert. Die KI beendet das Telefonat, löst eine Bestätigungs-SMS an den VN aus und legt den Schaden im System an. Am nächsten Arbeitstag prüft ein Sachbearbeiter den Vorgang und löst die Zahlung aus.

Wäre dieser Anruf um 21:00 Uhr nicht von einer KI angenommen worden, wäre der VN vielleicht auf Google gegangen und bei einem Claimsfisher gelandet. Der Schadenaufwand hätte dann ca. 800 Euro zuzüglich der internen Bearbeitungskosten von ca. 50-100 Euro betragen.

Warum wird das dann nicht schon so gemacht?

Jonas: Also, man könnte das alles schon schneller machen – aber eben immer zu Lasten von Datenschutz & Co. Der datenschutzkonforme Einsatz und die Verknüpfung von einer Vielzahl an Systemen wie Telefonanlage, Spracherkennung, Vertragsbedingungen, Bestandssystem, OCR-System, Schadensystem, Regelwerk, usw. mit verschiedenen KIs ist natürlich mit erheblichem Aufwand verbunden. Und Schritt für Schritt wird es auch in diese Richtung gehen, sei es durch eigene KI-Lösungen der Versicherer oder durch die Kooperation mit spezialisierten Partnern.

Datenschutz ist also entscheidend?

Johannes: Ja, und gerade für einen Versicherer kann Nachlässigkeit da echt gefährlich sein. Wenn etwa die Trainingsdaten für diese KI-Lösungen eines Dienstleisters von Kunden der RSVs nicht datenschutzkonform gewonnen werden oder der Dienstleister hierzu möglicherweise sogar Beratungs-Telefonate heimlich mitschneidet, dann würden hier die betroffenen Versicherungsnehmer massiv in ihren Rechten verletzt sein. Sogar eine strafrechtliche Relevanz könnte dann vorliegen. Ich vermute, die Aufdeckung von solchen unsauberen Praktiken würde zu einem erheblichen Reputationsschaden bei den auftraggebenden Häusern bis in die Vorstandsebene führen.

Jonas: Zudem wäre das betroffene KI-Modell dann mit kontaminierten Daten trainiert worden. Eine Datenschutzbehörde oder die Staatsanwaltschaft hätte das Recht, die entsprechenden Server zu beschlagnahmen, womit das System ohne Vorwarnung nicht mehr nutzbar wäre. Sofern die kontaminierten KI-Systeme eines solchen Dienstleisters mit den RSV-eigenen Systemen interagieren, könnte sich der Zugriff der Datenschutzbehörden auch auf die Telefonanlagen oder Schadensysteme des RSV-Auftraggebers erstrecken.

Gibt es noch weitere Risiken?

Jonas: Es ist auch ein bisschen so: Das meiste läuft doch am Ende über GPT.

Klar kommen dann immer die Kommentare, dass es mittlerweile auch viele Open Source Alternativen gibt. Aber hier gibt es dann mindestens jetzt oft noch einige Probleme. Richtig, richtig gut sind diese Modelle meist nur auf Englisch. Brauchbare deutsche Ergebnisse liefern sie bisher frei Haus nicht.

Zudem muss man dann doch mehr schauen, für welchen Anwendungsfall welches Modell genau das Richtige ist. Hier gibt es im Wochentakt neue Entwicklungen, welche dann geprüft werden müssen und man muss das auch immer wieder neu überprüfen.

Kurzum: Mit OpenAI hat man automatisch die Lösung für alles, aber wenn man mehr Wert auf die genannten Themen wie Datenschutz und Datensouveränität legen will, muss man immer sehr genau prüfen, welches Modell man für den jeweiligen Anwendungsfall nutzen möchte. Das macht dann wieder sehr viel Arbeit und kostet Zeit.

KI kann ja beeindruckend viel. Kann sie auch irgendwann die anwaltliche Telefonberatung ersetzen?

Jonas: Rein technisch wird das bestimmt irgendwann möglich sein. Im Moment sind die Ergebnisse dann gut, wenn der Fragesteller gute und saubere Fragen stellt. Ein Laie am Telefon redet aber anders. Da kommen dann immer noch fehlerhafte Antworten. Wie gesagt, intelligent ist die KI ja nicht.

Johannes: Dazu kommt die regulatorische Seite. Die Einordnung von KI-Rechtsberatung im Sinne des RDG wird ja gerade in Fachaufsätzen fortlaufend kontrovers diskutiert. Die Kammern und der DAV verhalten sich dabei merkwürdigerweise sehr passiv. Dies erstaunt mich, denn es geht am Ende doch um Bestand oder Fall des Anwaltsmonopols und damit um ein ureigenes Interesse der beiden Institutionen. Denn wenn KI-Rechtsberatung im konkreten Einzelfall keine Rechtsdienstleistung darstellt, weil der Nutzer ja weiß, dass die Beratung nur von einer Microsoft-Maschine und nicht von einem qualifizierten und dafür haftenden Rechtsanwalt kommt, dann muss auch jedes Legal Tech Einzelfall-Beratung erbringen dürfen – ja sogar jeder Frisör. Der Frisör muss dann nur offenlegen, dass er kein Jurist ist. Und wenn KI-Beratung nicht unters RDG fällt, dann dürften natürlich auch Rechtsschutzversicherungen KI-Beratung anbieten.

Klingt zunächst positiv für Rechtsschutz.

Johannes: Meiner Meinung nach könnte KI-Rechtsberatung eher der Totengräber von Rechtschutzversicherungen sein, die dem Trend zu sehr hinterherjagen.

Warum denn das?

Johannes: Mit dem Fall des RDG würden die Kosten zur Lösung eines Rechtsfalls dramatisch fallen und die Rechtsberatung als Kernleistung der Anwaltschaft wäre massiv entwertet. Wenn rechtliche KI-Lösungen aber für den Verbraucher nicht mehr teuer und gleichzeitig überall zugänglich wären, wäre ein solcher Service auch kein Alleinstellungsmerkmal einer Versicherung mehr. Der Checkhaken „Beratung durch echte Anwälte“ dürfte im Vertrieb dann wesentlich ausschlaggebender sein.

Jonas: Dazu kommt, was bisher viel zu wenig diskutiert wird: die Gefahr der Manipulierbarkeit von KI. Wird jede RSV, die KI-Rechtsberatung einsetzen wird, der Versuchung widerstehen, mit leichten Anpassungen des Prompts das Beratungsergebnis in die gewünschte kostensparende Richtung zu lenken? Eine solche Manipulation wäre ja nicht mal strafbar, wenn es sich bei KI-Rechtsberatung nicht um eine Rechtsdienstleistung nach RDG handelt. Aber wie massiv wäre der Reputationsverlust und der Vertrauensverlust für das Produkt Rechtsschutz und die ganze Rechtsschutz-Branche, wenn ein Verbraucherverband oder Stiftung Warentest eine solche Manipulation einer KI-Rechtsberatung auch nur eines einzigen RSV-Hauses durch Testanrufe feststellen würde?

Also besser keine KI-Rechtsberatung?

Jonas: So pauschal kann ich das – vor allem zum jetzigen frühen Zeitpunkt der KI-Geschichte – nicht beantworten. Und ich würde mich auch mit jedem auf eine Diskussion einlassen, der behauptet, eine eindeutige Antwort auf die Frage zu haben. Also, natürlich kann man voll und ganz auf die KI-Karte setzen und vielleicht klappt es am Ende auch. Vielleicht aber auch nicht. Ich glaube, wichtig ist vor allem, nicht in KI-Aktionismus zu verfallen und die Technik als Pauschallösung für alle Probleme zu verstehen. Natürlich löst sie Probleme. Das sehen wir auch täglich in der DAHAG. Aber sie bringt ja auch neue mit sich.

Johannes: Was sich aber wohl jetzt schon sagen lässt, ist dass KI innerhalb der anwaltlichen Beratung das Produkt Telefonberatung auf ein ganz neues Level heben kann und wird. Die schriftliche Zusammenfassung der Beratung für den VN mit KI-Support bieten wir mit dem digitalen Anwaltsprotokoll ja schon heute an. Demnächst wird unser KI-Sprachassistent JUSTUS gleich am Anfang des Calls das Rechtsgebiet erkennen können. JUSTUS kann dann zum entsprechenden „Fach“-Anwalt durchstellen – oder autonom einen Rückruftermin mit dem VN vereinbaren, wenn der das möchte. Auch die Erfassung und Aufbereitung von Sachverhaltsinformationen in der Telefonstrecke wird KI künftig übernehmen. Damit kann dann nicht nur der Anwalt besser beraten, sondern auch der Sachbearbeiter kann viel schneller Schäden anlegen und Deckungsentscheidungen treffen.

Also ist KI doch wieder Fluch und Segen gleichermaßen?

Johannes: Vermutlich ja. Die Krux liegt wohl darin begraben, dass wir die gesellschaftliche Akzeptanz und die gefühlte Wertigkeit von KI schlecht abschätzen können und dass noch zu selten über die Risiken gesprochen wird. Wie schnell wird das Vertrauen in KI erschüttert, wenn einmal ein großes Datenleck auffliegt oder wenn – wie Jonas schon gesagt hat – ein Manipulationsfall ans Licht kommt? Ich bin aber trotzdem optimistisch gestimmt und glaube: Wenn Rechtsschutz beim Datenschutz aufpasst und sein anwaltliches Qualitätsversprechen hochhält, wird KI nach meiner Meinung eher der Erlöser der Branche und sehr segensreich für Rechtsschutz werden.

Jonas (zwinkert): Amen.