Vor rund 2 Jahren – etwa ein Jahr nach Launch von ChatGPT – haben wir an dieser Stelle schon einmal einige Thesen zum Einfluss von KI auf den Rechtsmarkt aufgestellt und über halluzinierende Bots, datenschutzrechtliche Bedenken und erste Produkt-Ideen gesprochen.
Heute ist KI fest im Alltag angekommen und niemand fragt sich mehr, ob man KI in der Rechtsbranche nutzen kann und sollte, sondern nur noch, wie genau die Nutzung aussieht. Doch nach wie vor stehen den vielen Chancen auch einige Hürden entgegen. Höchste Zeit also, ChatGPT einmal selbst um seine Einschätzung zu bitten und neue Thesen zu KI im Rechtsmarkt aufzustellen.
Informationen über den Autor
Jonas Zimmermann – Vorstand DAHAG Rechtsservices AG
Rückfragen, Feedback und Anmerkungen zum Artikel sind immer willkommen!
Schreiben Sie an jonas.zimmermann@dahag.de
1. GPT These „Chance: Effizienzsteigerung durch Automatisierung von Routineaufgaben“
„KI kann Standardprozesse wie Vertragsprüfung, Schadenserfassung oder Anspruchsprüfung deutlich beschleunigen. Dadurch gewinnen Juristinnen und Juristen mehr Zeit für komplexe, strategische Fälle. Besonders in der Erstberatung oder Schadenbearbeitung kann KI die Bearbeitungsdauer drastisch verkürzen.“
Vermutlich wird niemand bestreiten, dass KI in den letzten Jahren zur Effizienzsteigerung in Unternehmen beigetragen hat. Tatsächlich können einfache, standardisierte Aufgaben meist problemlos von einer KI erledigt werden: So setzen wir als DAHAG bei der Deckungsablöse etwa auf die Dunkelverarbeitung von Dokumenten, während der DAHAG Sprachbot JUSTUS den VN vorab legitimiert, so dass die Partnerkanzleien sich voll und ganz auf ihre Kernaufgabe – die Beratung – konzentrieren können.
Was die rechtliche Erstberatung betrifft, so sind GPT und Co. jedoch weit davon entfernt, den Anwalt zu ersetzen: Der Großteil klassischer Beratungsgespräche besteht unter anderem darin, den genauen Sachverhalt aus dem VN herauszukitzeln, wichtige Informationen einzusammeln, den Rechtsrat dynamisch an Zusatzinfos anzupassen und – nicht zuletzt – den Anrufer zu beruhigen und ihm gut zuzureden. Hinzu kommt: Das vor 2 Jahren bereits besprochene Halluzinieren kann nicht gerade als Kinderkrankheit bezeichnet werden. So sind einer internationalen Studie der Europäischen Rundfunkunion zufolge nach wie vor 45 Prozent der KI-Antworten fehlerhaft. Allerdings muss gleichzeitig gesagt werden, dass sich KI so rasant schnell entwickelt, dass derartige Aussagen wohl immer wieder neu evaluiert werden müssen.
2. GPT These: „Risiko: Haftungsfragen und Intransparenz von Entscheidungsprozessen“
„Ein wesentliches Risiko liegt in der sogenannten „Black Box“ der KI. Wenn eine KI eine Entscheidung oder Empfehlung trifft (z. B. zur Erfolgsaussicht einer Klage), ist oft nicht nachvollziehbar, wie sie zu diesem Ergebnis kommt. Dies kann haftungsrechtliche Fragen aufwerfen – etwa wer verantwortlich ist, wenn eine KI-basierte Empfehlung falsch war.“
Diese These lässt sich am besten von DAHAG-Justiziar Dr. Jannis Konstas beantworten, der vor allem das Argument mit der Verantwortlichkeit als wenig überzeugend ansieht. Dr. Konstas gibt zu bedenken, dass eine RSV immerhin auch für die Entscheidungen ihrer Sachbearbeiter verantwortlich sei (§ 278 BGB) – warum sollte dasselbe also nicht für Maschinen gelten? Zumal diese auch immer zunächst von einem Menschen implementiert werden muss. „Dann liegt der haftungsbegründende Fehler meiner Einschätzung nach im Organisationsverschulden, keine menschliche Prüfung eingebaut zu haben,“ so Dr. Konstas.
Zudem verweist Dr. Konstas auf Art. 22 DSGVO, der besagt, dass natürlich Personen grundsätzlich nicht einer automatischen Verarbeitung unterworfen werden dürfen, die rechtliche Wirkung entfaltet. Inwieweit dies auf Deckungsprüfungen bzw. Ablehnungen übertragen werden kann, wäre hier noch zu prüfen.
3. GPT-These: „Chance: Bessere Zugänglichkeit zum Recht“
„KI-gestützte Tools (z. B. Chatbots oder Online-Assistenten) können juristische Informationen breiteren Bevölkerungsschichten zugänglich machen – insbesondere Menschen, die sich sonst keinen Anwalt leisten könnten. So kann KI zur Demokratisierung des Rechts beitragen.“
Ja und nein. Selbstverständlich ist es einfach und komfortabel, GPT um Rat bezüglich einer Eigenbedarfskündigung oder einer arbeitsrechtlichen Abmahnung zu fragen. Hinzu kommt, dass ein Laie nur schwer einschätzen kann, welche Informationen eine KI für eine akkurate und zuverlässige Antwort braucht. Gerade bei Rechtsrat ist dies natürlich kritisch. Das scheint auch OpenAI allmählich zu erkennen: So hat die Mutterfirma von ChatGPT in einer Anpassung der Nutzungsbedingungen den Gebrauch von GPT für individualisierten Rechtsrat zuletzt untersagt. Fraglich ist allerdings, inwiefern dies am Ende tatsächlich praktische Einschränkungen mit sich bringt oder ob es vielmehr als Instrument dient, um Haftungsrisiken zu minimieren.

Während KI professionellen Rechtsrat also nicht ersetzen kann, kann sie diesen jedoch dabei unterstützen, schneller und besser zu beraten. Auch kann sie die Beratung auf ein neues Service-Level heben. Die Verknüpfung von anwaltlicher Expertise mit innovativen KI-Dienstleistungen – etwa in Form des anwaltlichen Beratungsprotokolls – erlaubt es Rechtsschutz, neue Premium-Services anzubieten, die trotz der vermeintlichen Demokratisierung von Rechtsrat einen echten Mehrwert für Versicherte bieten.
4. GPT-These „Risiko: Datenschutz und Missbrauch sensibler Daten“
„Im Rechtsschutz werden hochsensible personenbezogene Daten verarbeitet. Eine unzureichend gesicherte oder falsch trainierte KI birgt erhebliche Datenschutzrisiken. Zudem kann das unautorisierte Training mit vertraulichen Mandantendaten zu Verstößen gegen die DSGVO führen.“
„Dass mit KI nur anonymisierte Daten verarbeitet werden dürfen, sollte den meisten bewusst sein. Immerhin können sonst die von der DSGVO vorgeschriebenen Betroffenenrechte wie Löschung, Auskunft und Berichtigung nicht gewährleistet werden“, schätzt Markus Schreinert, Datenschutzbeauftragter der DAHAG, die Lage ein. „Was jedoch oft zu kurz kommt: Auch dem Team – also den Sachbearbeitern auf operativer Ebene – muss dies bewusst sein. Schulungen von Mitarbeitern sowie die Bestimmung von Verantwortlichkeiten im Umgang mit KI sind also unumgänglich.“
Bedenken muss man hier natürlich auch die vielzitierte Aussage des Microsoft Chefjustiziars Anton Carniaux aus dem Juni 2025: „Es gibt keine Garantie, dass EU-Daten vor einer Übermittlung in die USA sicher sind.“ Gegen die Gefahr eines Datenabflusses hilft also prinzipiell nur, die Daten gar nicht in Systeme einzuspeisen, in denen man sie nicht mehr unter Kontrolle hat. Das heißt: Alles, was man auf eigenen Servern betreiben kann, sollte nicht in eine fremdgesteuerte Cloud ausgelagert werden. Und Anwendungen, die man mit eigener Rechenleistung nicht bereitstellen kann (wie etwa aufwendige KI-Modelle), dürfen nur mit Daten gespeist werden, deren Abfluss kein kritisches Problem wäre – etwa durch Anonymisierung.
5. GPT-These: „Chance: Automatisierte Schadenanalyse und Priorisierung“
„KI kann eingehende Schadenmeldungen automatisch analysieren, kategorisieren und priorisieren. Durch Mustererkennung (z. B. Textanalyse von Schadenbeschreibungen, Erkennung typischer Fallkonstellationen) werden einfache oder standardisierte Fälle automatisch weiterverarbeitet, während komplexe oder risikoreiche Vorgänge gezielt an Fachjuristen übergeben werden. Das führt zu einer effizienteren Ressourcennutzung und schnelleren Bearbeitung.“
Es ist wohl kaum zu bestreiten, dass eines der größten Potenziale von KI in der automatisierten Datenanalyse besteht. Rechtsschutz kann sich dies zunutze machen, indem Fälle gezielt in die richtigen Kanäle gesteuert werden – idealerweise ganz ohne zeitaufwendiges menschliches Zutun. Mit den richtigen Informationen und Prompts sowie gut aufbereiteten und strukturierten Daten kann eine KI etwa sehr gut Bußgeldfälle von Kündigungsschutzklagen trennen und erstere in Zentralmandate steuern, während letztere einem geeigneten Anwalt aus dem RSV-Partnernetzwerk zugeteilt werden. Möglich ist etwa auch das automatisierte Anbieten von Deckungsablöse-Angeboten bei passenden Fällen.
Doch wie bereits erwähnt: Die wichtigste Grundlage für die erfolgreiche KI-Schadensteuerung ist ein gut strukturierter Datenschatz, der idealerweise über die gesamte Steuerungskette hinweg aufgebaut wird – und genau hier liegt der Fokus der DAHAG. Unsere Services sind so konzipiert, dass sie wie ein Baukastensystem ineinandergreifen und gleichzeitig die größtmögliche Flexibilität für Sie als RSV bieten. Dadurch wird gewährleistet, dass relevante Daten – natürlich stets im datenschutz- und berufsrechtkonformen Rahmen – erfasst und weiterverwendet werden können. Dem VN wird durch die ineinandergreifenden Services ein komfortables und bruchfreies Nutzererlebnis geboten, was wiederum die Kundenzufriedenheit steigert; die RSV profitiert durch die smarte Folgesteuerung unterdessen von gesenkten Schadenkosten. Wenn Sie neugierig sind und mehr über die verschiedenen DAHAG-Services erfahren wollen, dann lesen Sie hier weiter: 2026: Das Jahr des Rollouts