KI-generierte Fundstellen in Rechtstexten

Rechtsabteilungen und juristische Mitarbeiter in Unternehmen nutzen vermehrt Sprachmodelle („KI“). Was zur Zeitersparnis zwar sinnvoll sein kann, ist aber differenziert zu betrachten:

Zwei große Problemfelder tun sich auf, wenn Large Language Modelle genutzt werden:

Erstens kann der Datenbestand verschmutzt sein, was vorab vom Nutzer fast nicht feststellbar ist. Falsche oder sehr ungenaue Daten können in das Modell gefüttert worden sein.

Zweitens können die Sprachmodelle bei den vorgeschlagenen Antworten halluzinieren. KI sucht eigene (menschlich eingepflegte oder durch crawling erlangte) Informationen zur Verarbeitung und folgert aus den Informationen auf andere – gefragte – Fälle, zu denen nicht hinreichende Informationen verfügbar sind um eine 100%-Antwort zu geben. Dann kann es zum Erfinden von Rechtsfällen und Fundstellen kommen.

Eine aktuelle, interessante Datenbank zu Fehlern und Halluzinationen aus dem amerikanischen Rechtsraum findet sich hier: LINK (extern: KI-spezialisierter Researcher Damien Charlotin)

In der Datenbank erkennt man nicht nur, dass Fälle erfunden wurden, sondern auch teilweise, wie die Gerichte mit Sanktionen reagiert haben.

Es bleibt also dabei, dass es – wie seit jeher für Anwälte und Richter – sinnvoll ist, Fundstellen nachzuprüfen, insbesondere, wenn wesentliche juristische Argumentation auf den genannten Fundstellen fußt.