Confidence, Fahrlässigkeit, Mangel

Wer ein Large Language Model trainiert, gibt Daten ein, die der Beantwortung von künftigen Fragen an die KI nutzen sollen. Die Software erkennt Strukturen und bietet Lösungen an. Klar ist, dass nicht alle Antworten zutreffend sind.

Wer also eine Software, die zur Interaktion mit dem Kunden eingesetzt werden soll, trainiert, wird damit konfrontiert, entscheiden zu müssen welche Ergebnisse angezeigt werden sollen und welche zu schlecht sind, um sie dem Nutzer der KI zu präsentieren. Bei Bilderkennungs-Software z.B., kann die Maschine einschätzen, wie weit sie von den trainierten, also bekannten und sicher zugeordneten, Bildern entfernt ist, wenn sie ein unbekanntes Bild präsentiert bekommt. Der Grad der Übereinstimmung des einzustufenden Bilds mit bekennten Bildern wird als Confidence-Wert z.B. mit Prozentangabe ermittelt. Je höher die eigene Confidence-Bewertung der Software ist, desto höher ist die erwartete Wahrscheinlichkeit, dass die Einsortierung richtig ist.

Die Einstellung der erkennenden Software kann üblicherweise eine bestimmte Höhe der Confidence als Schwellenwert festlegen, die notwendigerweise zu erreichen ist, um ein Ergebnis dem Nutzer – als zur Beantwortung hinreichend – anzeigen zu lassen.

Aus juristische Sicht ist diese technische Einstellung durchaus bedeutsam. Dies betrifft insbesondere die Einschätzung eines interagierenden KI-Software-Produkts als vertragskonform oder mangelhaft, denn: Überlässt man eine Software zur Nutzung, die mit zu geringen Confidence-Werten eingerichtet ist, so ist zu erwarten, dass diese in einer Vielzahl von Fällen nicht zutreffende Ergebnisse präsentiert, also vom vertraglich vorausgesetzten Einsatzzweck abweicht.

Im Streit zwischen Developer/Trainer und Auftraggeber (über die Software-Erstellung und Funktion einer LLM-basierten Software) ist die Einstellung der Confidence für die Bewertung als fahrlässige oder vorsätzliche Vertragsverletzung zu berücksichtigen. Bei nur geringen Confidence-Werten, die zur Anzeige zugelassen werden, kann von einem Mangel des Produkts ausgegangen werden.

Außerdem ist aus Sicht eines Verbrauchers eine Mindestsicherheit der künstlichen Intelligenz, die ihm gegenüber vom Unternehmen verwendet wird, vorauszusetzen. Die vertragliche Nebenpflicht des Unternehmers aus dem BGB zum Schutz der Rechtsgüter des Vertragspartners erfordert eine Aufklärung über nicht erwartbare Risiken z.B. bei Verwendung des Unternehmens-Chatbots. Ist die Confidence-Einstellung zu gering oder wurden zu wenige Trainingsdaten verwendet, so hat der Unternehmer den Verbraucher darüber aufzuklären, wenn er Chatbots im Kontakt mit dem Verbraucher einsetzt. Der Unternehmer muss für eine Fehlberatung seiner KI mit falschen Confidence-Werten einstehen, da der Verbraucher ein Mindestmaß an Training und Antwort-Sicherheit voraussetzen kann, wenn er einem solchen Modul im Web des Unternehmers begegnet. Freizeichnungsversuche wie „ich lerne noch“-Hinweise neben dem Chatbot oder ähnliches, können den Unternehmer nicht von einer Haftung für fehlerhafte Einstellungen der Confidence-Schwellenwerte befreien.

Für Unternehmer ist es daher ratsam, die Schwellenwerte für Confidence eher hoch anzusetzen und unterhalb dieser Schwelle Vorgänge auf eine „menschliche Bearbeitung“ umzuleiten. Statt „KI-Einsatz um jeden Preis“, sollte „lieber nichts als falsch“ das Ergebnis bestimmen. So, und jetzt ist die Diskussion eröffnet, ab welcher Confidence-Schwelle sich das Unternehmen sich noch compliant verhält.

Revival der robots.txt?

Über Sinn oder Unsinn der robots.txt gibt es verschiedene Ansichten, mitunter weil sie von manchen Web-Crawlern ignoriert wird. Wenn Sie in der Pflicht sind, als Verantwortlicher eines Unternehmens bestimmte Inhalte im Web vor Ausbeutung durch Suchmaschinen mit künstlicher Intelligenz zu schützen, kann die Verwendung der robots.txt ein Baustein sein:

Im Rechtsstreit über Urheberrechtsverletzungen wegen Inhalten, die ein Large Language Model zusammenstellt und ausgibt, kann es hilfreich sein, zu belegen, dass bestimmte Seiten von der Indexierung ausgenommen waren, weil man diese Inhalte nicht im Web an anderer Stelle wiederfinden wollte, gerade weil man ihnen besonderen urheberrechtlichen Wert beimisst.

Will ein fertigendes technisches Unternehmen zum Beispiel besonders detaillierte technische Beschreibungen nicht in Antworten einer fremden KI sehen, so ist es zu raten, eine inhaltlich einfacher gestaltete Web-Seite zu generieren, über die der Nutzer zu einer komplexen Seite der Webpräsenz des Unternehmens gelangt. Dem suchenden Roboter kann dann vorgeschrieben werden, die einfache – nicht aber die komplexe Seite zu crawlen. Sinnvoller wäre es noch, alle urheberrechtlich geschützte Inhalte von besonders hohem Wert in einem Verzeichnis zusammenzufassen und in der robots.txt z.B. so auszuschließen:

User-agent: *
Disallow: /diesesverzeichnis/

Die Kopie der einschlägigen Vermerke in der robots.txt helfen dem Rechtsanwalt im Verletzer-Prozess gegen KI-Anwendungs-Anbieter. Hier könnte dem Urheber eines kopierten Texts auch helfen, dass er mit der entsprechend formulierten robots.txt eine maschinenlesbare Einschränkung nach § 44 III UrhG einsetzen will.

einsetzt.Und – ja der Anwalt weiß: Die Begeisterung bei den für SEO Verantwortlichen wird nicht steigen, wenn besonders „unique“ Inhalte vom crawlen ausgenommen werden sollen. Wer gegen diese Ausnahmen ist, sollte dann aber wenigstens die KI-Suchmaschinen-Ergebnisse dahingehend überwachen, ob Zitate über die Herkunft der Inhalte (richtig) aufgeführt werden.

AI changes SEO

Die Entwicklung künstlicher Intelligenz, insbesondere Verbraucher-freundlicher Programme mit Sprach-Inferfaces, bringt Herausforderungen für Marketing- und Rechtsabteilungen.

Einerseits kann generative KI dazu verwendet, werden, Artikel (und anderen „Content“ in Textform) schnell schreiben zu lassen, die ein gesteigertes Ranking nach Einbindung in die eigenen Webpräsenz ermöglichen. Es ist aber davon auszugehen, dass Suchmaschinen künstlich generierte Artikel künftig an der Art der Zusammensetzung erkennen und geringer ranken. Selbst geschriebene Artikel sind aus rechtlicher Sicht vorzugsweise zu empfehlen, weil Urheber und Lizenz z.B. für den Arbeitgeber nachvollziehbar sind. Momentan gibt es bei den verbreiteten, kostenlos zugänglichen Sprachmodellen keine Garantie, dass der Bot bei der Formulierung keine Urheberrechte verletzt (Sprachwerke im Sinne des § 2 I Nr. 1 UrhG sind z.B. betroffen).

Aus rechtlicher Sicht ist außerdem wichtig, dass die Verantwortlichkeit des Inhalts der Artikel besteht, wenn man diese in die Webpräsenz einbindet. Daher müssen generierte Artikel daraufhin untersucht werden, ob sie über das eigene Unternehmen nicht wettbewerbswidrige Aussagen machen, wie zum Beispiel über die Unternehmensgröße, Marktmacht oder Produkte. Im Sinne des § 5 UWG muss überprüft werden, ob der Artikel irreführend ist. Es gibt Belege, dass künstliche Intelligenz halluziniert, also falsche „Fakten“ darstellt.

Hinsichtlich der Optimierung von Suchmaschinen (SEO) ist eine Änderung zu erwarten: Die Suche über Texteingabe dürfte teilweise abgelöst werden und durch eine Suche der Nutzer über Sprach-Interfaces mit Large Language Modellen ersetzt werden. Nutzer werden sich etwa daran gewöhnen, GPT zu fragen, statt in Google Search einzutippen. Google hat dies erkannt und arbeitet an eigenen Softwares wie Gemini – stets mit dem Ziel den Nutzer nicht an KI der Konkurrenz zu verlieren.

Und der Chef verantwortet die KI

Zu den Pflichten der Vorstände und Geschäftsführer zählt die Überwachung des Unternehmensablaufs. Nachdem Hacks und Angriffe auf Unternehmensinfrastrukturen immer weiter zunehmen (oder zumindest mehr in das öffentliche und juristische Interesse rücken), gehört der Bereich der IT–Sicherheit zu den wichtigen zu überwachenden Gegenständen. Es geht nicht nur um die Abschottung gegen Angriffe von außen und es wird auch seltener ein Informationsdieb mit dem Fotoapparat über Zäune springen. Aber gerade die Verlockungen für Mitarbeiter am eigenen Arbeitsplatz neue Technik zu verwenden, die als künstliche Intelligenz bezeichnet wird, ist eine Gefahr. Die Unternehmensführer müssen sich klarmachen:

KI ist nicht „irgendeine Intelligenz“ im Netz. Sie beruht auf riesigen Datenmengen, die mittlerweile besser als früher verknüpft und rechnerisch verarbeitet werden können. Diese Datenmengen müssen von der KI beschafft werden. Auch und gerade aus Unternehmen und auch und gerade mit BYOD/eigenen Geräten der Mitarbeiter.

Die Mitarbeiter müssen die Funktionsweise der sogenennten KI verstehen. Ihnen muss klar sein, dass jede Anfrage Datenspuren hinterlässt. Nicht umsonst schreibt Snapchts my AI in hier: „Außerdem solltest du vermeiden, vertrauliche oder sensible Informationen mit My AI zu teilen.“ Die Möglichkeiten, die GPT 4 o bieten wird, um Lernen zu vereinfachen, kann als Spur hinterlassen, was als Lerndefizit beim Nutzer besteht. An solchem Wissen über Schwächen hat die Konkurrenz gelegentlich auch strategisches Interesse.

Unternehmensführer, die sich nicht mit den Hinweisen des BSI (und Verweisen auf gemeinsam mit anderen Staaten erarbeiteten Guidelines) auseinandersetzen, sind also künftig vermutlich häufiger in die persönliche Haftung zu nehmen.

Wo Unternehmen ihr eigenes KI – Modell trainieren, muss klar sein, dass eine Eingabe mit sinnlosen Daten (data poisoning) ein ernst zu nehmender Angriff im Wettbewerb ist. Ist Mist in der eigenen KI, kann diese nicht mehr zur Entscheidungsfindung entlastend herangezogen werden, siehe dazu Beispielhaft der Wortlaut des Aktiengesetzes:

§ 93 AktG Sorgfaltspflicht und Verantwortlichkeit der Vorstandsmitglieder

(1) Die Vorstandsmitglieder haben bei ihrer Geschäftsführung die Sorgfalt eines ordentlichen und gewissenhaften Geschäftsleiters anzuwenden. Eine Pflichtverletzung liegt nicht vor, wenn das Vorstandsmitglied bei einer unternehmerischen Entscheidung vernünftigerweise annehmen durfte, auf der Grundlage angemessener Information zum Wohle der Gesellschaft zu handeln. Über vertrauliche Angaben und Geheimnisse der Gesellschaft, namentlich Betriebs- oder Geschäftsgeheimnisse, die den Vorstandsmitgliedern durch ihre Tätigkeit im Vorstand bekanntgeworden sind, haben sie Stillschweigen zu bewahren.

Soweit die Gesetzesnorm: Erkennbar ist daraus auch, dass das Vorstandsmitglied nicht in irgendeine fremde KI Betriebs- oder Geschäftsgeheimnisse eingeben darf. Die Praxis wird spannend werden.

Ihr Browser Agent verrät…

… vielleicht mehr als Ihnen Recht ist. Denn Ihr Browser teilt dem Server üblicherweise mit, ob Sie von einem Mobilgeräte-Browser anfragen. Zumindest, wenn sie keine besonderen Einstellungen vorgenommen haben. Das kann im Hinblick auf die von Ihnen zu schließenden Verträge relevant sein. Zur Bereitschaft, sorgfältig zu vergleichen und zum Zeitdruck kann dies für die Gegenseite wichtig sein. Sie könnte annehmen, dass Sie mit dem Mobil-Gerät entweder nebenbei ohne Ernsthaftigkeit oder unter Zeitdruck Informationen einholen. Solche Daten können sich auf die Ihnen angebotenen Preise auswirken.

Ihr User Agent teilt übrigens – ausgelesen über PHP preg_match – gerade eben mit:

Sie sind hier nicht mit dem Mobilgerät am Werk.

Die obige Information wir bei RA Fink nicht gespeichert oder sonst ausgewertet.

AI and GPT for all?

Was in Deutschland seit Jahrzehnten z.B. am DFKI in Saarbrücken erforscht wird, „geht jetzt mainstream“ seit openai et alt. Large Language Models sieht der Jurist als spannende Themen – dabei geht es weniger um das ferne Szenario (dazu kann man den Film Matrix im Hinterkopf behalten), sondern es zeigen sich aktuelle juristische Haftungsthemen.

Wie intelligent und zuverlässig die künstliche Intelligenz ist, die mittelständischen Wirtschaftsunternehmen zugänglich ist, werden wir in der Praxis erfahren. Vermutlich wird sich das Erscheinungsbild von Unternehmen im Web (und drumrum elektronisch) drastisch verändern. Nutzer werden einfachere und schnellere Informationsvermittlung zu Produkten, deren Handhabung und Reparatur erwarten. Herausforderungen dabei liegen in der umfassenden Bereitstellung von präzisen, richtigen und nicht verwässerten Informationen. Für die Unternehmensführung – und grundsätzlich wegen der Überwachungspflicht nicht nur für den CTO – bedeutet das, dass Dritten und Mitarbeitern nicht gestattet wird, GPTs mit allen möglichen Daten zu trainieren.

Vordringlichste Aufgabe aller führenden Mitarbeiter ist den mit der IT Befassten klarzumachen, welche KI verwendet werden darf/soll und welche Systeme und Anbieter hinter der verwendeten KI stehen und wohin Daten abfließen. Und: was man dazu im Unternehmen nicht weiß und vor Einsatz herausfinden muss. Außerdem ist es wichtig, stets die Auswahl der Daten zu überwachen, mit denen die Modelle trainiert werden.

Geschäftsführer und Vorstände müssen erkennen, dass binnen Sekunden Haftungsrisiken entstehen, wenn den GPTs Daten zum Training als Scan-Material freigegeben werden, die unter Geheimhaltung stehen und deren Verbleib ungeklärt ist.

Auf ein deutsches Gütesiegel für Künstliche Intelligenz werden viele nicht warten wollen. Die Risiken des „volle Kraft voraus“ sind aber offensichtlich:

GPT schreibt deine E-Mail? Und auch die deines Konkurrenten?

(eine der Fragen)

Aus der juristischen, insbesondere anwaltlichen Warte wird verstanden, dass die Entwicklung künstlicher Intelligenz zu immensen Möglichkeiten und Geschäftschancen für Unternehmen führt. Der Trend setzt Marktteilnehmer unter Druck, KI einzusetzen. Ein ungeplanter Einstieg, ohne die Auswirkungen zu kalkulieren, welche fehlerhafte oder unberechtigt vermittelte Daten hervorrufen, ist extrem haftungsträchtig. Das Thema Datensicherheit bleibt aktuell: Don´t let them spy using AI.

Da meldet sich keiner?

Wenn plötzlich keiner mehr antwortet, ist das meist kein gutes Zeichen, das der Handels- oder sonstige geschäftsmäßige Vertragspartner setzt. Was also tun? Neben eigenen Ermittlungsschritten ist es möglich bei der Behörde nachzufragen. Kommen bei Gewerbebetrieben dort Zweifel auf, ob sie zuverlässig geführt werden, kann die Gewerbeaufsicht einschreiten und prüfen, ob eine Untersagung ausgesprochen werden muss. Die entsprechenden Vorschriften befindet sich in der Gewerbeordnung, insbesondere:

Gewerbeordnung § 35: Gewerbeuntersagung wegen Unzuverlässigkeit

(1) Die Ausübung eines Gewerbes ist von der zuständigen Behörde ganz oder teilweise zu untersagen, wenn Tatsachen vorliegen, welche die Unzuverlässigkeit des Gewerbetreibenden oder einer mit der Leitung des Gewerbebetriebes beauftragten Person in bezug auf dieses Gewerbe dartun, sofern die Untersagung zum Schutze der Allgemeinheit oder der im Betrieb Beschäftigten erforderlich ist. 

Unternehmensverkauf

Share Deal: Wie erkennt man einen „gutes“ Angebot zum Unternehmenskaufvertrag?

Hier stellt sich natürlich erst die Frage, was aus Verkäufersicht als gut bewertet werden kann. Zu einem guten Vertrag gehört nicht nur ein guter Preis, sondern auch eine Abwicklung mit möglichst wenig Missverständnissen und natürlich mit möglichst wenig Risiken, welche die Freude am Kaufpreis (und diesen selbst manchmal) reduzieren.

Aus anwaltlicher Sicht ist der Preis ein kleiner Teil dessen, was für den Gesellschafter als Verkaufsinteressenten stimmen muss: Gerne würde der Anwalt den Mandanten sagen hören:

Der Käufer hat geprüft und ist zufrieden, wir haben die Garantien besprochen und reduziert, die Haftungsausschlüsse stimmen und es gibt keine Kaufpreiskorrekturklauseln.

Und natürlich – was nicht immer so der Fall ist – würde der Anwalt gerne sagen:

Wie von Ihnen mündlich mit dem Käufer besprochen, steht es auch in der letzten Version, die als notarieller Entwurf überlassen wurde.

Entscheidend ist beim Share-Deal was der Notar schließlich beurkundet. Der „Hammer“ kann auch in der letzten Version liegen – eventuell in der Auslegung der englischen Fassung eines internationalen Geschäfts. Erwarten Sie als Verkäufer Zeitdruck-Taktiken durch Erklärungen der Gegenseite, dass das Käufer-Budget nur kurz bereit stehe. Bleiben Sie frisch und lesen Sie als Verkäufer, was beurkundet werden soll.

Die Käuferseite hat natürlich ein Interesse an zahlreichen und breiten Garantie-Erklärungen des Verkäufers. Solche Klauseln sparen Kosten einer umfassenden Due Diligence durch den Käufer (auch wenn der Verzicht aus Anwaltssicht dem Käufer regelmäßig nicht zu raten ist).

Die Käuferseite wird vielleicht darauf hinweisen, dass Garantie- und Haftungsklauseln nur auf dem Papier bedeutend seien und es ja keine Probleme nach der Prüfung geben dürfte.

Tatsächlich ist es oft anders. Eine einzige schnell geschriebene Nachricht von vor Jahren kann eine Schadensersatz auslösende falsche Zusicherung bedeuten. Aus Sicht des Verkäufers darf der Wert eines Fragenkatalogs an den Verkäufer (als Anlage zum Vertrag) nicht unterschätzt werden. Dabei geht es nicht nur um die Richtigkeit, sondern auch um die Vollständigkeit der Erklärungen zu den Fragen des Käufers.

Wie so oft gilt auch hier: Man sollte in der Verhandlungszeit die Ruhe bewahren und das geschriebene Wort und seine Auslegungsmöglichkeiten immer wieder in den aktuellen Vertragsversionen überprüfen.

Security seit Cassidy und das Schweigen

Cassidy Wolf ist wohl das bekannteste Opfer der Übernahme einer Webcam durch einen Angreifer. Die ehemalige Miss Teen USA wurde 2013 mit ohne ihr Wissen angefertigten Aufnahmen erpresst. Remote access tools, kurz “RAT“, Programme die auch im Darknet gehandelt werden, ermöglichten und ermöglichen heute unberechtigte Übernahmen von Files und Streams – meist ohne, dass der Eigentümer des gehackten Geräts etwas ahnt.

Informationen über Hard- und Software verwendeter Zielsysteme können die Suche nach passenden RAT vereinfachen. Daraus folgt, dass die Mitteilung darüber, welche Technik verwendet wird, an die Öffentlichkeit oder Dritte ohne berechtigtes Interesse, die Gefährdung erhöht. In vielen Fällen dürfte das (in verschiedenen Bereichen der Informatik diskutierte) Prinzip der security by obscurity helfen: Nicht jeder muss ihre Geräte kennen.

Im Sinne der DSGVO ist das Schweigen darüber eine von vielen „geeigneten technischen und organisatorischen Maßnahmen, um ein dem Risiko angemessenes Schutzniveau zu gewährleisten“, vgl. Art. 32 DSGVO. Das gilt um so mehr als Chat GPT (oder eben der böse Bruder Brat GPT) und andere KI-Modelle Code generieren können: „Schreibe mir ein Programm, das Zugriff auf …“ -> es bleibt spannend.

Risikomanagementmaßnahmen im Bereich der Cybersicherheit

Was kommt da in NIS 2, insbesondere in Kapitel 4, auf Unternehmen zu?

Das wissen wir nicht sicher, aber der Rechtsrahmen ist abgesteckt. Hier in der Richtlinie können Sie nachlesen, was der Gesetzgeber umzusetzen hat.

Spannend ist z.B. die Bildungspflicht der Organe und der Mitarbeiter wesentlicher und wichtiger Einrichtungen. Es sollen regelmäßig Schulungen angeboten werden, um „ausreichende Kenntnisse und Fähigkeiten zur Erkennung und Bewertung von Risiken sowie Managementpraktiken im Bereich der Cybersicherheit und deren Auswirkungen auf die von der Einrichtung erbrachten Dienste zu erwerben.“

Artikel 3 zeigt übrigens, wer als wesentlich und wichtig gilt.