Confidence, Fahrlässigkeit, Mangel

Wer ein Large Language Model trainiert, gibt Daten ein, die der Beantwortung von künftigen Fragen an die KI nutzen sollen. Die Software erkennt Strukturen und bietet Lösungen an. Klar ist, dass nicht alle Antworten zutreffend sind.

Wer also eine Software, die zur Interaktion mit dem Kunden eingesetzt werden soll, trainiert, wird damit konfrontiert, entscheiden zu müssen welche Ergebnisse angezeigt werden sollen und welche zu schlecht sind, um sie dem Nutzer der KI zu präsentieren. Bei Bilderkennungs-Software z.B., kann die Maschine einschätzen, wie weit sie von den trainierten, also bekannten und sicher zugeordneten, Bildern entfernt ist, wenn sie ein unbekanntes Bild präsentiert bekommt. Der Grad der Übereinstimmung des einzustufenden Bilds mit bekennten Bildern wird als Confidence-Wert z.B. mit Prozentangabe ermittelt. Je höher die eigene Confidence-Bewertung der Software ist, desto höher ist die erwartete Wahrscheinlichkeit, dass die Einsortierung richtig ist.

Die Einstellung der erkennenden Software kann üblicherweise eine bestimmte Höhe der Confidence als Schwellenwert festlegen, die notwendigerweise zu erreichen ist, um ein Ergebnis dem Nutzer – als zur Beantwortung hinreichend – anzeigen zu lassen.

Aus juristische Sicht ist diese technische Einstellung durchaus bedeutsam. Dies betrifft insbesondere die Einschätzung eines interagierenden KI-Software-Produkts als vertragskonform oder mangelhaft, denn: Überlässt man eine Software zur Nutzung, die mit zu geringen Confidence-Werten eingerichtet ist, so ist zu erwarten, dass diese in einer Vielzahl von Fällen nicht zutreffende Ergebnisse präsentiert, also vom vertraglich vorausgesetzten Einsatzzweck abweicht.

Im Streit zwischen Developer/Trainer und Auftraggeber (über die Software-Erstellung und Funktion einer LLM-basierten Software) ist die Einstellung der Confidence für die Bewertung als fahrlässige oder vorsätzliche Vertragsverletzung zu berücksichtigen. Bei nur geringen Confidence-Werten, die zur Anzeige zugelassen werden, kann von einem Mangel des Produkts ausgegangen werden.

Außerdem ist aus Sicht eines Verbrauchers eine Mindestsicherheit der künstlichen Intelligenz, die ihm gegenüber vom Unternehmen verwendet wird, vorauszusetzen. Die vertragliche Nebenpflicht des Unternehmers aus dem BGB zum Schutz der Rechtsgüter des Vertragspartners erfordert eine Aufklärung über nicht erwartbare Risiken z.B. bei Verwendung des Unternehmens-Chatbots. Ist die Confidence-Einstellung zu gering oder wurden zu wenige Trainingsdaten verwendet, so hat der Unternehmer den Verbraucher darüber aufzuklären, wenn er Chatbots im Kontakt mit dem Verbraucher einsetzt. Der Unternehmer muss für eine Fehlberatung seiner KI mit falschen Confidence-Werten einstehen, da der Verbraucher ein Mindestmaß an Training und Antwort-Sicherheit voraussetzen kann, wenn er einem solchen Modul im Web des Unternehmers begegnet. Freizeichnungsversuche wie „ich lerne noch“-Hinweise neben dem Chatbot oder ähnliches, können den Unternehmer nicht von einer Haftung für fehlerhafte Einstellungen der Confidence-Schwellenwerte befreien.

Für Unternehmer ist es daher ratsam, die Schwellenwerte für Confidence eher hoch anzusetzen und unterhalb dieser Schwelle Vorgänge auf eine „menschliche Bearbeitung“ umzuleiten. Statt „KI-Einsatz um jeden Preis“, sollte „lieber nichts als falsch“ das Ergebnis bestimmen. So, und jetzt ist die Diskussion eröffnet, ab welcher Confidence-Schwelle sich das Unternehmen sich noch compliant verhält.

AI changes SEO

Die Entwicklung künstlicher Intelligenz, insbesondere Verbraucher-freundlicher Programme mit Sprach-Inferfaces, bringt Herausforderungen für Marketing- und Rechtsabteilungen.

Einerseits kann generative KI dazu verwendet, werden, Artikel (und anderen „Content“ in Textform) schnell schreiben zu lassen, die ein gesteigertes Ranking nach Einbindung in die eigenen Webpräsenz ermöglichen. Es ist aber davon auszugehen, dass Suchmaschinen künstlich generierte Artikel künftig an der Art der Zusammensetzung erkennen und geringer ranken. Selbst geschriebene Artikel sind aus rechtlicher Sicht vorzugsweise zu empfehlen, weil Urheber und Lizenz z.B. für den Arbeitgeber nachvollziehbar sind. Momentan gibt es bei den verbreiteten, kostenlos zugänglichen Sprachmodellen keine Garantie, dass der Bot bei der Formulierung keine Urheberrechte verletzt (Sprachwerke im Sinne des § 2 I Nr. 1 UrhG sind z.B. betroffen).

Aus rechtlicher Sicht ist außerdem wichtig, dass die Verantwortlichkeit des Inhalts der Artikel besteht, wenn man diese in die Webpräsenz einbindet. Daher müssen generierte Artikel daraufhin untersucht werden, ob sie über das eigene Unternehmen nicht wettbewerbswidrige Aussagen machen, wie zum Beispiel über die Unternehmensgröße, Marktmacht oder Produkte. Im Sinne des § 5 UWG muss überprüft werden, ob der Artikel irreführend ist. Es gibt Belege, dass künstliche Intelligenz halluziniert, also falsche „Fakten“ darstellt.

Hinsichtlich der Optimierung von Suchmaschinen (SEO) ist eine Änderung zu erwarten: Die Suche über Texteingabe dürfte teilweise abgelöst werden und durch eine Suche der Nutzer über Sprach-Interfaces mit Large Language Modellen ersetzt werden. Nutzer werden sich etwa daran gewöhnen, GPT zu fragen, statt in Google Search einzutippen. Google hat dies erkannt und arbeitet an eigenen Softwares wie Gemini – stets mit dem Ziel den Nutzer nicht an KI der Konkurrenz zu verlieren.

Und der Chef verantwortet die KI

Zu den Pflichten der Vorstände und Geschäftsführer zählt die Überwachung des Unternehmensablaufs. Nachdem Hacks und Angriffe auf Unternehmensinfrastrukturen immer weiter zunehmen (oder zumindest mehr in das öffentliche und juristische Interesse rücken), gehört der Bereich der IT–Sicherheit zu den wichtigen zu überwachenden Gegenständen. Es geht nicht nur um die Abschottung gegen Angriffe von außen und es wird auch seltener ein Informationsdieb mit dem Fotoapparat über Zäune springen. Aber gerade die Verlockungen für Mitarbeiter am eigenen Arbeitsplatz neue Technik zu verwenden, die als künstliche Intelligenz bezeichnet wird, ist eine Gefahr. Die Unternehmensführer müssen sich klarmachen:

KI ist nicht „irgendeine Intelligenz“ im Netz. Sie beruht auf riesigen Datenmengen, die mittlerweile besser als früher verknüpft und rechnerisch verarbeitet werden können. Diese Datenmengen müssen von der KI beschafft werden. Auch und gerade aus Unternehmen und auch und gerade mit BYOD/eigenen Geräten der Mitarbeiter.

Die Mitarbeiter müssen die Funktionsweise der sogenennten KI verstehen. Ihnen muss klar sein, dass jede Anfrage Datenspuren hinterlässt. Nicht umsonst schreibt Snapchts my AI in hier: „Außerdem solltest du vermeiden, vertrauliche oder sensible Informationen mit My AI zu teilen.“ Die Möglichkeiten, die GPT 4 o bieten wird, um Lernen zu vereinfachen, kann als Spur hinterlassen, was als Lerndefizit beim Nutzer besteht. An solchem Wissen über Schwächen hat die Konkurrenz gelegentlich auch strategisches Interesse.

Unternehmensführer, die sich nicht mit den Hinweisen des BSI (und Verweisen auf gemeinsam mit anderen Staaten erarbeiteten Guidelines) auseinandersetzen, sind also künftig vermutlich häufiger in die persönliche Haftung zu nehmen.

Wo Unternehmen ihr eigenes KI – Modell trainieren, muss klar sein, dass eine Eingabe mit sinnlosen Daten (data poisoning) ein ernst zu nehmender Angriff im Wettbewerb ist. Ist Mist in der eigenen KI, kann diese nicht mehr zur Entscheidungsfindung entlastend herangezogen werden, siehe dazu Beispielhaft der Wortlaut des Aktiengesetzes:

§ 93 AktG Sorgfaltspflicht und Verantwortlichkeit der Vorstandsmitglieder

(1) Die Vorstandsmitglieder haben bei ihrer Geschäftsführung die Sorgfalt eines ordentlichen und gewissenhaften Geschäftsleiters anzuwenden. Eine Pflichtverletzung liegt nicht vor, wenn das Vorstandsmitglied bei einer unternehmerischen Entscheidung vernünftigerweise annehmen durfte, auf der Grundlage angemessener Information zum Wohle der Gesellschaft zu handeln. Über vertrauliche Angaben und Geheimnisse der Gesellschaft, namentlich Betriebs- oder Geschäftsgeheimnisse, die den Vorstandsmitgliedern durch ihre Tätigkeit im Vorstand bekanntgeworden sind, haben sie Stillschweigen zu bewahren.

Soweit die Gesetzesnorm: Erkennbar ist daraus auch, dass das Vorstandsmitglied nicht in irgendeine fremde KI Betriebs- oder Geschäftsgeheimnisse eingeben darf. Die Praxis wird spannend werden.

AI and GPT for all?

Was in Deutschland seit Jahrzehnten z.B. am DFKI in Saarbrücken erforscht wird, „geht jetzt mainstream“ seit openai et alt. Large Language Models sieht der Jurist als spannende Themen – dabei geht es weniger um das ferne Szenario (dazu kann man den Film Matrix im Hinterkopf behalten), sondern es zeigen sich aktuelle juristische Haftungsthemen.

Wie intelligent und zuverlässig die künstliche Intelligenz ist, die mittelständischen Wirtschaftsunternehmen zugänglich ist, werden wir in der Praxis erfahren. Vermutlich wird sich das Erscheinungsbild von Unternehmen im Web (und drumrum elektronisch) drastisch verändern. Nutzer werden einfachere und schnellere Informationsvermittlung zu Produkten, deren Handhabung und Reparatur erwarten. Herausforderungen dabei liegen in der umfassenden Bereitstellung von präzisen, richtigen und nicht verwässerten Informationen. Für die Unternehmensführung – und grundsätzlich wegen der Überwachungspflicht nicht nur für den CTO – bedeutet das, dass Dritten und Mitarbeitern nicht gestattet wird, GPTs mit allen möglichen Daten zu trainieren.

Vordringlichste Aufgabe aller führenden Mitarbeiter ist den mit der IT Befassten klarzumachen, welche KI verwendet werden darf/soll und welche Systeme und Anbieter hinter der verwendeten KI stehen und wohin Daten abfließen. Und: was man dazu im Unternehmen nicht weiß und vor Einsatz herausfinden muss. Außerdem ist es wichtig, stets die Auswahl der Daten zu überwachen, mit denen die Modelle trainiert werden.

Geschäftsführer und Vorstände müssen erkennen, dass binnen Sekunden Haftungsrisiken entstehen, wenn den GPTs Daten zum Training als Scan-Material freigegeben werden, die unter Geheimhaltung stehen und deren Verbleib ungeklärt ist.

Auf ein deutsches Gütesiegel für Künstliche Intelligenz werden viele nicht warten wollen. Die Risiken des „volle Kraft voraus“ sind aber offensichtlich:

GPT schreibt deine E-Mail? Und auch die deines Konkurrenten?

(eine der Fragen)

Aus der juristischen, insbesondere anwaltlichen Warte wird verstanden, dass die Entwicklung künstlicher Intelligenz zu immensen Möglichkeiten und Geschäftschancen für Unternehmen führt. Der Trend setzt Marktteilnehmer unter Druck, KI einzusetzen. Ein ungeplanter Einstieg, ohne die Auswirkungen zu kalkulieren, welche fehlerhafte oder unberechtigt vermittelte Daten hervorrufen, ist extrem haftungsträchtig. Das Thema Datensicherheit bleibt aktuell: Don´t let them spy using AI.

Risikomanagementmaßnahmen im Bereich der Cybersicherheit

Was kommt da in NIS 2, insbesondere in Kapitel 4, auf Unternehmen zu?

Das wissen wir nicht sicher, aber der Rechtsrahmen ist abgesteckt. Hier in der Richtlinie können Sie nachlesen, was der Gesetzgeber umzusetzen hat.

Spannend ist z.B. die Bildungspflicht der Organe und der Mitarbeiter wesentlicher und wichtiger Einrichtungen. Es sollen regelmäßig Schulungen angeboten werden, um „ausreichende Kenntnisse und Fähigkeiten zur Erkennung und Bewertung von Risiken sowie Managementpraktiken im Bereich der Cybersicherheit und deren Auswirkungen auf die von der Einrichtung erbrachten Dienste zu erwerben.“

Artikel 3 zeigt übrigens, wer als wesentlich und wichtig gilt.

Lizenzeinräumung: Where on FB?

Wo befinden sich die Hinweise auf Facebook, die sich mit der Einräumung einer Lizenz des Nutzers für die hochgeladenen Bilder und anderen Inhalte befasst?

Z.B. hier in den AGB: Link zu Facebook Terms

Interessant ist – aus juristischer Sicht einiges – insbesondere der Punkt Nr. 3 unter 3., der auch die Einräumung einer Lizenz für abgeleitete Werke betrifft. Laut meta/Facebook dient die Lizenz lediglich dazu dem Nutzer Dienste bereitzustellen. Was das eines Tages für neuartige Dienste im „Metaverse“ bedeutet, bleibt spannend.

Es ist zu raten, die eigenen Einstellungen zur Nutzung von Inhalten auf Facebook in regelmäßigen Abständen zu prüfen und nach dem eigenen Willen anzupassen, damit meta, wie sie schreiben, die Dienste „im Einklang mit deinen Einstellungen“ wie sie schreiben erbringt.

Ein Wort zum Troll

Wer sein/ihr Unternehmen oder einen Anteil daran verkaufen will – und insbesondere wer kaufen will, wird das unternehmerische Risiko des Kaufgegenstandes im Blick haben. Vor dem Erwerb muss es – vielleicht sogar erstmals – (hoffentlich) realistisch eingeschätzt werden.

Unternehmensleiter, die über Jahre mit Software oder auf Software gestützten Produkten am Markt präsent waren, sind gelegentlich irritiert, wenn die reale Thematik der Risiken aus dem Immaterialgüterrecht aufkommt, insbesondere die der Patent-Trolle.

Als Trolle bezeichnet man üblicherweise an einem Patent berechtigte Unternehmen, die ohne wesentliche eigene Tätigkeit mit dem jeweiligen Patent, aus der Verletzung des Patentrechts Gewinn generieren wollen.

Im Software- und IT-Bereich ist es nicht einfach und mit Aufwand (finanziell wie auch personell) verbunden fremde Immaterialgüterrechte an den eigenen Programmen zu prüfen oder prüfen zu lassen. Manchmal unterbleibt eine solche Prüfung. Das kann sich rächen, wenn der Patent-Troll auf das Unternehmen zukommt und Schadensersatz fordert. Solche Versäumnisse sollten in den M&A-Verhandlungen „eingepreist“ und Risiken vor dem Kauf minimiert werden.

Positiv ist, dass immer wieder auch Klagen von Trollen keinen Erfolg haben. Dies zeigte sich in der Sache Gnome-Shotwell, wobei der Patent-Troll sogar sein verliert sein Patent verlor. Hier weiterführendes.

Im Hinblick die Compliance sollten langfristige Strategien zur Darlegung der Rechtmäßigkeit der Verwendung von Technologien erarbeitet werden. Diese helfen auch in der Verkaufssituation mit oder ohne due diligence.

(Update 2.5.2022)

Endlich Recht für den Appstore und IoT?

§ 475b BGB tritt am 1.1.2022 in Kraft: Der Sachmangel einer Ware mit digitalen Elementen wird im Gesetz geregelt. Für die codenden Unternehmer der IT-Branche ist die Update-Pflicht für bestimmte B2C-angebotene Software besonders interessant. Den Mandanten wird geraten sich frühzeitig mit den Regeln vertraut zu machen, insbesondere wenn Apps im nächsten Jahr veröffentlicht werden sollen.

Das besondere Gewährleistungsrecht geht den Regeln aus dem Kauf-/Mietrecht vor. Einmaliger Kauf und dauernde Bereitstellung werden vom Gesetz als gesonderte digitale Geschäftsformen erkannt. Zu Umfang und Haftung aus der Update-Pflicht wird die Rechtsprechung beobachtet werden müssen, da zahlreiche Fragen der Umsetzung in der Praxis offen sind.

Coding mit dem Pen

„Einer ist immer der Dev“ heißt es – und man weiß nicht sofort wer. Das zeigt sich auch bei der Arbeit mit Codepen (externer Link hier), der Community-Spielwiese für Entwickler und solche, die es werden wollen. Auf Codepen kann u.a. nach HTML/CSS/PHP/JS-Lösungen gesucht werden und das Gefundene in lauffähiger Umgebung ausprobiert und verändert, siehe den leeren Testbereich hier.

Wer die Rechte am in den einzelnen „Unterseiten“ bereitgehaltenen Code hält, ist nicht einfach zu erkennen. Kürzlich erreichte Rechtsanwalt Fink die Frage nach der Behandlung von Programmen auf Codepen durch den Entwickler. Ein Teil der Antwort ist in den Vertragswerken zu finden:

Codepen erlaubt die Darstellung von Software (oder Teilen) in einem geschützten Nutzerbereich (Private Pen) oder in öffentlich zugänglichen Modulen, sogenannten Public Pens.

Private Pens können die Verwendung der dargestellten Programme in eigenen Lizenzbedingungswerken wesentlich einschränken. Also ist es ratsam einzelfallspezifisch zu klären, was der Einstellende zur Bedingung macht.

Öffentliche Pens werden gut über Suchmaschinen gefunden und können als Software-Lösungen kopiert und in eigene Projekte integriert werden. Solche Inhalte in öffentlichen Pens stehen gemäß den Codepen-Bedingungen bei Einstellung unter der MIT Lizenz, also einer Open Source-Lizenz. Das ist positiv, da diese Lizenz im Wesentlichen die Pflicht zur Einbindung des Urhebervermerks bedeutet:

The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software.

Textauszug der MIT License

Sollte aber derjenige, der die Software bei Codepen eingestellt hat, nicht die Rechte zu Lizenzierung nach MIT haben, wird es unter Umständen für den implementierenden Entwickler problematisch. Dem tatsächlichen Software-Entwickler stehen die üblichen Rechte zu, die ihm z.B. das deutsche Urhebergesetz in § 2 UrhG gibt. Die (MIT-)Lizenzbedingungen entfalten als Einschränkung durch den Unberechtigten keine Wirkung gegen den Rechteinhaber.

Nicht tapen?

Nachdem die Mikrofon-Qualität der heutigen Generation der Mobiltelefone im mittleren Frequenzbereich gute Aufnahmen erlaubt, kann jeder tolle Gesprächsaufnahmen fertigen. Das wird auch oft „draußen“ in der Öffentlichkeit gemacht. Auch wenn nicht alles bei YouTube oder FB landet, gibt es zu beachtende gesetzliche Grenzen: Wo steht eigentlich, dass man Gespräche nicht aufs Handy aufnehmen darf?

Zum Beispiel im deutschen Strafgesetzbuch:


§ 201 StGB Verletzung der Vertraulichkeit des Wortes

Mit Freiheitsstrafe bis zu drei Jahren oder mit Geldstrafe wird bestraft, wer unbefugt
das nichtöffentlich gesprochene Wort eines anderen auf einen Tonträger aufnimmt

Im Vertrags- wie z.B. im Arbeitsverhältnis ist an die Rücksichtnahmepflicht aus § 241 BGB zu denken. Das Gesetz zum Schutz von Geschäftsgeheimnissen (GeschGehG), sieht außerdem Handlungsverbote (§ 4) vor, die vor dem Aufnehmen von Geheimnissen durch Unbefugte schützen.