ChatGPT: Verletzung von Persönlichkeitsrechten?

ChatGPT schreibt Gedichte, beantwortet Fragen zu Produkten und gibt Auskunft über Personen. Zwar hält sich der KI-Chatbot mit Aussagen über Personen zurück, die nicht im Licht der Öffentlichkeit stehen. Gelegentlich lassen sich aber auch in diesen Fällen erstaunliche Informationen gewinnen, die nicht immer zutreffend sind (gilt natürlich auch für Prominente: https://www.bild.de/news/inland/news-inland/chatgpt-gysi-und-die-stasi-wenn-die-ki-fake-news-erstellt-83216124.bild.html). Hier stellt sich die Frage: Wer haftet für eine Falschinformation, z.B. auf Richtigstellung? Kann man sich wehren, wenn man als Prominenter vom KI-Chatbot verspottet oder kritisiert wird? Und nach welchen Grundsätzen richtet sich die Haftung?

Gleiches gilt für Auskünfte zu Produkten. Nehmen wir z.B. die Frage, welches unter CO2-Gesichtspunkten die bessere Wahl unter mehreren konkret bezeichneten Auto-Typen ist, wenn man von Hamburg nach Berlin fahren will. Man möchte nicht die Hand dafür ins Feuer legen, dass ChatGPT die richtige Antwort gibt. Das ist kein Wunder, denn die KI ist weder intelligent noch allwissend. Sie gibt nur die Informationen wieder, die sie im Internet findet – und die können, wie jeder weiß, auch falsch, unvollständig, veraltet oder verzerrt sein. Denken Sie im obigen Beispiel an den Autohersteller, der eine geschäftsschädigende Antwort von ChatGPT über sein Produkt zu erkennen meint. Was sind die rechtlichen Kriterien, nach denen er die Antworten von ChatGPT gerichtlich untersagen lassen kann?

ChatGPT unterscheidet sich von herkömmlichen Suchmaschinen wie Google. Die Suchmaschine gibt nach Eingabe der Suchbegriffe Fundstellen im Netz an, die auf fremde Inhalte verweisen. Jeder kann sich durch Anklicken selbst ein Bild machen und muss die Information in den Suchergebnissen selbst bewerten. Dagegen gibt ChatGPT die Quellen seiner Information nicht an, sondern erstellt eine eigene Antwort. Die KI nimmt selbst die Auswahl der Informationen vor, die im Netz zu finden sind, strukturiert und bewertet sie nach Relevanz und Inhalt.

Der Unterschied ist rechtlich bedeutsam. Die Suchmaschine haftet nicht für den Inhalt der Websites, die sie anzeigt. Unter gewissen datenschutzrechtlichen Voraussetzungen kann der Betroffene zwar verlangen, dass bestimmte Suchergebnisse nicht (mehr) angezeigt werden – aber für deren Inhalt ist die Suchmaschine nicht verantwortlich. Wäre es anders, ließe sich eine Suchmaschine nicht rentabel betreiben. Für Chat-Bots kann das m.E. aber nicht in gleicher Weise gelten. Deren Antworten erscheinen als „eigene“ Antwort der KI, ganz so, als hätte eine natürliche Person gesprochen. Äußerungen natürlicher Personen stehen unter dem Schutz der Meinungsfreiheit. Wer von Spott oder Kritik betroffen ist, die sich innerhalb der Grenzen der Meinungsfreiheit bewegt, muss das hinnehmen. Sollen die Grundrechte bzw. entsprechende Freiheiten auch für Automaten mit künstlicher Intelligenz gelten? Das ist eine Frage, mit der sich die Gerichte in absehbarer Zeit werden beschäftigen müssen. Eine naheliegende Antwort könnte lauten: Nein, ein Chat-Bot kann das Grundrecht der Meinungsfreiheit nicht für sich in Anspruch nehmen. Seine Äußerungen werden aber dem Betreiber zugerechnet, der als natürliche Person oder Unternehmen ohne Zweifel den Schutz der Grundrechte genießt.

Wäre das Problem damit gelöst? Mitnichten. Die Probleme fangen damit erst an. Denn wenn die Aussagen des Chat-Bots dem Betreiber zugerechnet werden, würde das auch für Tatsachenbehauptungen gelten, Produktaussagen oder Informationen über Personen. Das würde das Tor für eine Vielzahl rechtlicher Auseinandersetzungen öffnen, die den Betreiber der KI in die Knie zwingen könnten. Sogar wettbewerbsrechtliche Auseinandersetzungen wären denkbar, wenn der Betreiber des Chat-Bot im Wettbewerb zu dem Unternehmen steht, das von der Bot-Aussage betroffen ist. Ob ein „notice-and-take-down“-Verfahren die Lösung dieser Probleme sein kann, wie es der BGH für die Ergänzungsvorschläge der Google-Suche etabliert hat (https://www.juve.de/verfahren/automatische-suchvorschlage-bgh-weist-taylor-wessing-mandantin-google-in-die-schranken/), kann bezweifelt werden. Denn aufgrund der Fülle an Suchanfragen wäre ein Chat-Bot-Betreiber wohl auch damit überfordert. Vermutlich wird der Gesetzgeber eine Lösung für den Interessenausgleich zwischen KI-Betreiber und den Betroffenen finden müssen.

Weitere Artikel zu ChatGPT:

Teil 1: ChatGPT: Verletzung von Urheberrechten?

Teil 2: Bedroht ChatGPT das Geschäftsmodell von Zeitungsverlagen?

Disclaimer: Die Ausführungen geben die Meinung des Autors wieder und stellen keine Rechtsberatung dar.

Scroll to Top