Interview: Zu Gast im „KI verstehen Podcast“ vom DLF (Deutschlandfunk)
Carina Schroeder und Moritz Metz diskutieren in dieser Episode vom „KI Verstehen Podcast“ über das Thema „Warum man ChatGPT nicht alles erzählen sollte“. In diesem Beitrag darf ich auch von meinem Projekt „Private Prompts“ erzählen.
Transkription des Podcasts
Nachfolgend eine Transkription des Podcasts. Die Transkription wurde automatisch erstellt und nicht redaktionell bearbeitet. Technisch bedingt kann sie Fehler enthalten. Maßgeblich für den Inhalt ist das gesprochene Wort im Podcast:
“Moritz, hast du schon mal ein Chatbot etwas gefragt, was dir vielleicht im Nachhinein so ein bisschen peinlich ist, wenn Menschen das wüssten? Ich meine, hier im Podcast sind wir ganz unter uns, da kannst du das ja einfach auch mal erzählen, oder? Das kann schon sein, aber dann habe ich auch den Inkognitormodus angestellt und das ist auch nicht so geheimes gewesen. Okay, was würdest du denn über so Anfragen denken, wie “welche Länder mögen jüngere Frauen, die auf ältere Männer stehen oder warum stinken einige Viertel mehr als andere?” oder “wie lerne ich Frauen mit großen Brüsten kennen?” Ja, also das sind schon krasse Anfragen, so was habe ich nicht geschrieben. Also wenn du das schon krass findest, dann glaube ich, kann ich dich jetzt noch ein bisschen mehr schockieren, denn Unzählige von diesen Anfragen, die wurden im April diesen Jahres von einem Chatbot öffentlich gemacht, allerdings wussten die Fragenstellenden wohl eher nichts davon oder nicht immer was davon und es kommt noch schlimmer, denn es gab auch Fragen zu begangenen Bundesverbrechen, Steuerhinterziehungen, Wohnanschriftenwohnen veröffentlicht, sensible gerichtliche Details wurden veröffentlicht und so weiter und sofort und viele von diesen Anfragen, die ließen sich auch sehr gut zuordnen dank Benutzernamen und Profilbilder bei Instagram. Oh Gott, das klingt wie ein Albtraum für die Leute, die das da eingestellt haben und der KI sich anvertraut haben, wie es dazu kommen konnte, das musste uns dann vielleicht auch noch erzielen. KI verstehen, der Deutschlandfunk Podcast über künstliche Intelligenz im Alltag. Und das ist die Folge, in der wir über digitale Privatsphäre sprechen. Hallo, wenn man so Geschichten hört, wie eben, dann merkt man, die digitale Privatsphäre ist sehr wichtig, das sollte man am besten auch nicht erst dann merken, wenn es schon zu spät ist und unsere privaten Daten irgendwo im Netz kursieren. Kurz zu unseren ganz öffentlichen Daten, Moritz Metz ist mein Name, Karina Schröder ist dein Name und du hast dich eingearbeitet in die Frage, geht die Nutzung kommerzieller KI-Tools wie ChatGPT und Co auch privatsphäre sicher? Und Karina, wir haben lange überlegt, welchen Titel wir dieser Folge geben wollen, denn privatsphäre sicher, das ist ja am Ende nichts als Datenschutz. Und dieses Wort sagt bei vielen Menschen gleich eher für Abwehrreaktionen, kannst du dir das erklären, warum? Ich glaube, es gibt nicht den einen Grund. Gerade erst wurde eine Studie veröffentlicht, federführend von der Universität Duisburg-Essen und die zeigt viele persönliche Daten, geben wir gerne Preis, weil wir auf Empfehlung von Freunden und Bekannten handeln oder weil uns versprochen wird, dass eine Anwendung sehr CO2 spahrend ist. Das bezieht sich natürlich nicht nur auf KI-Daten, sondern alle Daten. Ohne mich jetzt auf Studien zu stützen, würde ich auch sagen, dass viele Tools, die wir gerne benutzen, da gibt es auch kostenlose Versionen, so was wie ChatGPT, Perplexity und Co. Aber wie immer gilt, wenn Sachen kostenlos sind, dann bezahlen wir meist mit unseren Daten. Meine Gesprächspartner haben mir noch weitere Gründe genannt, so was wie Datenschutz wird auch gerne als Ausrede benutzt, wenn Unternehmen oder Regierung was nicht machen wollen, dann sagen sie auch gerne so was wie “jah, diese interne Auskunft, die dürfen wir aus Datenschutzgründen nicht weitergeben”. Und das rückt natürlich Datenschutz eher in so einem negativen Licht. Aber ich glaube, eine der wichtigsten Gründe ist, wir können nicht so richtig abschätzen, was mit unseren Daten passiert und welche Folgen das haben kann. Aber das Beispiel vom Anfang zeigt schon, es kann gravierende Folgen haben. Also du sagst, wir machen uns oft keine Gedanken über unsere Daten, weil wir es scheinbar nicht müssen. Viele, glaube ich, sagen auch einfach, ich habe ja gar nichts zu verbergen und ich finde, da gibt es einen sehr schönen Konter darauf. Edward Snowden, der berühmte Rizzleblower, hat mal gesagt, zu behaupten, dass man keine Privatsphäre braucht, weil man nichts zu verbergen habe. Das sei so, als würde man behaupten, keine Meinungsfreiheit zu brauchen, weil man ja gar nichts zu sagen habe. Und ich würde das ein ganz überzeugendes Argument. Man sollte auch, wenn man gar nicht so überzeugt ist davon, dass man was zu verbergen hat, versuchen auch bestimmte Dinge zu verbergen. Und dann werben aber andererseits alle Konzerne damit, wie sicher ihre Daten sind und auch die Versprechen von diesen Datenschutz-Tools klingen erst mal ja überzeugend. Aber in dem Fall, den du Eingangs genannt hast, da ist es ja zum Beispiel schief gegangen. Genau, also was ist da passiert? Wir sprechen über Meta, den Konzern, hätt er Facebook und Instagram und Co. Und der hat im April diesen Jahres eine eigene App für die Nutzung seiner KI veröffentlicht, für Meta AI, aber allerdings erst mal in den USA. Und dabei werben sie dafür, dass die App ganz anders ist als andere Chatt-Tools, weil das Unternehmen ja durch dein Profil, zum Beispiel bei Instagram, dich ja schon recht gut kennt und da die KI viel besser auf dich reagieren kann. In diesem Falle war es so, dass die eine Funktion eingebaut haben, wo man freiwillig seine Promps öffentlich machen kann, in so einer Art Entdeckenbereich. Und die Idee war, dass man spannende Fragen, die man der KI gestellt hat, öffentlich machen kann und andere sich daran orientieren können. Meta betont aber, dass das eben nur funktioniert, wenn man das frei gibt. Und gleichzeitig lässt das Unternehmen aber offen, wie es eigentlich so mit der Sichtbarkeit von sensiblen Daten umgeht und welche Schutzmaßnahmen greifen, wenn versehentlich dann eben doch private Daten öffentlich gemacht werden. Und das scheint ja hier tatsächlich wirklich passiert zu sein, weil es waren eben nicht nur die peinlichen oder brisanten Anfragen, sondern am Ende wurden von Nutzenden auch so was wie Telefonnummern, Addressen und private Fotos öffentlich gemacht. Und ich bin mir relativ sicher, dass das nicht alle wollten. Ja, das ist wirklich ein sehr gutes Beispiel dafür, warum wir uns gut überlegen sollten, was wir einer KI so anvertrauen. Genau, wobei man eben auch sagen muss, also das erscheint ja oft auch so, ja ich stelle eben nur ganz simple Anfragen, was sollen da irgendwie für wichtige Informationen drin sein. Kleine Warnung, man kann ziemlich viele Rückschlüsse ziehen. Man Beispiel, du und ich, wir planen eine Reise und der Chatbot soll uns helfen, das klingt total harmlos. Und das Unternehmen dahinter, das weiß dann aber zum Beispiel, wo du und ich wohnen und vielleicht auch welches Transportmittel wir bevorzugen. Außerdem kann das Unternehmen durch die Anfrage vielleicht auch Rückschlüsse darauf ziehen, ob wir vermögend sind, also weil wir uns bestimmte Transportmittel vielleicht nicht leisten können. Oder dank statistischer Auswertung, wenn wir relativ genau unserer Adresse eingeben, auch gucken können, leben wir in einer reichen Gegend oder nicht so reichen Gegend. Und das sind ja Informationen, ich würde die nicht so gerne im Unternehmen geben. Und wenn es ums Reiseziel geht, da kann man ja auch ganz viel über die persönliche, politische oder religiöse Einstellungen vermitteln. Wenn wir zum Beispiel eine Reise nach Israel planen würden, könnte man daraus relativ viel lesen. Aber es gibt da noch andere Daten, nämlich versteckte Daten, die wir übermitteln. Und die sind eben nicht in den Anfragen drin, sondern die stecken woanders und das hat mir ein Datenschutzexpert erklärt. Wir haben beispielsweise die IP-Adressen, die OpenAI und Google abgreifen. Das ermöglicht ihnen mehr oder weniger den Standort der Person zu bestimmen, zu wissen, wo die Person gerade auf das Programm zugreift. Es können aber auch allgemeine Geräte, Informationen sein, welches Handyman verwendet, welches Software man da drauf hat, wie lange man das Programm benutzt und beispielsweise auch zu welchen Uhrzeiten. Sagt Jonas Grill von der Datenschutzorganisation Digital Courage e.V. Und er meinte auch noch, worüber ich nie darüber nachgedacht habe, wenn wir uns dann zum Beispiel so ein Bezahl-Account bei Chatbots machen, dann übermitteln wir auch unsere Kontodaten. Also da ist ziemlich viel drin, was wir so einem Unternehmen geben, würde ich sagen. Aber diese Informationen liegen ja erstmal ein ganz viel nur bei den Unternehmen. Das ist ja nicht so, als wenn ich ein Chatbot einfach ausfragen könnte und der gibt mir dann diese Daten wieder direkt aus, oder? Genau, du hast recht. Also meinenswissens gibt’s jetzt noch keinen Fall, wo so persönliche Informationen von jemand anderem dann übermittelt wurden. Aber ich finde, es gibt andere beunruhigende Pannen, die dann trotzdem irgendwie einem Sorgen machen sollten. Die habe ich dir mal mitgebracht. Okay, ist das los? Also da geht es darum, das Hacker auf diese Daten zugegriffen haben. Im Januar diesen Jahres hat die US-Zeitbar-Sicherheitsfirma WIS einen Datenleak beim chinesischen KI-Startup DeepSeq aufgedeckt. Über das haben wir ja hier bei KI verstehen auch schon sehr ausführlich gesprochen. Mehr als eine Million Datensätze, darunter digitale Software-Schüsse und Chat-Protokolle, sind versehentlich ungesichert im Netz gelandet und zu den sensiblen Daten gehören eben auch so Nutzeranfragen an den kostenlosen KI-Assistenten. An dieser Stelle auch eine kleine Randnotiz. Im Moment wird übrigens darüber diskutiert, ob DeepSeq in Deutschland gesperrt werden soll wegen Datenschutzbedenken. Also ich sage mal, da sind noch mehr Bedenken im Hintergrund. Jetzt habe ich noch ein Beispiel, da geht es mal nicht um Chatbots. Und zwar ist Bildmaterial von Benutzernamen, aber auch E-Mail-Adressen von Privat- und Geschäftskunden, die sind öffentlich geworden. Die waren alle beim chinesischen KI-Foto- und Videobarbeitungstool Cutout Pro gespeichert. Und 2024, wie gesagt, wurden sie dann unfreiwillig veröffentlicht. Ich gebe zu all diese Beispiele, die überraschen uns nicht sonderlich. Aber beunruhigen tun sie einen irgendwie trotzdem. Karina, ich komme aus dem Sagen gar nicht richtig raus. Das ist wirklich erschreckend. Wir reden ja in dieser Folge aber später auch noch darüber, wie ich dann Daten besser schützen kann, auch wenn ich kommerzielle KI-Tools gerne nutzen möchte. Bevor wir aber zu diesem Service-Block kommen, möchte ich noch mal kurz auf die Schutzmaßnahmen schauen, die die Europäische Union bietet, nämlich die Datenschutzgrundverordnung und auch den AI-Akt. Was würdest du denn sagen, wie gut schützen die unsere Daten? Also auf dem Papier hat die EU da einen richtig guten Job gemacht und viele nützliche Regelungen aufgestellt. Also lass uns mal über eine gereden. Kommen wir mal zum AI-Akt. Da gibt es nämlich nicht ganz so viel, was zumindest den Nutzenen von KI-Tools wirklich was nützt. Noch mal zur Erinnerung, der AI-Akt, das ist ja so eine risikoorientierte Gesetzgebung, also da geht es darum, dass weniger riskante Systeme, weniger Transparenzpflichten haben und weniger Auflagen zu erfüllen haben, während sogenannte Hochrisikosysteme dann eben ganz strenger Auflagen haben. Und das bedeutet auch, dass Unternehmen zu Teilen offenlegen müssen, wo die Daten herkommen, die sie benutzen und wie ihre KI arbeitet. Aber jetzt kommen wir zum ABER, wie genau das im Detail aussieht, das ist eben nicht final geklärt. Und da steckt auch eine ganz tiefe Wahrheit drin. Denn Unternehmen wie OpenAI und so, die legen ja nicht so gerne offen, woher sie die Daten haben, mit denen ihre Modelle ursprünglich mal trainiert wurden. Die wurden nicht immer ganz legal beschafft. Und immer wieder hört man auch, dass zum Beispiel KI-Modelle so was wie Bücher einfach eins zu eins wiedergeben können, ohne dass die Autorinnen da gefragt wurden, ob sie das eigentlich wollen. Jedenfalls beim Rest, da bezieht sich der AI-Akt zu großen Teilen dann eben auf die Datenschutzgrundverordnung, wenn es um die Sicherheit unserer Daten geht. Und die DSGVO, die Datenschutzgrundverordnung, die besagt dann zum Beispiel, dass wir aufgeklärt werden müssen, wenn unsere Daten für das Training von einer KI zum Beispiel verwendet werden, oder? Genau, das ist Auflage und gleichzeitig Schluckfloch, denn wenn wir jetzt mal ganz, ganz ehrlich sind, wer von uns liest die AGBs? Denn da steht zum Beispiel eigentlich drin, wenn unsere Daten für so was wie ein KI-Training benutzt werden. Das sind ja diese ellenlangen Dinge und ich lese die total gerne, immer komplett ausführlich, drück mir die auch aus und so, nein Quatsch. Ich lese die natürlich auch nicht, aber man könnte vielleicht eine KI drauf ansetzen, die einem das dann zusammenfasst und Teichle Punkte findet, aber lesen, oh Gott, nein. Sie ist im Ohritz eine sehr, sehr kreative Idee, vielleicht müssen wir das nochmal probieren. Was die DSGVO eigentlich sagen will, ist, dass man eine informierte Einwilligung geben muss, aber wenn man etwas nicht will, muss man aktiv widersprechen. Jetzt weiß man aber auch oft wird das gar nicht so direkt angeboten, sondern ist irgendwo versteckt oder du kannst den Dienst nicht nutzen, wenn du widersprichst. Also so richtig realistisch gesehen gibt es kaum einen Weg daran vorbei, dass unsere Daten verarbeitet werden und zur Wahrheit gehört auch, wir wissen ja gar nicht genau, was bedeutet denn, dass unsere Daten für irgendein Training von KI benutzt werden. Ich meine, die KI-Unternehmen sind da sehr wage, sagen uns nicht, wie benutzt man denn unsere Adresse, um irgendwas zu trainieren und dann gibt es noch was Wichtiges, sagt Jonas Grell. Die naive Sichtweise darauf ist, wir haben die DSGVO, wir haben ein Artikel 17 und der sagt, es gibt das Recht auf vergessen werden, das Recht auf Löschung von meinen Daten. Das bedeutet im Fall Chatchivity, dass wenn ich merke, okay, ich habe hier sehr sensible Informationen preisgegeben und möchte diese Informationen wieder aus dem System heraushaben, dann darf ich eine Anfrage stellen oder kann ich, dass mein gutes Recht, eine Anfrage an Open Heal stellen? Er sagt naive Sichtweise, das bedeutet wahrscheinlich nichts Gutes. Genau, richtig erkannt. Es gibt zwar in der Theorie das Recht auf vergessen, aber… Das Problem dahinter ist nur, dass es keine internationale, sanktionierende Macht gibt, die europäisches Recht durchsetzen kann, wenn es nicht die Europäische Union selbst ist. Und hier stehen wir einfach in den politischen Kräftemessen mit den USA. Also, bedeutet die Unternehmen können uns ja auch viel erzählen, wenn der Tag lang ist und sagen, ja, die Infos wurden gelöscht, aber wir können das ja nicht kontrollieren. Ich kann ja nicht dahin gehen und sagen, zeig mir mal eure Datensätze. Und deshalb gibt es unter anderem auch Nichtregierungsorganisationen wie Neub. Kennst du die? Neub kenne ich nicht, ne? Neub oder auch das Europäische Zentrum für digitale Rechte ist eine Nichtregierungsorganisation mit Sitz in Wien, die sich der Durchsetzung des Datenschutzes innerhalb der EU verschrieben hat. Gegründet wurde sie 2017 unter anderem von Max Schrems, einem sehr bekannten Datenaktivisten. Der sagt mir natürlich was, ja. Genau. Und Teil von Neub ist auch der Datenschutzjurist Martin Baumann. Also, auf uns kommen tatsächlich eine Menge Leute zu. Die sagen, sie fühlen sich jetzt im Internet die ganze Zeit quasi beobachtet oder noch mehr beobachtet als früher, weil sie, egal was sie machen, eigentlich damit rechnen müssen, dass jede Interaktion, jede Information, die sie von sich posten, irgendwie dann für das Trainieren von Künstlich-Legenz verwendet wird, egal ob sie das wollen oder nicht. Und Martin Baumann und das Team von Neub schauen besonders gerne privaten Unternehmen auf die Finger und versuchen Menschen wie dir und mir zu helfen. Zum Beispiel, indem sie eine Beschwerde bei der österreichischen Datenschutzbehörde gegen die Dating-Plattform Bumble einreichen, das haben sie gerade erst getan, denn die nutzen seit einiger Zeit ChatGPT. Die haben nämlich eine Funktion implementiert, die sich “icebreaker” nennt. Da geht es darum, dass man eine erste Nachricht an einen neuen Match KI generieren kann. Und für diese KI generieren von dieser “icebreaker”-Message werden auch die personenbezogenen Daten von sowohl der Empfänger oder der Empfängerin als auch dem Center verarbeitet. Unsere Meinung nach ist das intransparent und kann nicht auf eine Rechtsgrundlage gestützt werden. Und Martin Baumann hat mir auch erzählt, was mir gar nicht so klar war, dass in der DSGVO eben auch geregelt ist, dass die Daten, die so ein Chatboard ausgibt, zum Beispiel über eine Person ja auch richtig sein müssen. Und da gab es einen ganz tragischen Fall. Der norwegische Nutzer Awe Jalmer Holmen wollte wissen, was ChatGPT eigentlich so über ihn weiß. Und als er dann gefragt hat, konnte er nicht glauben, was er da gelesen hat, ChatGPT stellte ihn als verurteilten Verbrecher da, der seine zwei Kinder ermordet hat und versucht hat, das dritte auch noch zu ermorden, war alles erfunden. Doch zu einem Überfluss enthielt diese erfundene Geschichte auch nach reale Elemente aus seinem Privatleben. Also die tatsächliche Anzahl seiner Kinder, auch das Geschlecht seiner Kinder war richtig. Und eben der Name seiner Heimatstadt auch. Und ChatGPT hat übrigens auch erklärt, dass er zu 21 Jahren Gefängnis verurteilt wurde. Das ist ein sehr, sehr heikler Fall und zeigt angesichts der Vermischung von eindeutig identifizierbaren Daten, also persönlichen Daten und diesen falschen Informationen, ist das auf jeden Fall ein Verstoß gegen die DSGVO. Da gab es auch in Tübingen in Deutschland ein Fall letztes Jahr von einem Journalisten, der über verschiedene Kriminalfälle berichtet hat und plötzlich ist er auch als Krimineller dargestellt worden. Also auch das ist natürlich total verstörend, dass das dann passieren kann. Einfach nur weil eine KI dann da Informationen zusammenwirft aus Artikeln, die er geschrieben hat. Ja und wenn so was dann passiert, kann man sich erneubt wenden und die legen dann beschwert ein. Aber selbst wenn man eben sowas herausfindet, wenn man dann weiß, ok ChatGPT erzählt Quatsch über mich und jetzt möchte ich dagegen vorgehen, dann ist das doch am Ende gar nicht so einfach, wie man sich das vielleicht vorstellt. Das Problem bei diesen ganzen KI-Modellen ist jetzt, dass wenn einmal ein KI-Modell trainiert ist mit Personen bezogenen Daten, dass eine relativ unumkehrbare Sache ist. Das heißt ich kann nur mit sehr großen Aufwand dieses KI-Modell dann irgendwie fine-tuning, dass diese Personen bezogenen Daten so behandelt werden, als wären sie nicht mehr drin. Das ist aber extrem kostspielig und kann in der Praxis von den Anbietern kaum durchgeführt werden. Das heißt also, wenn man seinem KI-Modell einmal was als Anfrage geschickt hat, dann ist es dafür immer gespeichert, auch wenn es für uns unsichtbar gemacht wird. Und wir wissen ja, dass alle Inhalte, die wir in so was wie ChatGPT reingeben, auch später als Trainingsdaten genutzt werden können, auch bei Plus-Accounts, für die man 20 Dollar im Monat bezahlt. Aber da kommt ja wieder das Problem. Dann könnte ein Hacker oder sagen wir jemand, der so Prompt Injection macht und versucht die KI zu überreden, solche Daten rauszugeben. Der könnte ja relativ leicht an diese Informationen und dann eben auch an alle anderen vermeintlich unsichtbar gemachten Informationen rankommen. Oder liege ich da falsch? Nee, nee, du liegst total richtig und es sind eben nicht nur die Anfragen, es sind auch die Trainingsdaten. Also wenn falsch Informationen über uns in den Trainingsdaten drin sind, dann sind die da halt für immer drin. Und Hacker könnten dazu greifen, das ist dann das eine, aber das heißt dann sind eigentlich unsere Daten auch nicht vor staatliche Überwachung sicher, weil die können ja auch mindestens Hacker einsetzen, aber haben auch andere Möglichkeiten auf diese Daten dann zuzugreifen, gerade in den USA. Richtig. Und da gibt es nämlich auch so ein paar Schlupflöcher, wenn es um die OS-Gesetzgebung gibt, denn die reibt sich manchmal mit der europäischen. Theoretisch sind durch die DSGVO viele Sachen ja geschützt, aber es gibt dann so was wie den sogenannten Cloud Act aus den USA. Da räumen sich US-Behörden das Recht ein, auf Daten auf Servern von US-amerikanischen Unternehmen zuzugreifen, wenn sie das eben für nötig achten, zum Beispiel mit dem Argument der Verbrechensbekämpfung. Das bedeutet, dass Microsoft beispielsweise mit großen Rechenzentren in Frankfurt diese Daten per US-amerikanischen Gesetz an die USA weitergeben muss. Das führt dazu, dass hier eine Schleuse entsteht und ab dann können wir als Europäerinnen nicht mehr kontrollieren, was mit diesen Daten geschieht. Also die US-Behörden könnten dann mit diesen Daten im Grunde machen, was sie wollten. Karina, jetzt haben wir ja noch ein Service-Block versprochen, also darüber zu reden, wie man seine Daten besser schützen kann, auch wenn man kommerzielle Angebote nutzt. Aber nach allem, was du mir erzählt hast, frage ich mich, wenn ich einfach komplett auf die kommerziellen Angebote aus den nicht-europäischen Ländern verzichten sollte, also in der Theorie wenigstens. Ja, das habe ich den Datenschutzexperten Jonas Grill dann auch gefragt. Ich würde sagen, die Aussage nicht mit KI-Modellen zu arbeiten hat viel mit Privilegien zu tun. Es gibt manchmal in manchen Berufen oder in gewissen Lebenssituationen keine andere Möglichkeit, vor allem in einer Welt, in der wir leben, die mittlerweile schon KI-Nutzung voraussetzt. So sagen ich widerspreche dem allen, ich will damit nichts zu tun haben. Wir wissen, dass ein gewisser Druck dahinter steht. Natürlich wäre es immer besser auf datenschutzfreundliche Tools zuzugreifen, die vielleicht sogar in der EU entwickelt wurden, aber moment, da bist du ja eigentlich der Experte, muss man sagen. Ja, ich habe zumindest in einer der letzten Folgen KI-Verstehen ja über KI-Tools aus Europa gesprochen und dann auch eine vorgestellt. Und da wäre natürlich vor allem Mistral aus Frankreich, die fast so gut sind wie Chatchi Petit unglaublich schnell, das lohnt sich auf jeden Fall, das auszuprobieren. Die müssen sich dann komplett an europäisches Gesetz halten. Und eine andere Variante sind dann einfach lokale Modelle, die auf dem eigenen Rechner laufen, die kann man sich ganz individuell anpassen und die Daten verlassen auch nicht den eigenen Rechner. Ja, das stimme ich auf jeden Fall zu, aber wir haben jetzt auch gehört, es ist manchmal nicht so einfach, denen dann trotzdem aus dem Weg zu gehen oder man möchte vielleicht auch einfach das Tool benutzen, was alle benutzen. Und da kann man grundsätzlich sagen, dass die Chats mit den Chatbots ja eigentlich nur für eine bestimmte Zeit automatisch gespeichert bzw. dann gelöscht werden. So zumindest ist das Versprechen der Unternehmen OpenAI, sagt zum Beispiel, Chats mit Chatchi Petit werden nach 30 Tagen gelöscht. Ja, aber das könnte sich jetzt auch bald ändern oder hat sich geändert. In den USA es ist zumindest so, da hat ein Gericht beschlossen, dass die Chats bei Chatchi Petit nicht mehr gelöscht werden dürfen, gar nicht mehr gelöscht werden dürfen, dass es im Zug einer fetten Urheberrechtsklage, wo auch die New York Times dahinter steckt, die werfen nämlich OpenAI nicht nur vor, ihre Artikel unerlaubt zum Training genutzt zu haben. Es gibt noch einen anderen ganz zentralen Vorwurf und der sagt, dass Chatchi Petit auf Anfrage in der Lage ist, diese geschützten Inhalte, Zeitungsartikel in dem Fall fast wortgleich wieder auszugeben und damit das Geschäftsmodell von dem Verlag kaputt zu machen. Also das ist natürlich wirklich problematisch und weil es nun die Sorge gibt, Nutzende könnten die Beweise führen solchen Missbrauch, weil sie ja mit den KI-Bots Paywalls umgehen, durch das Löschen ihrer Chats vernichten, ordnete das Gericht eben diese Datenspeicherung an und jetzt müssen alle Chats, die wir mit Chatchi Petit führen, erst mal auf ewig gespeichert werden, sodass das Gericht es dann später einsehen kann. Ja, das ist ein total wichtiger Punkt und wir wissen halt auch noch nicht, was das wirklich auf Dauer heißt und ob das eigentlich auch wirklich für die EU gilt. Wenn ja, würde es gegen die DSGVO verstoßen, nämlich das Recht auf vergessen werden. Aber wir müssen abwarten, was da passiert. Grundsätzlich ist es aber so, dass eben die Chats nach einiger Zeit gelöscht werden können bzw. werden, außer wir haben bestimmte Funktionen nicht deaktiviert und jetzt kommen wir zu dem Part, wo du und ich auch aktiv werden können. Also bleiben wir mal kurz bei Chatchi Petit, man sollte nämlich unbedingt die Einstellung Erinnerung deaktivieren, da merkt sich die KI-Dinge über uns. Ich meine, das scheint sehr praktisch zu sein, wir wollen irgendwie Rezeptvorschläge von Chatchi Petit und Chatchi Petit weiß, wir sind totale Fans von Gemüse, dann berücksichtigt der Chatbot diese Information. Aber es geht dann eben nicht nur darum, sich zu merken, dass wir Gemüse toll finden, sondern auch alles andere über uns. Deswegen lieber ausmachen. Dann gibt es noch eine andere Funktion, die heißt Modell für alle Verbessern, die sollten wir unbedingt ausstellen. Denn das bedeutet im Grunde, ja, meine Daten dürfen total gerne genutzt werden, um KI weiter zu trainieren. Deswegen auch hier einfach ausmachen, wenn man da Bedenken hat. Und es gibt noch was Neues in der Chatchi Petit App, eine Funktion namens Hintergrundgespräche. Das bedeutet, wenn man die anstellt, hört Chatchi Petit dauerhaft, egal ob das Handy auf Standby ist, in einer anderen App ist oder so, zu, um im gegebenen Fall ansprechbar zu sein, um zu sagen, hey, ich habe hier gerade was auf Medium XY gelesen, kannst du das nochmal nach recherchieren, kannst du mir Hintergrund geben? Das kennen wir ja von Siri und Hey Google, dass es diese Funktion gibt mit dem Ansprechen. Und diese Funktion gibt es übrigens auch bei Geminal von Google. Also auch hier kann man das ausstellen. Auch die anderen Einstellungen gibt es bei den jeweiligen Chatbots. Da muss man einfach mal so ein bisschen gucken. Zumal, was ich noch ganz spannend fand, wir haben jetzt immer über das Training von KI-Modellen gesprochen, aber Datenschutzjurist Martin Baumann von Nob hat mir gesagt, es gibt ja noch einen anderen Grund, warum diese Informationen über uns, diese persönlichen, vielleicht für die KI-Unternehmen in Zukunft auch spannend werden könnten. Wenn dann die Informationen, die ich da eingebe, verwendet werden, um ein Profil von mir zu erstellen, dass man dann gut bewerben kann, vielleicht auch noch mit anderen Informationen verknüpft aus Social Media oder von wo auch immer, dann ist das natürlich unheimlich gefährlich und hat eine unheimlich manipulative Wirkung dann möglicherweise. Ja, das klingt natürlich logisch, weil immerhin sind wirklich noch viele von den KI-Tools kostenlos und dadurch sammeln die nicht nur Trainingsdaten, sondern das kann ja auch gut sein, dass die dann in Zukunft auf Werbung setzen und für alle Werbenden werden all diese Informationen, die KIs über uns gesammelt haben, über unsere Vorlieben, natürlich absolutes Gold, dann kriegst du die ganze Zeit Werbung für Paprika und Gurken angezeigt können. Für unser Gemüse. Zum Schluss dieser Folge möchte ich deswegen noch ein richtig cooles Tool empfehlen und das hat dieser Mensch hier entwickelt. Ist das eine vernünftige Grundanahme, glaube ich, dass man sagt, alles, was ich da preisgebe von mir, das ist irgendwo und es bleibt auch irgendwo und ich habe keine Kontrolle mehr darüber. Aber wenn man damit kein gutes Gefühl hat und man will was dran ändern, dann muss man das machen, bevor man auf Absenden drückt. Und da habe ich nach einer Anwendung gesucht. Das ist Frank Bernke, frei beruflicher Softwareprogrammierer und wie in seiner Erzählung schon rausgekommen ist, er mag Datenschutz total gerne, macht sich viele Gedanken darüber, aber er ist eben auch großer Fan von KI-Tools und probiert die auch gerne aus, eben auch die kommerziellen Angebote. Ich habe nicht mal so Schriftverkehr jetzt auch im Englischen oder so was besonders eloquent formuliert haben wollte oder so was und dann steht da halt oben auch der Adressat drin und unten mein Name und dann das habe ich dann oft rausgelöscht oder so, weil ich wollte auch nicht dokumentiert haben, mit wem ich jetzt kommuniziere und das wäre ja auch, wenn das zum Training benutzt wird, ist es irgendwo im nächsten Sprachmodell abgebildet, diese Beziehung zwischen zwei Personen, kommunikative Art und das kriegt man dann ja auch nicht mal raus. Genau für solche Fälle hat er eben geschaut, gibt es da irgendwas und weil es nichts gab, hat er was selber programmiert und zwar womit man Informationen anonymisieren kann und das heißt Private Prompts. Da kann man so ein Adwörterbuch pflegen und sagen, ich möchte E-Mail-Adressen maskiert haben, meinen Namen, meine Adresse, meine E-Bahn, was auch immer, dann hat man da so ein Adwörterbuch mit schützenswerten Daten und womit man die ersetzen will, das kann eine zufällige andere E-Bahn sein, eine zufällige andere E-Mail-Adresse. Also das ist so ein Programm, das kann man sich runterlagen, das kostet nichts, das läuft dann lokal auf deinem Rechner, du kannst eben Texte, Bewerbungsschreiben, Briefe oder so was hochladen, der anonymisiert die dann für dich, weil du eben sowas gesagt hast, wie Namen sollen, alle ersetzt werden durch irgendwie einen Platzhalter und dann kannst du dieses anonymisierte Dokument z.B. bei Gemini oder Perplexity hochladen, das verbessern lassen und danach dann eben wieder bei Private Prom zu hochladen und der macht quasi die Anonymisierung dann einfach wieder rückgängig und das ist ganz einfach, ganz lokal auf deinem Rechner und eben wie gesagt kostenfrei. Klingt total sinnvoll und gut, aber ich glaube, es gibt schon viele Leute, denen das sehr egal ist, also die sehr gleichgültig mit ihren Daten umgehen, sich diese Arbeit nicht machen, einfach auch, weil so ein Chatbot, der wirkt ja auch so vertrauenswürdig, der kümmert sich um alles, wenn man mit ihm spricht und man vertraut dem, glaube ich, so ähnlich wie auch Google, Dinge an, die man seinen Freunden nicht mal unbedingt anvertrauen möchte, einfach weil das so bequem und toll ist, dass da einem immer jemand zuhört. Bequemlichkeit würde ich auf jeden Fall sagen, dass es ein riesiges Problem ist und deshalb hat sich Frank Bernke auch noch was überlegt und zwar hat er so eine Art Promtsammlung angelegt, also man kann in seinem Tool in Private Promts auch Promtsammeln sortieren und das ist dann wie so eine Art Notizzettelverwaltung für Promts und das hat noch eine andere Funktion. Das ist auch meine Hoffnung, dass dieser Promtmanager, den ich da eingebaut habe, der für sich alleine auch einen Nutzen hat, dass der Menschen dazu bringt, dieses Private Promts überhaupt offen auf dem Desktop zu haben, weil das dann die Hürde ein bisschen senkt, das auch zu benutzen. Na ja, verstehe, ok, klug. Und das gibt es zum runterladen und du kannst den Link dazu in die Show Notes stellen. Genau, das machen wir. Dann müssen wir jetzt aber zum Abschluss kommen, Karina, was sagst du, kann ich jetzt guten, gewissenskommunzielle KI-Angebote trotzdem nutzen, obwohl das mit der Privatsphäre eine komplizierte Sache ist? Also ich bin da wirklich ein bisschen hin und hergerissen. Mit der richtigen Sensibilisierung glaube ich schon, dass man solche Tools, eben kommerzielle Tools auch nutzen kann und seine Daten schützen kann. Aber man sollte sich trotzdem, egal was man in diese Chatbots eingibt, immer fragen, kann ich damit leben, vielleicht auch noch in 20 Jahren damit leben, dass das vielleicht jemand über mich weiß und sind es bestimmte Dinge, die ich wirklich nur bestimmten Leuten erzählen würde? Schwierig finde ich es dann auch, wenn es um Kinder und Jugendliche geht, die wachsen ja ganz natürlich heute mit KI auf und haben vielleicht noch nicht so ein großes Problem bewusst sein, wenn es um sensible Daten geht. Also auch da müssen wir vielleicht in Zukunft noch ran. Und es gibt noch einen Aspekt, bei dem habe ich gemerkt, da haben wir gar keine Lösung für. Nämlich was passiert, wenn jemand anders Informationen von uns in die KI einspeist, die sensibel sind. Das kriege ich ja im schlimmsten Fall nicht mal mit oder wenn ich es mitkriege, kann ich nichts dagegen tun. Und durch die DSGVO haben wir ja theoretisch die Möglichkeit, KI-Unternehmen zu bitten und die Daten zu geben, die sie über uns gesammelt haben. Das sollte auch eigentlich jeder mal ausprobieren, denn da kriegt man so eine riesige Datei, die ist völlig unverständlich, wahnsinnig viele Gigabytes, mit denen man nicht so richtig was anfangen kann. Also das ist irgendwie auch nicht die Lösung, wenn man wirklich wissen will, was die Unternehmen über einen wissen. Und was ja noch dazu kommt ist, wenn man so Informationen über einen hat, dann kann man die eben auch missbräuchlich benutzen. Das hat mir Martin Baumann auch noch mal gesagt. Das fängt an bei irgendwelchen Bots, die auf Social Media unterwegs sind, um ganz polarisierende Meinungsmache zu machen oder sogar in Wahlen einzugreifen, Durchstimmungsmache. Das betrifft aber auch die Generierung von Revenge-Porn, zum Beispiel, wenn Bilder von echten Personen auf nackte Körper gesetzt werden, um diese dann in Wirklichkeit im Internet zu mobben. Da habe ich gestern erst in meinem Instagram-Feed ein Video gesehen von einer Frau, die Bilder am Internet gefunden hat, von sich Nacktbilder, die nicht ihre Nacktbilder sind, sondern die jemand mit ihrem Instagram-Profil gemacht hat. Und das war wirklich herzzarreißend. Und für solche Fälle, wir haben da einfach noch keine Lösung, würde ich sagen. Moritz, wie geht es dir denn jetzt nach einem, was ich dir erzählt habe, wie siehst du das mit der Privatsphäre und den kommerziellen KI-Tools? Denkst du, wir können die noch benutzen? Also ich bin auch ein bisschen ratlos gleichzeitig weiterhin, wie man das dann lösen kann. Aber die Behelfslösung ist, der KI nicht alles anvertrauen und wendern anonymisiert. Sehr gut zusammengefasst, würde ich sagen. Falls ihr Themenideen, Wünsche, Anregungen, Kritik oder auch einfach nur so Lust habt auf Unterhaltung mit uns zum Thema KI, dann schreibt uns an kiverstehen@deutschernfunk.de. Wir lesen alles und versuchen auch möglichst alles zu beantworten. Wenn wir es dann mal nicht schaffen, ist das der Beweis, dass wir keine KI dafür einsetzen. Und in der nächsten Folge Karina, da sprichst du dann mit Feli über das Thema KI als Einkaufsberater. Auch das hat dann wieder ein bisschen damit zu tun, weil es da bestimmt auch um Werbung und um auch beeinflussbare KI gehen wird, oder? Und sehr, sehr viele Daten, die wir so beim Einkaufen lassen, würde ich sagen. Das werde ich mir auf jeden Fall auch anhören. Für heute sagen Karina Schröder und Moritz Metz. Ciao! Tschüss!”