"Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet. (…)
Medienethikerin Heesen: Vorsicht! Ein KI-Chat halluziniert
KI-Chats seien darauf trainiert, immer etwas zu antworten, um ein Gespräch mit dem Nutzer zu führen. Es würden dann auch fiktive Inhalte erzeugt, die gar nichts mit der Wahrheit zu tun hätten.
Microsoft übernimmt keine Haftung für Aussagen des Chats
Beschwerden über Inhalte von Chats seien schwierig, so die Einschätzung der KI-Expertin gegenüber dem SWR. Jeder, der den Chat benutze, erkläre sich mit den Nutzungsbedingungen einverstanden. Und darin stehe, dass Microsoft für die Antworten keine Haftung übernehme."
Absolut hanebüchen, die Anzeige abzulehnen: es ist doch ganz klar der Betreiber der KI für deren Handeln verantwortlich. Der hat die programmiert, trainiert und betreibt sie.
Der Artikel ist eben nicht gut.
Eine Straftat setzt Vorsatz voraus. Man kann kein Verbrechen aus Versehen begehen. Fahrlässigkeit ist nur strafbar, wenn es explizit im Gesetz steht und meint dann auch eher eine ziemlich vorsätzliche Fahrlässigkeit.
Verleumdung ist kein Fahrlässigkeitsdelikt. Außerdem wäre die Frage dann, wer eigentlich die Schuld trägt: der Hersteller oder der Benutzer. Ich habe auch Zweifel, ob der Tatbestand überhaupt erfüllt ist. Normalerweise macht eine Person eine verleumderische Behauptung, mindestens einer anderen Person gegenüber. Hier hat man nur eine einzelne Person und einen Computer.
Auf der einen Seite ist es so, auf der anderen Seite verstehen selbst Forscher oft selber nicht wo die Ausgaben herkommen und es ist halt auch super schwer so Halluzinationen zu unterbinden.
Dann muss man sich halt überlegen, ob man das wirklich so auf den Markt werfen will. Verantwortlich ist man trotzdem dafür.
Ich sehe, es ist eine gute Idee, eine KI zur präventiven Strafverfolgung einzusetzen. /s
KI ist ein weites Feld. Wenn von KI in der Strafverfolgung die Rede ist, meint das keinen Chatbot.
Es unterschreibt dir trotzdem keiner, das das System nicht phantasiert. Das ist systemimmanent.
Kann man so eigentlich nicht sagen. Der Begriff “KI” umfasst sehr viele Ansätze. Von einem System kann man nicht sprechen.
Bei predictive Policing geht es darum, Zusammenhänge zwischen bekannten Fakten und zukünftigen Verbrechen zu erkennen. Traditionell gibt es dafür die menschliche Erfahrung. Seit vielen Jahrzehnten benutzt man auch statistische Methoden. KI-Ansätze kann man in diesem Zusammenhang als statistische Methode begreifen. Man kann wahrscheinlich noch für die nächsten Jahre davon ausgehen, dass KI-Methoden dieselben bekannten Schwächen haben wie Statistik. In der Zukunft mag sich das ändern.
Die menschliche Erfahrung hat grundlegend dieselben Probleme wie die Statistik, aber es kommen noch ganz eigene, menschliche Schwächen dazu. Im Zweifel sollte man sich lieber auf die Statistik verlassen, als auf die Meinung eines Kriminalers. Wenn man neue Methoden kritisiert, muss man aufpassen, dass man nicht den falschen Eindruck erweckt, sie seien den alten überlegen.
Seit vielen Jahrzehnten benutzt man auch statistische Methoden. KI-Ansätze kann man in diesem Zusammenhang als statistische Methode begreifen. Dann sollte man das auch so benennen, als eine statistische Methode, Daten anders auszuwerten. Aber nicht als “Künstliche Intelligenz”
So langsam reift die Erkenntnis heran, dass KI nur ein stochastischer Papagei ist. Altes Motto: Mist rein => Mist raus. Wer trainiert die KI mit welchen vor selektierten Daten? Wer entscheidet über die Selektion? Man kann auch einer KI astreinen Rassismus an trainieren.
Das, auf das alle hoffen, oder das alle fürchten, dass eine KI intelligente Schlüsse aus ihren Trainingsdaten ziehen kann und dadurch zu neuen Erkenntnissen kommt, wird wohl nicht eintreten. Du kannst im Labor eine “KI” auf Molekülkette loslassen, um zu sehen, wie sie sich falten lassen und ob man Wirkstoffe daraus ableiten könnte. Aber du kannst nicht eine KI auf ein Getümmel am Bahnhof loslassen, um daraus potentielle Straftäter zu isolieren, bevor sie straffällig geworden sind. Jede positiv-Falschmeldung zerstört ein Leben. So was wie mit dem mutmaßlichen Terroristen, den sie letzte Woche gefunden haben, der dann keiner war. Das war noch nicht mal eine KI.Hier ein kleiner Kommentar von FEFE, der meine Sichtweise gut zusammenfasst. Und mit sowas ziehen die in den Wahlkamt. Meine Fresse.
Dann sollte man das auch so benennen, als eine statistische Methode, Daten anders auszuwerten. Aber nicht als “Künstliche Intelligenz”
Ich versuche mal, das ein bisschen zu vermitteln.
Machine Learning (ML) benutzt häufig statistische Methoden. Es gibt also zwangsläufig eine gewisse Überlappung mit der Statistik. Aber nicht alles beim maschinellen Lernen kommt aus der Statistik. Die neuronalen Netze, die man für Sprachmodelle benutzt, sind von der Biologie (und teils von der Physik) inspiriert. Es ist also ein Unterschied.
KI umfasst ML und noch einige weitere Sachen. ZB hat die KI-Forschung früher sehr hart daran gearbeitet, Schachcomputer zu programmieren. Schach ist schließlich etwas, das Intelligenz erfordert.
So langsam reift die Erkenntnis heran, dass KI nur ein stochastischer Papagei ist.
Das wird meist über Sprachmodelle gesagt, vulgo Chatbots. Die beruhen auf künstlichen neuronalen Netzen, sind also von der Biologie inspiriert. Genau wie Menschen neigen sie dazu, Aussagen oder Slogans zu wiederholen, die sie nicht verstehen. Genau wie Menschen können sie aber durchaus ein tieferes Verständnis entwickeln.
Hier ein kleiner Kommentar von FEFE, der meine Sichtweise gut zusammenfasst.
Da geht es um Bilderkennung, allgemeiner Mustererkennung. Sowas geht mit und ohne ML, aber ohne natürlich nicht nur sehr schlecht. Der Ausdruck KI ist auch praktisch, weil technische Details offen gelassen werden.
Das ist kein predictive Policing. Es geht darum, Menschen zu erkennen, die (verbotene) Waffen tragen oder polizeilich gesucht werden. Man könnte auch Menschen erkennen, die sich verdächtig verhalten, vielleicht mit dem Gedanken spielen, sich vor einen Zug zu stürzen.
So was wie mit dem mutmaßlichen Terroristen, den sie letzte Woche gefunden haben, der dann keiner war. Das war noch nicht mal eine KI.
Genau. Wie ich sagte, man muss aufpassen mit der Kritik.
Dass die Anbieter anfangs nicht viel deutlicher auf die Unzuverlässigkeit hingewiesen haben, hielt und halte ich für problematisch. Ich weiß nicht, ob man überhaupt jetzt schon davon ausgehen kann, dass das zu allen Leuten vorgedrungen ist.
Ich bin aber vor allem enttäuscht, dass der ÖRR hier so emotionalen Clickbait fährt, statt Aufklärung zu betreiben.