Interview mit KI-ForscherinWer entscheidet besser: Mensch oder Maschine?

Interview mit KI-Forscherin / Wer entscheidet besser: Mensch oder Maschine?
Von Amazon bis vor Gericht: KI-Entscheidungssysteme sind weltweit überall im Einsatz Illustration: Tageblatt/Kim Kieffer

Jetzt weiterlesen! !

Für 0.99 € können Sie diesen Artikel erwerben.

Sie sind bereits Kunde?

Heilsbringer oder Weltuntergang. Drunter geht es in Diskussionen über Künstliche Intelligenz (KI) meist nicht. Die Informatikprofessorin Katharina Zweig plädiert für einen differenzierteren Diskurs. Ein Gespräch darüber, welche Entscheidungen wir Maschinen treffen lassen können – und welche besser nicht.

Tageblatt: Frau Zweig, KI ist eines der großen Themen unserer Zeit – auch in den Medien. Dabei wird alles in einen Topf geworfen, von Horrorszenarien bis zu spaßigen Experimenten mit ChatGPT und anderen KI-generierten Inhalten. Ist unser Umgang mit KI zu undifferenziert?

Katharina Zweig: Ja, auf jeden Fall. Wir sollten aufhören über die KI zu reden, weil die Software, die damit gemeint ist, so unglaublich viele verschiedene Dinge tun kann. Erstens ist es schwierig, sich über die KI zu unterhalten, zweitens wirkt es so, als wäre da jetzt ein Wesen, das die Künstliche Intelligenz ist. Und wenn man wissen will, welche Technikfolgen die KI hat, dann wird das auf dem Level nichts. Wenn man sich fragt, welche Technikfolgen wird es allein nur haben, dass wir in den europäischen Sprachen mittlerweile relativ gute KI-Übersetzungstools haben, sodass der Babelfisch (Anm. d. Red.: aus dem Science-Fiction-Roman „Per Anhalter durch die Galaxis“) quasi Realität wird. Darüber kann man sich dann sehr gut und differenziert unterhalten. Sobald man anfängt, von der KI zu reden, ist es meistens nicht adäquat. Ich kann mir kaum etwas vorstellen, wo es Sinn macht, über die KI als Ganzes zu reden.

Zur Person

Prof. Dr. Katharina Zweig ist Informatikerin und eine der führenden Expertinnen für Künstliche Intelligenz in Deutschland. Sie lehrt an der RPTU Kaiserslautern-Landau, leitet dort das Algorithm Accountability Lab und war Mitglied der Enquete-Kommission KI des Deutschen Bundestages. Sie veröffentlicht Bücher zum Thema, zuletzt erschienen: „Die KI war’s! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz“.

Um solche differenzierten Diskussionen führen zu können, braucht es Informationen und Bildung. Schreiben Sie deshalb Ihre Bücher, die an vielen Beispielen erklären, was man genau meint, wenn man von der KI spricht?

Das war das erste Buch, „Ein Algorithmus hat kein Taktgefühl“. Da ging es um Fragen wie: Was ist die KI? Was kann das? Was ist damit gemeint? Im neuen Buch „Die KI war’s!“ geht es um die Frage: Wann kann uns eine KI sinnvoll unterstützen in unseren Entscheidungen?

Warum sind diese automatisierten Entscheidungssysteme so ein wichtiges Einsatzfeld für KI?

Die Diskussionen über KI dominieren zwar generative Systeme wie ChatGPT. Aber die meisten KI-Systeme, die wir im Moment sehen, sind Entscheidungssysteme. Ob es jetzt das Produktempfehlungssystem bei Amazon ist, das entscheidet, was es dir in welcher Reihenfolge anzeigt, oder das berühmte COMPAS-System in den USA, das Rückfälligkeitsvorhersagen für Straftäter trifft. Das sind alles Entscheidungssysteme.

In Ihrem Buch erzählen Sie von einigen Fällen, in denen KI-Systemen Fehler unterlaufen sind. Zum Beispiel der Fall von Robert Williams, der in den USA verhaftet wurde, weil eine Gesichtserkennungssoftware ihn fälschlicherweise als Dieb identifiziert hatte. Entscheiden Maschinen trotzdem besser als Menschen?

Dafür habe ich versucht, eine Charakterisierung zu finden. Das Problem bei den Maschinen ist, dass wir in deren Entscheidungslogik nicht hinschauen können und dass sie nicht unserer menschlichen Entscheidungslogik entspricht. Wenn die Maschine Beispiele bekommt, um daraus ein Muster abzulesen, versteift sie sich manchmal auf Eigenschaften, die mit der eigentlichen Entscheidung nichts zu tun haben. Ein Beispiel, das ich gebe, ist eine Bilderkennungssoftware, die versuchen sollte, zu lernen, wann ein Pferd auf einem Bild zu sehen ist. Das hat auch funktioniert, aber nur für die Trainingsdaten. Denn da waren alle Pferdebilder von demselben Pferdefotografen und der hat sein Logo mit aufs Bild gepackt. Die Maschine hat das Logo gelernt. Damit kannst du nicht erkennen, was ein Pferd ist. Die Maschine kuckt einfach völlig falsch hin.

Was bedeutet das für KI-Entscheidungssysteme?

Die Maschine kann ein Muster entdecken, das unserer eigenen Logik völlig zuwiderläuft. Das können wir aber wiederum nicht entdecken, weil die Maschine uns nicht mitteilen kann, nach welchen Kriterien sie entscheidet. Das heißt, für alle Arten von Entscheidungen, wo man eine Begründung wirklich notwendigerweise braucht, wie zum Beispiel vor Gericht, bei Notengebung, bei Kreditvergabe, da können wir die Maschinen nicht einsetzen. Weil sie auf der einen Seite völlig anders ticken als wir, und auf der anderen uns nicht mitteilen können, wie sie ticken.

Dinge, wo wir keinen Fakt haben, sondern etwas, das auf menschlichem Sensorium beruht, können wir grundsätzlich Maschinen im Moment nicht übergeben

Wo kann es sinnvoll sein, Maschinen entscheiden zu lassen?

Bei allen faktischen Entscheidungen. Wird die Schraube vom Band gepustet, ja oder nein? Da schaust du dir die Schraube an und siehst: Die war kaputt oder nicht kaputt. Vorhersagen, die risikobasiert sind, wie: Wird die Person ihren Kredit zurückzahlen oder nicht? Das kann man in der Zukunft wenigstens nachschauen, aber wahrscheinlich wird die Entscheidung selbst die Zukunft von manchen Personen verändern. Wenn eine Person keinen Kredit bekommt, den sie zurückgezahlt hätte, dann kann sie auch nicht beweisen, dass sie eigentlich kreditwürdig gewesen wäre.

Das Kriterium ist am Ende, ob eine Entscheidung nachvollziehbar oder nicht nachvollziehbar ist?

Genau. Da wir keine Begründungen bekommen, müssen wir wenigstens auf Verlässlichkeit prüfen können. Das können wir bei faktischen Sachen, das können wir bei faktischen Vorhersagen über Zukunft, wenn sie die Zukunft nicht verändern. Das können wir aber bei sogenannten Werturteilen nicht. Das ist aber ein wichtiger Bereich. Sie haben am Anfang die Medien angesprochen. Ich frage mich manchmal, worüber wir überhaupt die ganze Zeit reden? Die Diskussionen, die wir in den Medien verstärkt führen, sind die, in denen vermeintlich eine KI ein Werturteil übernehmen kann. Damit wollte ich ein für alle Mal aufräumen. Tut mir leid, Dinge, wo wir keinen Fakt haben, sondern etwas, das auf menschlichem Sensorium beruht, können wir grundsätzlich Maschinen im Moment nicht übergeben.

Damit das nicht passiert, braucht es auch politische Regulierung. Sind wir da in Europa gut aufgestellt, auch im internationalen Vergleich?

Ich traue mir den internationalen Vergleich nicht wirklich zu. US-Präsident Biden hat kürzlich einen Erlass geschrieben. Ich habe den Eindruck, dass die meisten Demokratien sehen, dass wir eine Regulierung benötigen. Wir laufen natürlich grundsätzlich in das Collingridge-Dilemma. Das ist ein Dilemma der Technikfolgenabschätzung, das besagt, dass man die Technikfolgen erst dann in der Realität sieht, wenn schon viele Leute die Systeme benutzen, und dann ist es schwer, Entwicklungen noch einmal zurückzudrehen. Auf der anderen Seite ist die Hauptsorge, dass wir zu viel regulieren und dadurch Innovation nicht genügend zulassen. Ein Problem ist jetzt sicherlich, dass wir das KI-Gesetz schnell brauchen, damit es Rechtssicherheit gibt. Viele Firmen trauen sich im Moment nicht, Dinge zu tun, weil sie nicht wissen, wie viel Transparenz sie leisten müssen: Wird mein KI-System in einer hohen Risikoklasse landen, was muss ich dann tun? Wir haben diese Institutionen und Experten noch nicht an dieser Stelle.

Sie sprechen vom KI-Gesetz der EU, das als weltweit erstes umfassendes KI-Gesetz einen risikobasierten Ansatz verfolgt und KI-Systeme transparenter machen soll. Aktuell laufen die Gespräche mit den EU-Mitgliedstaaten im Rat über die endgültige Ausgestaltung des Gesetzes.

Wir müssen aufpassen, dass der europäische Markt einheitlich bleibt. Dann haben wir, denke ich, eine ganz gute Chance, wenn ich mir anschaue, welche KI-Systeme es in anderen Ländern gibt. Die meisten Beispiele aus meinem Buch kommen aus den USA. Da kann man doch dankbar sein, dass solche KI-Systeme bei uns in Europa im Moment nicht erlaubt sind. Zum Beispiel das System aus Michigan, wo eine Maschine entschieden hat, ob man Sozialbetrug begangen hat und dann sofort die fünffache Summe abgezogen hat von den Steuerrückzahlungen. Das war so schlecht programmiert, dass kleinste Abweichungen zwischen Arbeitgeber- und Arbeitnehmerangaben als Betrug erkannt wurden.

Prof. Dr. Katharina Zweig ist Informatikerin und lehrt an der RPTU Kaiserslautern-Landau
Prof. Dr. Katharina Zweig ist Informatikerin und lehrt an der RPTU Kaiserslautern-Landau Foto: ©Thomas Koziel/TUK
Hipp
25. November 2023 - 14.30

Wie sagte einst Dieter Nuhr:" Wenn KI wirklich intelligent wäre, würde sie uns die Arbeit machen lassen."