6. Januar 2021
Das Vorurteil hat einen schlechten Ruf, intellektuelle Faulheit oder Vorwand, sich auf Kosten anderer besser zu stellen – wie mans dreht oder wendet, es wird mit dem Vorurteil nicht besser.
Dass Vorurteile – oder besser gesagt – Denkmuster, die auf der Basis weniger Informationen schnelle Entscheidungen ermöglichen, die normalerweise langwieriger und mit mehr Aufwand verbunden wären, zeigt eine Erkenntnis aus der KI, von der Manuela Lenzen in der FAZ vom 6. Januar berichtete (Hier irrt der Algorithmus,FAZ vom 6.1.2021, S. N4).
Demnach suchen lernende KI-Programme Abkürzungen bei der Interpretation von Daten, um schneller zu Ergebnissen kommen und damit Entscheidungen treffen zu können. Bezeichnet werde das Verfahren als „shortcut learning“. Dabei werde aus begrenzten kontextuellen Daten geschlossen, statt den Gesamtbestand von Daten zu verwenden. Das geschehe immer dann, wenn der jeweilige Falle von den bekannten abweiche, also ungewöhnlich ist.
Die Beispiele, die Lenzen präsentiert: Eine „sanfte Hügellandschaft, saftige Wiesen, aber keine Kühe?“, egal, da in der Regel auf sanften Hügellandschaften mit saftigen Wiesen Kühe stehen (resp. auf den Lernbildern Kühe stehen). Handelt es sich (wohl) um eine „Herde auf einer Wiese“. Oder, wozu zwischen Hund und Wolf unterscheiden, wenn auf den Lernbildern immer nur Hunde im Schnee sitzen? Wozu sich mit den Schattierungen von Karzinomen befassen, wenn auf den Aufnahmen die kritischen Stellen schon gelb eingekreist sind?
Alles also, was „ungewöhnlich“ ist, soll heißen, nicht in die Erfahrungswelt des Programms passt, wird aufgrund der vorliegenden Daten in diese Erfahrungswelt eingepasst. Wenn also ein Algorithmus, so zitiert Lenzen einen Forscher der TU Darmstadt, eine Kuh auf einer Wiese erkennt, wird er die Wiese eben auch ohne Kuh für das Bild einer Herde auf Wiese halten. Oder er wird eine Kuh, die den Strand entlang galoppiert, nicht erkennen.
Solche Fehler könne man korrigieren, indem man solche Systeme mit ungewöhnlichen Fällen konfrontiere, und falsche Interpretationen dann korrigiere.
All das ist eine aufschlussreiche Analogie zu Vorurteilen: Sie beruhen auf dem Vorwissen, nehmen aber Abkürzungen, um schnelle Entscheidungen treffen zu können. Falsche Abkürzungen – also Vorurteile, die dysfunktional sind und zu falschen resp. unangemessenen Aussagen und Handlungen führen – müssen dadurch beseitigt werden, dass das System anhand von Fehlern lernt und sie damit nach und nach zu vermeidet. Soll heißen, Vorurteile können nur durch begründete Urteile aufgehoben werden. Das aber macht Arbeit und kostet Zeit.
Was allerdings der Bericht unterschlägt ist, dass Vorurteile im Alltag eine nicht zu unterschätzende Aufgabe haben: Sie entlasten vom Aufwand, Entscheidungen jedes Mal auf der Basis eine angemessen großen Datenmenge entscheiden zu müssen. Das ist nämlich nicht immer möglich und angebracht ode resfehlt dafür an Kraft und Zeit. Das führt naheliegend zu Diskriminierungen, da nicht der konkrete Fall, sondern ein Muster zugrunde gelegt wird. Diese Diskriminierungen kann man solange hinnehmen, solange sie nicht zu entschieden falschen Einschätzungen und falschem Verhalten führt. Etwa nach dem Muster, alle Männer sind …, alle Frauen sind …, alle Schwarzen sind …, alle Migranten sind …
Spätestens dann nämlich muss das Vorurteil durch ein begründetes Urteil ersetzt werden, und zwar nicht allein, weil das Vorurteil moralisch zu verwerfen ist, sondern insbesondere weil es zu falschen Urteilen kommt.
Freilich, immer den Punkt zu treffen, an dem ein „Vor-Urteil“ zu einem „falschen Urteil“ wird, ist nicht leicht, wenn nicht unmöglich. Grundsätzlich lassen sich Vorurteile aber an ihren Verfahren erkennen, mithin an den Abkürzungen, die sie nehmen, um ein Urteil fällen zu können. Das ist zwar wenig hoffnungsvoll, aber aller Voraussicht nach alternativlos, und zwar allein deshalb, weil ein Leben ohne Vorurteile kaum vorstellbar ist. Man darf sich eben nur nicht auf ihnen ausruhen, spätestens dann wenn es Unruhe um sie gibt.