Stefan Beyer - Web-Entwickler und Lehrer

« alle Artikel

Die KI-Reihe

KI II: Automatische Entscheidungen: Trainieren und Testen

Ein Entscheidungs-System wird anhand einer Reihe von Informationen so aufgebaut, dass es eine Gefahr erkennen kann. Danach wird getestet, ob die Entscheidungen bei unbekannten Fällen auch richtig sind. Wie kann es dabei zu Fehlern kommen und was hat das für Konsequenzen?

Ein neuer bissiger Affe
© Basiert auf einer Arbeit von Annabel Lindner und Stefan Seegerer

Fehler passieren…

Es kann gut sein, dass man eine Entscheidungsregel gefunden hat, die nicht alle Test-Affen korrekt erkennt. Falls doch: Gratulation. Allerdings kommt jetzt ein neuer Affe, der in einem anderen Park schon als bissig aufgefallen ist, zu uns. Wie wird dieser Affe vom System beurteilt? Wir müssen in jedem Fall das Thema »Fehler« aufgreifen. Dafür schauen wir uns an, warum die Systeme Fehler machen, welche Arten von Fehlern es hier geben kann und was das für die jeweiligen Akteure bedeuten könnte. Letzteres lasse ich die SchülerInnen selbst überlegen.

Warum passieren Fehler?

Zwei Gründe fallen mir ein, die zu einer falschen Entscheidung führen können:

  1. Das System ist nicht optimal oder fehlerhaft trainiert.
  2. Die Trainingsdaten decken nicht alle tatsächlich möglichen Fälle ab oder sie sind mit Vorurteilen belastet.

Es kann auf diese Weise eigentlich kein garantiert perfektes System geben. Darauf entgegnete mir eine Schülerin sinngemäß sehr treffend:

Doch! Man kann einfach alles, was es gibt, zum Trainig verwenden – [Denkpause] – oh, das geht wahrscheinlich schlecht…

Was bedeuten Fehler in der Realität?

Es gibt zwei Fehlerarten:

  1. Das System erkennt einen bissigen Affen nicht und stuft ihn fälschlicherweise als harmlos ein.
  2. Das System schlägt bei einem völlig harmlosen Affen Alarm, und meint, er sei bissig.

Wenn ein bissiger Affe nicht erkannt wird, kann das für Mitarbeiter oder Besucher ein Problem sein. Wenn hingegen ein harmloser Affe als bissig eingestuft wird, so ist das möglicherweise ein Problem für den Affen: Er wird zu unrecht behandelt, als wäre er gefährlich.

Diese Überlegungen lassen sich dann auch auf andere KI-Anwendungen übertragen: Welche Art von Fehler ist für wen ein Problem?


Bilder zum Teil KI-generiert.

Stefan Beyer