Erkenntnistheorie 101- Vom Schwan zum Algorithmus: Was induktives Denken mit KI zu tun hat

Schwarzer Schwan auf blauem Gewässer

Stell dir vor, du bist Naturforscher*in in Europa im 17. Jahrhundert. Du hast in deinem Leben tausende Schwäne beobachtet und alle sind weiß. Deshalb schreibst du in dein Notizbuch: „Alle Schwäne sind weiß.“ Logisch, oder? Du hast tausend Beobachtungen gemacht und immer dasselbe Ergebnis bekommen.

Dann landen europäische Forscher*innen irgendwo anders auf der Welt und sehen plötzlich schwarze Schwäne.

Das Beispiel illustriert das Prinzip des induktiven Schließens, also dem Versuch, aus vielen Einzelbeobachtungen eine allgemeine Regel abzuleiten. Das Problem dabei ist einfach, total egal wie viele Fälle du gesehen hast, der nächste könnte alles bislang Erlebte widerlegen.

Deduktion funktioniert anders. Hier startest du mit einer Regel und leitest einen Einzelfall ab: Also zum Beispiel: Die Regel ist: Alle Menschen sind sterblich. Sokrates ist ein Mensch. Der Einzelfall: Also ist Sokrates sterblich.

Wenn die Annahmen stimmen, stimmt die Schlussfolgerung zwingend. Kein Black Swan Problem. Aber der Haken liegt genau darin, dass du die allgemeine Regel schon kennen musst. Und woher kommt die, well … meistens aus Induktion. Die Katze beißt sich hier also in den Schwanz.

Anderes Beispiel: Die Sonne geht jeden Morgen auf. Seit Milliarden von Jahren. Induktiv gesehen die zuverlässigste Regel die wir haben und trotzdem kein Beweis dafür, dass sie es morgen wieder tut. Der Philosoph David Hume hat das im 18. Jahrhundert beschrieben und damit die Grundlagen der Wissenschaftstheorie erschüttert: Vergangene Beobachtungen beweisen nie zukünftige Ereignisse. Sie machen sie nur wahrscheinlich.

Warum das für Algorithmen so heikel ist

Moderne KI Modelle sind im Grunde Induktionsmaschinen auf Steroiden. Sie sehen einfach Millionen von Datenpunkten, erkennen Patterns und leiten daraus Regeln ab. Ein Kreditscoring-Algorithmus lernt: „Menschen aus diesem Viertel zahlen schlechter zurück.“ Eine Gesichtserkennung lernt: „So sehen Verdächtige aus.“

Das Problem ist dasselbe wie beim Schwan: Das Modell kennt nur die Vergangenheit. Strukturelle Brüche, neue Kontexte, gesellschaftliche Veränderungen sieht das Modell nicht kommen. Es setzt die bislang geshenen Muster fort und betoniert diese quasi, auch wenn diese Patterns auf historischen Ungerechtigkeiten basieren.

„Das Modell hat das immer so gelernt“ ist kein Beweis dafür, dass es stimmt. Es ist nur ein Beweis dafür, dass die Vergangenheit so aussah. Der schwarze Schwan wartet also schon irgendwo da draussen.

Lässt sich das Problem lösen?

Nicht vollständig das ist ja gerade der philosophische Witz daran. Aber minimieren lässt es sich z.B durch vielfältigere Trainingsdaten, durch Transparenz darüber wie Modelle zu ihren Schlüssen kommen, durch regelmäßige Tests auf genau die Fälle die das Modell nicht kennt.

Der AI Act bewegt sich in diese Richtung. Aber der schwarze Schwan lässt sich eben nie ganz ausschließen man kann nur ehrlicher damit umgehen, dass er existieren könnte.

Das ist übrigens kein neues Problem, die Wissenschaft hat einen pragmatischen Umgang damit gefunden: Die Nullhypothese (das ist die Annahme : „es gibt keinen Effekt“‘“, die man zu widerlegen versucht) Man versucht also nicht Theorien zu beweisen, sondern sie zu widerlegen! KI-Modelle kennen diesen Trick nicht. Sie optimieren auf Bestätigung, nicht auf Falsifikation.

Das wäre übrigens die Geschäftsidee des Jahrzehnts: Popper.ai, das einzige KI-System das aktiv versucht sich selbst zu widerlegen. :D Null skalierbar, aber wissenschaftlich bestimmt das ehrlichste Produkt aller Zeiten.

Foto von Graham Holtshausen auf Unsplash

GDPR Cookie Consent mit Real Cookie Banner