Was der Mensch nicht versteht, kann der Computer nicht lernen

Künstliche Intelligenz kann nicht nach den Maßstäben des menschlichen Gehirns gewertet werden, meint Pionier John McCarthy.

Rückblickend auf etwa 50 Jahre Forschungsarbeit zum Thema Künstliche Intelligenz sagte der Namensgeber, dass die Fortschritte nicht von der Hand zu weisen seien. Allerdings stellte er einen leichten Abdrift fest.

So sei zwar die Erkenntnis aus den 80er Jahren richtig gewesen, dass Computer die Hauptarbeit rund um Künstliche Intelligenz ausmachen; es sei auch die Voraussage eingetreten, dass die automatischen Denksysteme sich nicht nur von einem Faktor abhängig machen dürfen, sondern in diffizilen und komplexen Wenn-Dann-Mustern arbeiten müssten. Doch trotz dieser richtigen Trigger, so sagte er gegenüber einem US-Fachmagazin, könne man heute noch nicht von Künstlicher Intelligenz auf einem Level sprechen, das dem menschlichen auch nur annähernd ähnlich sei.

Dabei schiebt er aber den Menschen den Schwarzen Peter zu. Die Maschine könne  nur lernen, was der Mensch analysieren könne. Und deshalb seien mathematische Aufgaben wie Schachspielen für die Computer so einfach und gut zu lernen. Dagegen Spiele, bei denen es darauf ankomme, viele Faktoren mit einzubeziehen und Teile zu identifizieren und diese Informationen wiederum im Vergleich mit Faktoren in der möglichen Zukunft anzuwenden – da seien den Menschen die Verständnismuster nicht vollends klar. Und deshalb sei es auch schwierig, dies Computern beizubringen. Allerdings beherrschen Computer bereits das Auto: Dem Roboterauto Stanley gelang demnach vor einigen Jahren eine unfallfreie, wenn auch kurze Fahrt mit 131,6 Meilen pro Stunde.