Skip to content

Was ist der Turing-Test?

Die verschwindende Grenze zwischen Mensch und Maschine.

Der Turing-Test ist benannt nach seinem Erfinder Alan Turing. 1950 entwickelte er diesen Test um die Frage zu beantworten, ob Computer denken können. Doch diese Frage direkt zu beantworten ist schwierig, da schon alleine die Aufgabe „Denken“ zu definieren Wissenschaftler bis heute vor Probleme stellt. Deshalb schlug Turing vor, stattdessen eine andere Frage zu testen: Gibt es Computer, die einen Menschen – ein denkendes Wesen – überzeugend imitieren können?

Um dies zu testen wird in der Regel wie folgt vorgegangen: Eine Testperson wird in einen Raum gebracht, in dem sie an einem Computer zwei textbasierte Unterhaltung mit je einem Gesprächspartner führen soll. Die Testperson weiß, dass einer der Gesprächspartner ein Mensch und der andere ein Computer ist, aber sie kann diese nicht sehen. Die Aufgabe dieser Testperson ist es nun, nur basierend auf den geführten Unterhaltungen zu entscheiden, welcher der Gesprächspartner der Computer ist. Nach dem Ende beider Gespräche, deren länge in der Regel zeitlich begrenzt ist, fällt die Testperson ihre Entscheidung. Dieser Test wird nun mit mehreren Testpersonen durchgeführt. Waren die Testpersonen insgesamt nicht in der Lage, den Computer zuverlässig vom menschlichen Gesprächspartner zu unterscheiden, so hat der Computer den Turing-Test bestanden.

Es ist umstritten, ob es bisher einem Computer gelungen ist den Turing-Test zu bestehen. Eliza, ein 1966 von Joseph Weizenbaum erstelltes Programm, konnte Versuchspersonen kurzeitig davon überzeugen, dass sie sich mit einem Menschen unterhalten. Allerdings wussten diese nicht, dass sie es mit einem Computer zu tun haben könnten. In anderen Versuchen wurden entweder zu wenige Versuchspersonen überzeugt, oder der Testablauf wurde verändert. Beispielsweise gelang es 2011 der KI Cleverbot, dass sie 59% der Versuchspersonen für einen Menschen hielten. Die Versuchspersonen waren allerdings nur Zuschauer bei den Gesprächen und konnten nicht selbst Fragen stellen.

Die Tauglichkeit des Turing-Test ist ebenfalls umstritten. Ein Kritikpunkt ist, dass der Turing-Test nur testen kann, ob sich ein Computer wie ein Mensch verhält. Menschliches Verhalten und intelligentes Verhalten sind aber nicht dasselbe. Manches menschliche Verhalten ist nicht intelligent, würde aber einem Computer während eines Turings-Tests helfen menschlicher zu wirken. So nutze zum Beispiel ein KI-Programm namens PC Therapist absichtlich eingebaute Schreibfehler um menschlicher zu wirken. Auf der anderen Seite gibt es auch intelligentes Verhalten das unmenschlich ist, zum Beispiel das schnelle Lösen komplexer Rechenaufgaben. Ein Computer, dessen Intelligenz die des Menschen in solchen Aufgaben übersteigt, müsste sein Verhalten limitieren um während eines Turing-Tests nicht aufzufallen. Somit kann der Turing-Test aber auch nicht dazu verwendet werden, solche intelligenten Computer zu bewerten.

Dazu kommt, dass der Turing-Test nur das externe Verhalten eines Computers testet. Wie dieses Verhalten erzeugt wird, ob durch simple Regeln oder tatsächliches Bewusstsein und Intelligenz, wird nicht betrachtet. Somit kann der Test auch keine Aussage darüber treffen, ob ein Computer wirklich intelligent ist. Das behauptet auch John Searle, der 1980 das „Chinesische Zimmer“ als Gedankenexperiment vorschlug, um zu zeigen, dass Computer den Turing-Test bestehen können, indem sie Symbole manipulieren, die sie aber nicht wirklich verstehen und somit als intelligent erscheinen, obwohl sie es nicht sind.

Ein weiterer Faktor ist die menschliche Testperson. Zum einen ist nicht vorgegeben, welches Wissen und welche Fähigkeiten eine solche Person mitbringen soll. Je nach Erfahrung und Wissensstand des Testers kann es schwerer oder einfacher sein ihn davon zu überzeugen, dass er mit einem Menschen statt einem Computer redet. Außerdem neigen Menschen zum Anthropomorphismus. Sie schreiben selbst offensichtlich nichtlebendigen, menschenunähnlichen Dingen, wie zum Beispiel Staubsaugrobotern oder Autos, menschliche Eigenschaften zu. Dies macht es wiederum auch für simple Computerprogramme einfacher, menschliches Verhalten zugeschrieben zu bekommen.

Außerdem sind menschliche Testpersonen auch nicht in der Lage, andere menschliche Kommunikationspartner zuverlässig als solche zu identifizieren. Sie halten diese also in manchen Fällen auch für Computer. Hier zeigt sich, dass das Verhalten welches eine Testperson von einem Menschen erwartet nicht unbedingt menschlich ist, oder das tatsächlich menschliches Verhalten als unmenschlich interpretiert werden kann.

Der Turing-Test ist der bekannteste Test für menschenähnliche künstliche Intelligenz. Es wurden aber auch andere solche Tests vorgeschlagen. Der Turing-Test klammert die Überprüfung von physischen Fähigkeiten bewusst aus, um sich auf das reine Denken zu konzentrieren. Deshalb schlug Stevan Harnad eine Variation des Turing-Tests vor, den Total Turing-Test. Dieser soll zusätzlich die Fähigkeiten einer KI zur Wahrnehmung und Manipulation der Umgebung testen. Auch andere Vorschläge gehen in eine ähnliche Richtung und verlangen von einer KI Leistungen wie das Zusammenfassen von Videos oder Texten oder das Erlangen eines Universitätsabschlusses. Eine weitere Variation ist der sogenannte Reverse Turing-Test, in dem die Rollen von Computer und Mensch getauscht wurden. Hier soll ein Computer herausfinden, ob er mit einem Menschen oder einem Computer kommuniziert. Eine Umsetzung dieses Tests sind die CAPTCHAs, die Menschen auf manchen Webseiten lösen müssen um sich anmelden zu können oder Kommentare verfassen zu können.

Automatisiertes Planen (engl.: automated planning and scheduling) ist ein Teilbereich der KI, der sich damit beschäftig, wie Computer autonom Handlungssequenzen erstellen und anpassen können um ihre Ziele erreichen. Beispielsweise hat ein Roboter das Ziel von einem Raum A in einen Raum B zu gelangen. Zwischen diesen Räumen befindet sich eine geschlossene Tür und ein offenes Fenster. Ein Roboter mit Rädern und einem Greifarm würde dann vielleicht wie folgt planen: Fahre zur Tür, greife den Türgriff, öffne die Tür weit genug, lasse den Türgriff los, fahre in Raum B. Eine Drohne wiederum würde aber anders handeln. Sie kann die Tür nicht öffnen aber ist in der Lage durch das offene Fenster in Raum B zu fliegen.

Um solche Pläne aufstellen zu können, müssen Computer zuerst in der Lage sein, ihre aktuelle Situation zu erkennen. Dann müssen sie vorhersagen können, wie die ihnen zur Verfügung stehenden Aktionen sich auf diese Situation auswirken. Dies erlaub ihnen dann eine Handlungssequenz aufzustellen, die sie von ihrer aktuellen Situation möglichst nah an ihre gewünschte Zielsituation bringt.

Was sich in der Theorie und im Beispiel relativ einfach anhört wird in der Realität schnell sehr komplex und aufwändig zu berechnen. Dies liegt daran, dass die Umgebung, die ein Computer in seine Planung einbeziehen muss, oft sehr dynamisch und komplex ist. Dies fängt schon bei der Ausgangslage an. Je genauer er diese kennt, desto genauer kann er auch planen. Allerdings ist die aktuelle Situation für den Computer unter Umständen nicht vollständig wahrnehmbar und er muss dann mit unvollständigen oder ungenauen Information arbeiten. Oder sie ändert sich so schnell, dass ein gerade aufgestellter Plan bereits wieder veraltet ist, wenn er ausgeführt werden soll. Ein weiteres Problem sind die geplanten Aktionen. Der Computer muss bei seiner Planung beachten, dass diese Aktionen unter Umständen fehlschlagen, nicht genau das erwartete Ergebnis liefern, oder eine gewisse Zeit zur Ausführung benötigen. Das kann dazu führen, dass er Aktionen erneut ausführen oder korrigieren muss, oder dass sich sein Umfeld ändert, während er eine Handlung ausführt. Plant er, mehrere Aktionen gleichzeitig auszuführen, so muss er auch sicherstellen, dass dies überhaupt möglich ist. Dazu kommt, dass er in seiner Umgebung unter Umständen nicht alleine agiert. Andere Akteure könnten ihre eigenen konträren Ziele verfolgen oder es könnte notwendig sein mit ihnen zusammen zu arbeiten. Schlussendlich stellt sich auch die Frage, ob der Computer sein Ziel exakt erreichen muss, oder ob ein „so gut es geht“ ausreicht.

Newsletter

AI Leaders – We invest in future Technology

Melden Sie sich bei unserem Newsletter an!