Werden uns Maschinen bald in unseren Denkleistungen überholen?

Markt / 02.12.2019 • 12:00 Uhr / 8 Minuten Lesezeit
John-Dylan Haynes war Gast beim diesjährigen Europäischen Mediengipfel in Lech.

Hirnforscher John-Dylan Haynes im Interview.

VN Redaktion

Wie definieren Sie den Begriff „künstlicher Intelligenz“?

Allgemein wird unterschieden zwischen natürlicher und künstlicher Intelligenz. Natürliche Intelligenz betrifft die geistigen Leistungen des Menschens. Künstliche Intelligenz hingegen ist der Versuch unsere geistigen Leistungen über einen Computer nachzustellen.

Und was ist mit Hilfe dieser künstlichen Intelligenz möglich?

Künstliche Intelligenz kann sehr viel. Zum einen können Informationen viel schneller verarbeitet werden, als es uns Menschen möglich wäre. Außerdem lernt künstliche Intelligenz sehr schnell Informationen zu erkennen, etwa anhand eines Musters. Auch das Durchsuchen von großen Datenmengen wird damit vereinfacht. Es gibt also viele Dinge, in denen uns die künstliche Intelligenz voraus ist. Der Mensch hat dafür andere Stärken, etwa ein robusteres Verhalten gegenüber Änderungen – wir sind nicht so abhängig von Ausgangsbedingungen. Auch das Lösen allgemeiner Probleme fällt uns leichter. Wir sind multitaskingfähig, das unterscheidet uns derzeit noch von Maschinen – diese sind eher eine Sammlung von sehr bereichsspezifischen Fähigkeiten. Sie haben nicht unsere Fähigkeitsvielfalt.

Inwiefern werden Jobs durch Maschinen wegrationalisiert?

Ganz seriös lässt sich diese Frage nicht beantworten, weil es sich um eine Zukunftsprognose handelt, bei der verschiedene Faktoren mitspielen. Im europäischen Raum sind Arbeitsplätze beispielsweise durch viele Faktoren bedroht – darunter fällt auch die künstliche Intelligenz. Vor etwa sechs Jahren ergaben Schätzungen, dass etwa die Hälfte unserer Arbeitsplätze durch Maschinen und die Automatisierung bedroht sind. Diese Zahlen gelten heute jedoch als überholt! Es gibt sogar Schätzungen, die besagen, dass bestimmte Arbeitsplätze zwar überflüssig werden, aber dafür wieder andere Jobs entstehen. Dadurch könnte es generell sogar mehr Arbeitsplätze geben.

Welche der heutigen Arbeitsplätze sind besonders sicher?

Arbeitsplätze gelten dann als sicher, wenn sie verschiedene Faktoren beinhalten, in denen gerade der Mensch besonders gut ist, etwa manuelle Geschicklichkeit. Ein Friseur beispielsweise muss sich also noch keine Sorgen machen, von einer Maschine ersetzt zu werden. Auch Berufe, die soziale Aspekte, etwa Empathie oder Resonanz, beinhalten, sind bisher sicher. Das betrifft etwa Lehrer oder Psychotherapeuten. Jobs hingegen, die mit einer sehr starken Routine zu tun haben und leicht automatisiert werden könnten, sind eher bedroht.

Die künstliche Intelligenz basiert ja auf Daten. Was ist, wenn diese Daten, diskriminierende Merkmale beinhalten?

Momentan herrscht eine große, ethische Debatte, wie man die künstliche Intelligenz fair gestalten kann. Sollten beispielsweise dem Datensatz nach alle Menschen, die einen roten Pullover tragen, einen guten Job haben und jene, die einen blauen anhaben, die schlechten, könnte der Computer daraus ableiten, dass die Farbe des Pullovers ausschlaggebend für die Job-Qualität ist. Dabei lag es vielleicht schlichtweg an einer Auswahl-Verzerrung oder einer ungerechtfertigten Präferenz. Das ist genau die Schwierigkeit mit der künstlichen Intelligenz: Es sollen nicht die falschen, sondern faire Parameter verwendet werden. Dazu muss aber verstanden werden, wie diese Algorithmen funktionieren. Es ist leichter, ein neuronales Netzwerk, das viele verschiedene Ebenen hat, zu trainieren, als tatsächlich zu verstehen, wie es diese Aufgabe bewältigt, um zu überprüfen, dass nicht irgendwelche Ungerechtigkeiten in dem Algorithmus stecken.

Sie haben diese moralische Debatte schon angesprochen. Künstliche Intelligenz kann ja zu schädlichen Zwecken genutzt werden, wie am Beispiel China, wo sie häufig zur Überwachung dient. Braucht es eine weltweite Instanz, die für moralische Grundregeln sorgt? Wie möchte man einen Missbrauch dieser Systeme vermeiden?

Es gibt viele verschiedene Kommissionen und Stellungnahmen zur Frage, wie Daten und Algorithmen eingesetzt werden sollen, zum Beispiel von der Europäischen Ethikkommission. Die Frage ist natürlich in wie weit diese Empfehlungen überhaupt in einer multinationalen Landschaft umsetzbar sind, wo Firmen, über die eigenen Grenzen hinaus, in anderen Ländern tätig werden oder wo bestimmte Länder sich nicht an die ethischen Richtlinien halten. Es ist leichter, die ethischen Prinzipien zu formulieren, als sie tatsächlich auch umzusetzen.

Das heißt, wenn China entscheidet sich einfach nicht an ethische Prinzipien zu halten, könnte es zu einer internationalen Verschiebung der Machtverhältnisse kommen, nicht wahr?

Auf jeden Fall, könnte es soweit kommen, dass jemand, der weniger Skrupel hat eine Technik zu entwickeln, im internationalen Wettbewerb vorne liegt und das eigentlich mit unlauteren Mitteln erzielt hat. Wir in Europa müssen aber vorsichtig sein, eben solche Vorgehensweisen anzuprangern, weil wir selbst eine Historie haben, in der wir mit anderen Ländern nicht gerade fair umgesprungen sind. Deswegen ist der erhobene Zeigefinger etwas schwierig! Man darf auch nicht vergessen, dass in anderen Kulturen auch andere Arten von Selbstverständnissen gegeben sind. Wenn man ethische Prinzipien verfolgt, darf man nicht nur darauf gehen, was wir als gut empfinden, sondern solche finden, hinter denen alle Menschen stehen. Das kann bedeuten, dass auch, im Sinne einer gemeinsamen Entscheidung, hier und dort Abstriche gemacht werden müssen.

Wir sehen, die künstliche Intelligenz ist ein recht komplexes Thema. Wie können wir nachvollziehen, was da genau vor sich geht? Ist es überhaupt noch zu kontrollieren?

Niemand kann die Zukunft vorhersagen. Damit meine ich, dass so viele verschiedene Faktoren mitspielen, dass wir nicht aus der Erfahrung der jüngsten Vergangenheit nach vorne blicken können und sagen, was passieren wird. Wir Menschen denken in Stabilität und nicht in Katastrophen. Wenn Algorithmen die Zukunft vorhersagen wollen, können sie das wesentlich besser, wenn sie die statistischen Eigenschaften einer stabilen Phase extrahieren. Das Problem ist, dass, sollten sich plötzlich alle Rahmenbedingungen verändern, Fragen entstehen, deren Relevanz bisher noch nicht erkannt worden war.

In Ihrem Vortrag haben Sie erwähnt, dass die Menschen mit der künstlichen Intelligenz zusammenarbeiten sollten. In welcher Form könnte dies geschehen?

Wir haben schon ganz lange Techniken für uns nutzbar gemacht. Diese – etwa Auto, Taschenrechner, Flugzeug – haben wir oft mit dem Hintergedanken erfunden, uns das Leben etwas leichter zu machen. Optimistisch gesehen wäre es so, dass wir lernen, bestimmte Algorithmen und Daten zu unserem Vorteil nutzbar zu machen. Die Gefahr dabei ist, dadurch dass wir nicht gut sagen können, wie Techniken sich auswirken würden, nicht vorhersagen zu können, welche Auswirkungen das auf soziale Gerechtigkeit hat. Das ist ein ganz großes Problem!

Das Interview führten Alyssa Hanßke (VN), und Julia Papst (Die Presse) im Rahmen des Europäischen Mediengipfels in Lech am Arlberg. Dort nehmen sie an der diesjährigen Medienakademie teil, die Nachwuchsjournalisten Praxiserfahrung unter Echtzeitbedingungen ermöglicht.