Künstliche Intelligenz (KI) erhitzt derzeit die Gemüter im Sekundentakt. Doch was steckt hinter der KI-Sehnsucht und wie weit ist die Entwicklung überhaupt? Dirk Helbing, Professor für Computational Social Science an der ETH Zürich, über technische Hintergründe, gesellschaftliche Folgen und über das, was uns menschlich macht: die Verwundbarkeit.
Herr Professor Helbing, warum ist unsere Sehnsucht und Neugier nach künstlicher Intelligenz so präsent?
Es ist ein alter Menschheitstraum menschliche Intelligenz nachzubauen. Warum? Die einen reizt die wissenschaftliche Herausforderung. Andere wollen einfach günstige Helferlein an ihrer Seite, die ihnen lästige, schmutzige und mühsame Arbeit abnehmen.
Was genau verstehen wir unter künstlicher Intelligenz?
Ich würde drei Arten der KI unterscheiden: Die erste basiert auf lernfähigen, zum Teil auch selbstlernenden Systemen, die sich unter Umständen exponentiell in ihrer Leistungsfähigkeit entwickeln. Eine weitere Form der KI ist regelbasiert. Sie kann Aufgaben übernehmen, die nach bestimmten, sich wiederholenden Regeln ablaufen. Eine dritte Art ist das Cognitive Computing, das das menschliche Denken abbilden und imitieren soll.
Wie funktioniert eine KI?
Meistens Blackbox-artig, das heißt, Daten werden einspeist und produzieren einen Datenoutput. Allerdings wissen wir oft nicht, wie dieser Output genau zustande kommt und ob er überhaupt gerechtfertigt ist.
Worin besteht dabei die Gefahr?
Dass wir den Empfehlungen blindlings folgen und uns einer maschinell erzeugten Empfehlung unterwerfen. Nehmen wir das Cognitive Computing, das unser Denken und Verhalten abbildet. Dort versucht man ein digitales Double zu generieren, das unsere psychischen Eigenschaften erfasst und imitiert. Diese Systeme kennen uns so genau, dass sie uns mit psychologischen Tricks manipulieren können.
Der Antagonist der künstlichen Intelligenz ist die natürliche. Worin besteht der Unterschied?
Künstliche Intelligenzsysteme haben eine andere Struktur und Funktionsweise als das menschliche Gehirn. Man arbeitet derzeit an neuen Architekturen, die das Gehirn noch besser nachbilden und die impulsbasiert funktionieren, entsprechend dem Feuern der Neuronen im Gehirn. Außerdem nutzt man vermehrt auch Quantencomputer, also Computer, die nicht in Nullen oder Einsen rechnen, sondern mehrere Zustände, mehrere Alternativszenarien gleichzeitig durchspielen können.
Das heißt, es gibt in diesem Sinne eigentlich noch gar keine KI?
Die Systeme, die man kennt, sind noch nicht wirklich intelligent. Man neigt momentan zur Übertreibung und glaubt, es sei nur eine Frage der Zeit bis uns die Systeme in allen Aspekten übertreffen. Aber dafür gibt es noch keinen Beweis. Niemand spricht darüber, aber es gibt auch eine erhebliche Anzahl an Misserfolgen beim Einsatz von KI.
Sie spielen auf die emotionale Intelligenz an, über die KI bisher noch nicht verfügt?
Unter anderem. Es gibt derzeit Bemühungen, emotionale und soziale Intelligenz zu imitieren. Aber die Frage ist: Wo soll das hinführen? Ist es nicht sinnvoller, eine KI zu entwickeln, die den Menschen ergänzt als dass sie ihn obsolet macht und abschafft?
Folgt der Mensch an dieser Stelle bereits der Maschine? Unterwerfen wir uns einer maschinellen Logik?
Da momentan versucht wird, Maschinen mit menschenähnlichen Eigenschaften zu kreieren, treten wir mit den Maschinen in Konkurrenz. Dadurch wird unser Leben roboterartiger. Wir lassen uns immer stärker eintakten, um mit den Algorithmen noch mithalten zu können.
Was sollten wir stattdessen tun?
Wir sollten uns auf das konzentrieren, was Roboter und Algorithmen nicht gut können: auf kreative und soziale Tätigkeiten.
Wird uns künstliche Intelligenz nicht auch schon bald das kreative Denken abnehmen?
Angenommen ein KI-System kann Bücher schreiben, Musik komponieren und Bilder malen: Selbst dann heißt das nicht, dass sich Menschen dafür auch interessieren und davon berührt werden. Wir sollten KI nutzen, um menschliche Fähigkeiten zu ergänzen und zu verstärken.
Welchen Nutzen könnten KI-Systeme haben?
Ich kann mir vorstellen, dass irgendwann jeder ein KI-System nutzt, das die eigenen, individuellen Interessen vertritt und zum Beispiel Hunderte Seiten lange Nutzungsbedingungen zusammenfasst und automatisch die Punkte aufzeigt, denen man nicht zustimmen würde. Es könnte auch eine KI geben, die persönliche Daten in einem zukünftigen Data-Store verwaltet, so wie es sich der Nutzer wünscht, ohne dass er sich selbst stundenlang mit der Daten-Verwaltung befassen müsste.
Eine KI, die sich entlang der individuellen Bedürfnisse ausrichtet?
Ja, eine Intelligenz, die mir das abnimmt, was ich sonst selbst tun müsste.
Auf welche KI-Verhaltensweisen müssen wir uns einstellen?
Selbstlernende KI-Systeme werden sich auch unvorhersehbar verhalten. Das ist vergleichbar mit dem Menschen: Ein heranwachsendes Kind lernt laufen und sich in der Welt zurechtzufinden. Irgendwann kommt es in die Pubertät und experimentiert. Dabei gehen oft Dinge zu Bruch. Aber am Ende lernen die meisten sich verantwortungsbewusst zu verhalten. Es kann jedoch auch zu kriminellen Taten kommen: Würde man einer KI sagen, sie solle Geld anhäufen, dann würde sie wahrscheinlich lernen, wie man eine Bank hackt. KI könnte auch eingesetzt werden, um Schwachstellen in Computersystemen zu identifizieren. Man könnte KI-Systeme außerdem verwenden, um Menschen zu töten.
Das ist der chinesische Traum der Terrakotta-Armee, die zum Leben erweckt wird.
Genau. Man muss sich darüber im Klaren sein: Alles, was möglich ist, wird auch früher oder später passieren. Das ist Murphys Gesetz. Wir müssen im Vorfeld rechtzeitig Sicherheitsmaßnahmen – Leitplanken und Sicherheitsgurte – auf den Weg bringen. So, wie man es auch im Straßenverkehr gemacht hat, um den Autoverkehr sicherer zu gestalten.
Glauben Sie, dass Menschen lieber mit Menschen zu tun haben wollen – oder wäre ihnen eine KI genauso recht?
Menschen streiten sich, weil jeder seinen eigenen Kopf hat. Eine KI könnte man hingegen so bauen, dass sie alles tut, was wir möchten. Aber im Leben brauchen wir eine gewisse Widerborstigkeit, an der wir uns reiben können, um uns intellektuell zu entwickeln. Unsere Lernfähigkeit hängt ja gerade davon ab, dass wir mit Situationen konfrontiert werden, in denen nicht alles wie erwartet funktioniert. Der Mensch ist ein Wesen, das physische, psychologische, und soziale Bedürfnisse hat. Wir brauchen zwischenmenschliche Interaktion.
Warum ist die Sehnsucht nach künstlicher Intelligenz dennoch so groß?
Eine KI hört sich nach Abenteuer und Science-Fiction an. Wir wissen um die Verwundbarkeit des Menschen, um seine Schwächen. Wir werden krank, unsere kognitive Leistungs-, Denk- und Erinnerungsfähigkeit ist begrenzt. Wir sehnen uns nach übermenschlichen Fähigkeiten, nach Superman und Superwoman.
Worin besteht das Menschliche?
In der Verwundbarkeit. Das ist unser Charakteristikum. Dadurch lernen wir verantwortungsvoll mit der Umwelt und mit anderen umzugehen. Wenn alles, was zu Bruch geht, repariert werden kann, braucht man keine Rücksicht mehr zu nehmen. Rücksichtnahme macht uns aber sozial. Und wir haben gelernt: Gemeinsam erreichen wir mehr als allein. Der Mensch ist mehr als eine biologische Maschine, mehr als eine abgespulte DNA-Sequenz. Ich glaube, dass Menschen nicht rein deterministisch funktionieren. Bei den geistigen Prozessen spielt die Quantenphysik eine Rolle. Da ist etwas, das nicht allein durch das rein Materielle zu erklären ist. Das unterscheidet uns von Robotern, selbst, wenn sie lernfähig sind.
Wo hat eine KI ihre Grenzen?
Zum Beispiel bei unentscheidbaren Problemen, also Paradoxien wie: Wenn ich alle Männer rasiere, die sich nicht selbst rasieren, rasiere ich mich dann selbst oder nicht?
Und umgekehrt: Wo sollten wir künstliche Intelligenz begrenzen? Könnte sie auch außer Kontrolle geraten?
Ja, das ist denkbar. Deswegen sollten wir Schutzmaßnahmen treffen: Wir brauchen eine Möglichkeit, diese Systeme aus dem Verkehr zu ziehen, einen sogenannten Kill Switch. Denkbar wären eingebaute Schwachstellen, über die man diese Systeme ausknocken kann. Ein eingebauter Selbstzerstörungsmechanismus, den man aktivieren kann. Bei besonders heiklen Systemen könnte man auch vorsehen, dass regelmäßig ein Feedback gegeben werden muss. Wenn die Bestätigung ausbliebe, würden die Funktionen einfrieren oder die Energiezufuhr gestoppt.
Aber vielleicht wäre das System auch so intelligent, diese Mechanismen zu isolieren und auszuschalten?
Deswegen benötigen wir eine Kombination aus verschiedenen Maßnahmen und Vorkehrungen.
Könnte es im Worst Case zu einem Maschinensturm, wie einst in England, kommen?
Wenn die Interessen der Bevölkerung nicht berücksichtigt werden, bleibt den Menschen nichts anderes übrig, als einzuschreiten. Facebook-Chef Mark Zuckerberg hat bereits 16 Leibwächter, die ihn vor Nutzern schützen. Eine Machtakkumulation kann auf die Dauer nicht gut gehen. Wenn die Politik es versäumt, unsere Rechte zu schützen, werden die Bürger früher oder später selber aktiv werden: ob als Hacker oder Maschinenstürmer. Der Übergang von einer Gesellschaftsform in eine andere ist nie glatt vonstatten gegangen. Es gab immer Wirtschaftskrisen, Revolutionen und Kriege. Noch sind leider keine geeigneten Maßnahmen getroffen worden, um solche Szenarien bei der Transformation zur digitalen Gesellschaft zu verhindern.
Wie wird unsere Gesellschaft angesichts der aktuellen Entwicklungen von künstlicher Intelligenz und Big Data in Zukunft aussehen?
Langfristig traumhaft, aber gerade sind wir auf dem Weg in den Totalitarismus. Unternehmen und Staat saugen so viele Daten ab, wie sie kriegen können, und sammeln alles. Es wird behauptet, dass ein superintelligentes System die besseren Entscheidungen trifft, weil es mehr weiß.
Warum warnen Sie immer wieder vor den Gefahren einer Datendiktatur?
Weil wir dann tun müssten, was uns aufgetragen wird. Das ist die momentane Stoßrichtung. Man denke nur an den Citizen Score in China. Die Cashless Society, die Abschaffung des Bargelds, wäre der letzte Sargnagel unserer Freiheit. All das beruht auf dem Irrglauben, dass sich Quantität in Qualität verwandelt, wenn man nur genügend Daten hat, die uns die Wahrheit von selbst verkünden.
Aber Daten geben doch Rückschlüsse auf Zusammenhänge?
Es ist so: Je mehr Daten man hat, desto mehr Muster sind in diesen Daten vorhanden. Viele davon sind aber zufälliger Natur oder sind Scheinkorrelationen, die keine kausale Bedeutung haben. Ein Beispiel ist die Anzahl der Waldbrände in Abhängigkeit von der Anzahl Eis essender Kinder. Beides hat eine Ursache, nämlich die hohe Außentemperatur. Würde man den Kindern aber das Eisessen verbieten, würde das nichts an der Anzahl der Brände ändern. Viele vermeintliche Erfolgsbeispiele von Big Data mussten revidiert werden wie Google Flu Trend und das ursprüngliche Produkt von 23andMe: Dort wurden Gentests erstellt, die ermitteln sollten, welche Krankheiten man wahrscheinlich bekommen wird. Die amerikanische Gesundheitsbehörde musste diese Tests erst einmal vom Markt nehmen, weil andere Labors zu anderen Ergebnissen kamen.
Sie glauben also nicht, dass Big Data dazu dienen kann, einen bestimmten Personenkreis sehr genau zu ermitteln?
Gerade im Recruiting geht mit Big Data eine große Erwartungshaltung einher. Die Gefahr besteht darin, dass man mit diesen Tools nicht richtig umgeht. Es besteht die Versuchung, sich die perfekten Lebensläufe herauszupicken. So erreicht man aber vor allem einen Mainstream. Dabei geht es ja eigentlich darum, Teams zusammen zu stellen mit diversen, sich ergänzenden Fähigkeiten. Ein Team kann nicht funktionieren, wenn alle nur Mittelstürmer oder Torwärter sind. Jene, die keinen linearen Lebenslauf haben, sind unter Umständen die Interessanteren, da sie neue Perspektiven einbringen.
Es hat sich herausgestellt, dass Algorithmen in vielen Fällen sogar diskriminierend sind.
Genau, man denke nur an die personalisierte Krankenversicherung: Man würde dann zum Beispiel abhängig von der Ernährung unterschiedliche Tarife bezahlen. Dann käme es zu einer Situation, in der Frauen und Männer, Christen, Juden und Muslime andere Tarife zahlen müssten, weil sie sich unterschiedlich ernähren. Das wäre eine Form der Diskriminierung, die als Nebeneffekt auftritt. Das ist aber nicht akzeptabel.
An welchem Punkt entstehen durch Big Data Fehler?
Wenn wir mit Daten aus der Vergangenheit global die optimale Lösung für die Zukunft bestimmen wollen, verlieren wir Diversität. Die ist aber notwendig für Innovation und gesellschaftliche Resilienz, die wir benötigen, um auch mit unerwarteten Entwicklungen zurechtzukommen. Gleichzeitig schreiben wir die vergangenen Lösungen, die uns erst in die Lage gebracht haben, fort. All die Big Data Verfahren, die selbstlernenden Verfahren, die der künstlichen Intelligenz zugrunde liegen, bauen auf Daten der Vergangenheit auf. Wenn man zum Beispiel in der Vergangenheit Krieg geführt hat, würde man das auch in Zukunft tun, selbst wenn es eine innovative friedliche Lösung gäbe.
Sie sprachen vorhin davon, dass unsere Gesellschaft gerade eher auf dem Weg in eine düstere Zukunft ist. Gibt es auch ein positives Szenario?
Momentan stehen die Weichen noch eher in Richtung des dystopischen Szenarios: Die Politik erwartet, dass uns in den kommenden Jahrzehnten die Ressourcen ausgehen und wir auf einen Notstand zusteuern. Aber wir können das Ruder noch rumreißen und eine Kreislaufwirtschaft und Sharing Economy bauen. KI könnte uns dabei helfen. Ich denke, Technologien sollten uns als Instrumente dienen, unsere Gesellschaft so zu gestalten, wie wir es erwarten, in unserem Sinne. KI könnte uns Aufgaben abnehmen, so dass wir uns anderen wichtigen Dingen zuwenden könnten: unserer Umwelt, anderen Menschen, unserem kreativen Potenzial.
Wie können wir diesen fast schon utopisch anmutenden Zustand erreichen?
Wir brauchen positive Zukunftsvisionen. Zum Beispiel könnten wir unsere Wirtschaft so umbauen, vielleicht sogar gedankengesteuert, dass wir die von uns erlebte Welt so gestalten können, wie wir sie uns wünschen, ohne anderen oder der Umwelt zu schaden. Dazu braucht es eine Pull-Ökonomie, die die Ressourcen dorthin leitet, wo sie gerade benötigt werden. Das ließe sich durch Kombination des Internets der Dinge mit Blockchain-Technologien erreichen. Dabei sollten Anreize für die Wiederverwendung von Ressourcen geschaffen werden. Stichwort: Sharing Economy und Recycling. Aus meiner Sicht ist das in den nächsten 20 bis 30 Jahren erreichbar.
Und wer sorgt sich dann um die grundlegenden Dinge des Lebens?
Die materiellen Grundlagen könnten zunehmend von Robotern übernommen werden. Selbst Häuser lassen sich mittlerweile durch 3-D-Drucker bauen.
Das ist der Traum vom Schlaraffenland, in dem alles jederzeit zur Verfügung steht. Wir sollten uns um existenzielle Dinge keine Sorgen mehr machen müssen. In der neuen Arbeitswelt wird es nötig sein, dass wir den Rücken frei haben, um kreativ sein zu können. Wenn man sich Sorgen machen muss, ob man morgen eine Wohnung und genug zu essen hat, bekommt man den Kopf nicht frei zum Experimentieren. Eine Grundabsicherung wäre vor diesem Hintergrund sinnvoll, aber nicht ausreichend. Die Anreize, etwas Neues zu schaffen, wären zu gering. Es gäbe keine Konkurrenz.
Das klingt darwinistisch.
Wettbewerb treibt uns doch an, bessere Lösungen und Ideen zu entwickeln. Ich glaube nicht an die flache Gesellschaft. Daher sollte ein Grundeinkommen kombiniert werden mit einer Investmentprämie, die dazu führt, dass die besten Ideen leicht realisiert werden können.
Innovationen sollten also durch neue Finanzierungsmodelle gefördert werden?
In den Niederlanden wird diese Idee gerade getestet: Wissenschaftler bekommen dabei ein bestimmtes Forschungsbudget. Die Hälfte des Budgets muss aber an Kollegen verteilt werden. Dadurch verlieren sie nicht so viel Zeit mit dem Einwerben von Forschungsgeldern. Sie werden von administrativen Belastungen befreit. Mein Vorschlag wäre, diese Idee auf die Gesellschaft insgesamt anzuwenden: Man bezahlt den Menschen eine Investmentprämie und ermöglicht auf diese Weise ein Crowdfunding für alle. Das würde ich als demokratischen Kapitalismus bezeichnen.
Stehen wir vor dem Ende des derzeitigen Kapitalismus?
Zu der Einsicht kommen ja immer mehr Menschen, unter ihnen auch die Hauptakteure des heutigen Kapitalismus. Dem Kapitalismus gehen
die Kapitalisten aus. Er braucht ein Update. Das kann uns auf das nächste Level der ökonomischen, gesellschaftlichen und kulturellen Entwicklung bringen. Wir brauchen mehr Mut für Veränderungen.
Welche Veränderungen werden denn im Arbeitsbereich auf uns zukommen?
Ich glaube, dass es in Zukunft keine klassischen Firmen mehr geben wird. Viele heutige Arbeitsplätze werden durch die Automatisierung wegbrechen. Firmen sind aber wahrscheinlich zu schwerfällig, um mit dem Veränderungstempo Schritt zu halten. Das sieht man gerade in der Autobranche. Da dachte man lange Zeit, es würden sich nur die Formen, Farben, Ausstattung und Geschwindigkeit ändern. Das war ein großer Irrtum.
Und wie steht es um unsere Arbeitsweise?
In Zukunft wird Arbeit eher in Projekten organisiert sein. Mal wird man Projekte leiten, mal unterstützen. Menschen werden ihre Rollen und Positionen häufiger wechseln. Wenn wir ein Projekt abgeschlossen haben, werden wir uns neuen Projekten zuwenden. Arbeit wird insgesamt fluider, flexibler, anpassungsfähiger und weniger festgefügt sein. Informationen werden viel transparenter zwischen den verschiedenen Projekten ausgetauscht werden. Dafür brauchen wir ein kombinatorisches Informations- und Innovationssystem, das auf Offenheit und das Teilen von Wissen aufbaut.
Wird Personalarbeit dann noch relevant sein, wenn sich alle mehr oder weniger in autonomen Systemen organisieren?
Personaler werden nach wie vor gebraucht werden. Nur ihr Profil, so wie in den meisten Berufen, wird sich ändern. Es wird darum gehen, Talente zu entdecken und zu fördern und gleichzeitig Schwächen zu kompensieren. Personaler werden noch stärker die Aufgabe haben, Teams zusammenzustellen, in denen sich alle gut ergänzen und miteinander zurechtkommen. Das erfordert Leute, die ein Gespür für die psychologischen und sozialen Faktoren haben.
Dirk Helbing, Professor für Computational Social Science an der ETH Zürich.