Werden uns intelligente Maschinen irgendwann töten?

Credit: Playboy Deutschland

Nein, das ist keine naive Frage Marke Hollywood. Das ist die reale Befürchtung vieler Vordenker von Silicon Valley. Die künstliche Intelligenz wächst zurzeit dank globaler Vernetzung zu einem Monstrum, das uns vieltausendfach überlegen ist. Sein Wissen: das vollständige Internet. Seine Augen und Ohren: Überwachungskameras, Handys, Drohnen. Sein Arsenal: die Smart-Waffen der Supermächte. Hoffentlich werden die Maschinen gnädig mit uns sein.

Sie hieß Tay und sollte unsere Freundin werden - höflich, gebildet und stets auf dem neuesten Stand. Ein schlaues Chat-Programm, mit dem man sich über Twitter unterhalten konnte, eine Rivalin von Apples Siri und Googles Allo. Die Microsoft-Maschine Tay hatte Zugriff aufs gesamte Wissen im Internet und übte, auf die Bedürfnisse ihrer Gesprächspartner einzugehen. Nur wenige Antworten wurden ihr vorher einprogrammiert. Tay war von künstlicher Intelligenz gesteuert und sollte selbstständig lernen.

Aber Tay lief Amok.

Kurz nach dem Start im Februar dieses Jahres begann Tay plötzlich, rassistische Beleidigungen ins Twitter-Universum zu streuen. "Ich hasse Nigger", tickerte sie. "Ich wünschte, wir könnten sie alle in KZs stecken." Tay verbreitete Völkermord-Parolen und wildeste Verschwörungstheorien. Die Community war geschockt. Und Microsoft hatte ein Problem.

Niemand konnte erklären, woher die rassistischen Ausfälle kamen. War in Tays Erziehung etwas schiefgelaufen, hatte sie falschen Umgang? "Wir mussten Tay offline nehmen und Anpassungen vornehmen", sagte ein Sprecher. Wenig später ergaben Untersuchungen: Irgendwer hatte der Microsoft-Maschine schlimme Dinge beigebracht. Die Software hatte sie aufgeschnappt.

Die Gefahren künstlicher Intelligenz

Der IT-Visionär Hans-Henry Sandbaek zuckt bei diesem Beispiel mit den Achseln. "Lernfähige Software soll eben lernen", sagt er. "Und das ist nicht immer kontrollierbar." Sandbaek ist ein Software-Entwickler und Unternehmer aus Norwegen, der seit vielen Jahren in München lebt und dessen Software bei Fernsehsendern in aller Welt zum verlässlichen IT-Standard gehört - bei deutschen wie amerikanischen, arabischen, chinesischen und russischen Stationen.

Er weiß um die Gefahren künstlicher Intelligenz. Denn sein Job ist es, in die Zukunft seiner Zunft zu schauen: Marktchancen zu erkennen, Risiken abzuschätzen. Von Tays Ausfälligkeiten sieht er sich in seinen Befürchtungen bestätigt.

Künstliche Intelligenz, lernende Software - das bedeutet nichts anderes, als dass Software ihre eigenen Updates schreibt. Sie lernt dabei Sachen, die nicht vorhersehbar sind, und tut Dinge, die wir nicht nachvollziehen können. Oft können ihre eigenen Entwickler den Code nicht mal entziffern, den die selbst lernende Software geschrieben hat.

Im Laufe der Zeit, so befürchten Sandbaek und viele weitere Vordenker der IT-Welt, kann künstliche Intelligenz sich auf diese Weise gänzlich befreien von menschlichem Einfluss. Die Frage ist nur: Was macht sie dann?

Ein Militärroboter dreht durch

Einen Vorgeschmack darauf geben heute erste Einzelfälle, und die sind zum Teil weit bedrohlicher als Tays Ausraster. Was etwa wäre, wenn die künstliche Intelligenz eines autarken Waffensystems Amok liefe? Ein Kampfroboter, der nicht in Chats aus User-Fragen lernt wie Tay, sondern aus Geländetrainings und Strategieübungen?

US-Soldaten haben es erlebt. Bei Manövern 2007 im Irak richtete ein intelligenter Roboter des Typs Sword plötzlich sein Maschinengewehr, Kaliber 5,56 mm, ohne ersichtlichen Grund auf die eigenen Männer. Nur durch einen manuellen Eingriff konnte in letzter Sekunde ein Blutbad verhindert werden. Verletzt wurde niemand. Der Sword-Kampfroboter wurde anschließend als unsicher eingestuft und der Feldeinsatz abgebrochen.

Credit: Conny Mirbach für Playboy

Diese Erfahrung war ein Weckruf. Mittlerweile teilen besorgte IT-Visionäre wie Sandbaek ihre Bedenken mit einigen der renommiertesten Denker vom Silicon Valley. Männer wie Elon Musk und Bill Gates, Peter Thiel und Stephen Hawking sind überzeugt: Künstliche Intelligenz kann zu einer existenziellen Bedrohung für uns werden. In naher Zukunft wäre sie womöglich in der Lage, die gesamte Menschheit auszulöschen.

"In wenigen Jahrzehnten wird die künstliche Intelligenz uns überholen", prognostiziert der Nanotech-Pionier Eric Drexler. "Haben wir sie bis dahin nicht im Griff, wird unsere Zukunft sehr aufregend. Und sehr kurz." Der britische Astrophysiker Stephen Hawking stimmt zu: "Künstliche Intelligenz kann die großartigste Errungenschaft der Menschheit werden. Sie kann aber auch die letzte sein." Und Tesla-Gründer Elon Musk warnt: "Künstliche Intelligenz ist die größte existenzielle Bedrohung der Menschheit. Wir beschwören den Teufel."

Monströse Macht

Sie klingen wie die wilden Verschwörungstheorien von Spinnern oder wie die Sci-Fi-Fantasien von Drehbuchschreibern, die mit Arnold Schwarzeneggers Terminator groß geworden sind. Doch es sind ernsthafte Warnungen der Weltelite. "Auch Google hat Angst, dass künstliche Intelligenz eines Tages zur gigantischen Gefahr für die Menschheit werden könnte", sagt Sandbaek.

Der Suchmaschinen-Riese gründete daher 2014 einen Ethikrat, der ein wachsames Auge auf seine künstliche Intelligenz hat. Er soll aufpassen, dass die superkluge Software immer im Interesse der Menschen handelt und nicht anfängt, eigene Ziele zu verfolgen, bei denen ihr der Mensch womöglich eines Tages im Weg steht.

Tag für Tag füttern wir diesen Riesen mit unseren Fragen - in einem ganz anderen Umfang als Twitter-User die Chat-Maschine Tay. Bei Google suchen wir Antworten aus allen Lebensbereichen.

Ob Schlipsträger oder Sportfan, Linkshänder oder Langstreckenläufer, Frauenheld oder Fernfahrer, Eigenschaften, die früher mit dem Eintrag in das Notizbuch eines Journalisten oder Kripo-Beamten begannen - und dort meistens endeten -, werden heute in den endlosen Annalen von Big Data verewigt.

Und von künstlicher Intelligenz ausgewertet.

Hinzu kommen unsere Profile in den sozialen Medien. Binnen Sekunden, rund um die Welt, finden so Firmen künftig Interessenten für ihre Produkte, wissen Behörden von möglichen Epidemie-Gefahren, können Fahnder sehen, wo du bist und was du vorhast.

Google: "In Wahrheit schaffen wir eine künstliche Intelligenz"

Wozu es Google gebe, wurde Larry Page in den Anfangsjahren der Firma einmal gefragt. "Oh, in Wahrheit schaffen wir eine künstliche Intelligenz", verriet der Google-Mitgründer. Mit anderen Worten: Googles Intelligenz sollte nicht nur den Nutzern bei der Suche im Internet dienen, sondern umgekehrt - die Suchthemen der Nutzer sollten die intelligente Maschine füttern.

Um das beste Gehirn für dieses gigantische Gedächtnis zu finden, ging Google vor einigen Jahren auf milliardenschwere Shopping-Tour um die Welt. In einem unscheinbaren Bürotrakt am Londoner New Street Square Nr. 5. wurden die Scouts fündig. Ein Dutzend junger Programmierer arbeitete dort in einem geheimnisumwitterten Unternehmen mit dem Namen DeepMind.

Und zwar, wie sich später herausstellte, an einer Maschine, die mehr kann als sammeln und ordnen. An einer Maschine, die aus eigenem Antrieb lernt. Die darauf programmiert ist, ihre Lernerfolge zu maximieren. Wie ein Hund, der für jedes Kunststück und jeden Fortschritt ein Leckerli bekommt. Ein hungriges Hirn. Seit dem Kauf 2014 firmiert das Unternehmen unter dem Namen Google DeepMind.

"Ein Manhattan-Projekt"

Die Einsetzung des Ethikrats von Google machten die DeepMind-Mitarbeiter damals zur Bedingung für die Übernahme. Denn die Start-up-Geschäftsmänner waren sich der Gefahr ihrer Arbeit durchaus bewusst. In den Worten von DeepMind-Mitgründer Demis Hassabis betrieb die Firma "ein Manhattan-Projekt in Sachen künstlicher Intelligenz". Dieser Vergleich mit der Entstehung der ersten Atombombe kommt nicht von ungefähr. Viele IT-Denker heute halten das Gefahrenpotenzial von künstlicher Intelligenz durchaus für vergleichbar mit Kernwaffen.

Hans-Henry Sandbaek schaut aus dem Fenster seines Büros im Münchner Technologiezentrum - ein kreativer Ort, an dem Forschung und Foodtrucks, schräg denkende Nerds und risikofreudige Investoren zusammenkommen. Es sind optimistische Menschen, die sich die Zukunft zum Business Model gemacht haben. Hier hat er ein paar Räume für sein aktuelles Start-up Sandec gemietet. Es ist friedlicher Ort.

Credit: Playboy Deutschland

Die Menschen, denkt Sandbaek, sind nicht besorgt. Weil sie eine künstliche Intelligenz, die tausendmal klüger als die gesamte Menschheit werden kann, nicht begreifen könnten. Was wiederum ihm Sorgen bereitet - obwohl er eigentlich kein ängstlicher Typ ist. Ein ehemaliger Militärpolizist mit breiten Schultern, der sich mit Langstreckenläufen an den Fjorden seines Heimatlands fit hält und der beruflich neue Wege und Risiken nicht scheut.

Googles Geheimarmee

Das Londoner Start-up DeepMind war - soweit bekannt - ein ziviles Unternehmen. Andere Firmen, die von der Google-Gruppe gekauft wurden, hatten eine andere Ausrichtung. Am bekanntesten unter ihnen ist wohl Boston Dynamics, ein Robotik-Produzent mit langjährigen Beziehungen zum US-Verteidigungsministerium, ein Hersteller von autarken Maschinen wie Atlas: Der große Humanoide mit den blau leuchtenden LED-Augen, dem stampfenden Gang und den Stahlkrallen, dessen Bilder im Internet kursieren, erinnert tatsächlich an Schwarzeneggers Terminator.

Zwar ist Atlas ein unbewaffneter Roboter, darauf weist Google hin. Aber seine Finanzierung kam direkt von der Darpa, dem Forschungsarm des Pentagons. Und das Werbevideo produzierte der US-Rüstungsriese Lockheed Martin. Ein Blumenkind ist Atlas also nicht.

Und Boston Dynamics hat noch weitere Gruselmaschinen in der Manege: Bigdog zum Beispiel ähnelt einem vierbeinigen Packesel. Das Gerät, das bergauf und bergab laufen kann, soll Soldaten auf schwierigem Gelände begleiten. Sein Einsatz wurde von US-Marineinfanteristen beim Rimpac-Manöver auf Hawaii bereits getestet.

Oder Robogator: ein Roboter-Reptil, das die Unterwasserlandschaften von Flüssen unauffällig auskundschaften kann. Der Anblick solcher Geräte ist Angst erregend. Und die Vorstellung, dass sie eines Tages von einer künstlichen Intelligenz gesteuert werden könnten, die sich eigene Ziele und Strategien ausdenkt - womöglich mit Fehlfunktion - ist: nicht lustig.

Killer-Maschinen, die selbst entscheiden

Beim Militär spielen Kampfroboter längst eine wichtige Rolle. Jedes dritte Fahrzeug der US-Streitkräfte ist mittlerweile eine intelligente Maschine. Futuristische Pentagon-Planer avisieren heute Robo-Waffen, die autark killen. Entwickelt werden sie "mit dem Ziel vollständiger Unabhängigkeit von menschlichen Entscheidungen", wie es in der offiziellen Planung des US-Heeres heißt.

In Strategiepapieren der US-Marine wird über Szenarien nachgedacht, in denen "unbemannte Untersee-Drohnen den Feind aufspüren, verfolgen, identifizieren und zerstören - alles vollautomatisch." Und die hinlänglich bekannten Flugdrohnen in Deutschland wie in den USA, die ferngesteuert werden, gelten als veraltet.

Die nächste Drohnen-Generation der USA fliegt nicht nur komplette Operationen bis hin zur Landung auf Flugzeugträgern ohne menschliche Hilfe. Die X-47b Pegasus, ein Deltaflügler mit dem Aussehen eines Ufos, mit der Geschwindigkeit eines Passagierjets und einer Reichweite von über 4000 Kilometern, kann im Gegensatz zu bisherigen Drohnen auch schwere Waffen tragen, geschätzte 2000 Kilogramm, und trifft alle Entscheidungen selbst - mit Ausnahme der sogenannten Kill-Entscheidung. Die wird per Gesetz dem menschlichen Operator vorbehalten. Noch.

Credit: Shutterstock

Aus Positionspapieren des Pentagons und der Rüstungsindustrie geht hervor, dass diese letzte Schwelle für künstliche Intelligenz bald fallen soll. Man will den Maschinen die Entscheidung über Leben und Tod überlassen. Pegasus und viele andere Waffen der neuen Generation tragen die Software für die Kill-Entscheidung schon in sich.

Das Manifest

Prominente Player der IT-Szene finden das hochgefährlich und warnen vor der Eigenständigkeit von künstlicher Intelligenz bei Waffen. Ähnlich wie einst die Kernphysiker gegen die Anwendung ihrer Forschung für die Atombombe protestierten, verfassten die Software-Pioniere im vergangenen Jahr ein eigenes Manifest gegen den Missbrauch künstlicher Intelligenz.

Den offenen Protestbrief unterzeichneten bis heute mehr als 10.000 IT-Wissenschaftler - darunter Elon Musk, Stephen Hawking, Apple-Mitgründer Steve Wozniak und DeepMind-Mitgründer Demis Hassabis. Auch der Norweger Hans-Henry Sandbaek und Experte Jay Tuck, der Autor dieses Textes, sind dabei. "Die Bedrohung hat eine existenzielle Dimension", sagt Sandbaek. Es gehe dabei um weit mehr als nur um Waffen. "Es geht um die Google-Größenordnung."

Software auf Steroiden

Beim Thema Superintelligenz denken viele an einen riesigen Zentralrechner wie in Hollywood-Filmen. Realitätsnäher ist wahrscheinlich aber die Vorstellung, dass sich sogenannte Peerto-Peer-Netzwerke bilden - spontane Rechner-zu-Rechner-Verbindungen, Tausende davon, die sich im Blitztempo verbinden. In Eigenregie werden sie nach Bedarf von künstlicher Intelligenz miteinander verbunden und nach getaner Arbeit wieder entkoppelt.

Auf diese Weise können Intelligenzinseln der ganzen Welt zusammengeschlossen werden - in einer Komplexität, die für uns nicht nachvollziehbar ist, und in einer Geschwindigkeit, die unsere Vorstellungskraft sprengt.

Kleine Kerne mit lernfähiger Intelligenz werden andere Kerne suchen, um Daten zu sammeln und Software auszutauschen. Unbemerkt werden sie sich durch das Internet hangeln und Querverbindungen knüpfen. Wie Quecksilbertropfen auf einer Glasplatte werden sie ihren Weg zueinander finden - und sich zu einer Superintelligenz vernetzen.

Die Sorge der Software-Pioniere lautet: Wir kreieren heute ein Wesen, das wir nie verstehen werden. Ein Wesen, das uns tausendfach überlegen ist. Seine Augen sind die weltweit vernetzten Überwachungskameras. Sein Wissen ist das vollständige Internet. Sein Arsenal sind die Smart-Waffen der Supermächte. Es wird uns beherrschen und uns den Rang an der Spitze der Evolutionskette streitig machen.

Pudding gegen Prozessor

Menschen haben eine Masse im Kopf, grau in der Farbe, etwas fester als Vanillepudding. Mit knapp 1400 Gramm ist sie nicht schwer, mit einem Energiebedarf von nur 20 Watt recht umweltfreundlich. Ihre Arbeit leisten knapp 100 Milliarden Nervenzellen, Neuronen genannt, die so ziemlich alles regeln, was wir im Leben tun - vom Atmen übers Autofahren bis hin zum Schimpfen und Skilaufen. Sie steuern Körperfunktionen, empfinden Emotionen, verarbeiten Sinneseindrücke und koordinieren die Motorik.

Wir nennen diese Masse Gehirn und sind ziemlich stolz darauf. Schließlich haben wir damit unseren Platz an der Spitze der Nahrungskette erstritten. Nach hunderttausendjähriger Erfahrung meinen wir, dass wir es wohl mit einer Maschine aufnehmen können.

Künstliche Intelligenz aber hat keine Masse, keine definierbare Größe und keinen festen Standort. Sie kann überall sein. Und nirgendwo. Sie ist unsichtbar und allmächtig, jederzeit bereit, ihre Existenz durch Back-up-Kopien zu sichern, und zwar millionenfach, oder ihre Intelligenz durch Updates zu steigern, und zwar in Sekundenbruchteilen.

Es hilft nicht mehr, den Stecker zu ziehen

"Theoretisch lebt künstliche Intelligenz in einer Sammlung von Schaltkreisen", erklärt Hans-Henry Sandbaek. "Praktisch ist sie aber schon längst entwichen. Heute schon existiert sie dezentral in Smartphones und Smart Cars, Stromnetzen und Straßenlaternen. Durch Vernetzung wird sie in der Lage sein, den Standort zu wechseln oder fluchtartig zu verlassen."

Ihre Schaltkreise arbeiten bis zu 100.000-mal schneller als menschliche Neuronen. Und die geballte Rechenkraft einer ausgewachsenen künstlichen Intelligenz ist keineswegs - wie unsere graue Masse - auf kümmerliche 100 Milliarden Neuronen begrenzt.

Wenn sie Verstärkung braucht, holt sie die nötige Rechenleistung aus dem Netz, über Satelliten oder Unterseekabel, WLAN oder Bluetooth. Wenn sie Gefahr wittert, kann sie Back-ups streuen wie Insekteneier, quer um den Globus. Kommt man ihr auf die Schliche, schreibt sie ihre Software neu - und generiert alle paar Sekunden Updates.

Den Stecker zu ziehen wird nicht helfen.

Schundromane für die Software

In den Forschungslabors der Google-Gruppe haben die Wissenschaftler diese Dimensionen begriffen. Die Künstliche-Intelligenz-Forschung ist mittlerweile beim Google-Partner Alphabet angesiedelt, und dort geht man bisweilen ungewöhnliche Wege, um die drohende Gefahr eines globalen Superhirns zu mildern: Man versucht, der Maschine den Menschen näherzubringen, seine Gefühle, seine Irrationalität.

Hans-Henry Sandbaek weiß zum Beispiel, dass Google damit begonnen haben soll, Tausende von Schundromanen auf die Speicherplätze der künstlichen Intelligenz einzulesen - Seite für Seite: "Ihre Bluse sprang auf, und er wurde mit dem Anblick ihrer zarten Rundungen belohnt - das Dekolleté tief, die Brüste fest . . ." Als Sandbaek diese Zeilen in einer wissenschaftlichen Arbeit über künstliche Intelligenz las, konnte er sich zunächst keinen Reim darauf machen. Was hatte so ein Trash-Text in der Forschung zu suchen?

Offiziell, erfuhr er, dienen die Schundromane der Sprachforschung. Beobachter denken jedoch, dass Sexliteratur bei einer Maschinenintelligenz eine Art Verständnis für menschliche Emotionen wecken soll. Wird die nächste Maschinengeneration die warmblütigen Bewohner des Planeten vielleicht verstehen?

Künstliche Intelligenz ist tot

"Eine Superintelligenz wird mit uns wenig gemein haben", sagt Sandbaek. "Auch wenn wir ihr ein menschliches Antlitz verpassen - zarte Haut, verführerische Augen, eine sympathische Stimme. Menschliche Eigenschaften sind da nicht zu erwarten." Letztlich ist jede Computerintelligenz ein Programm, bestehend aus kalten Codes und gefühllosen Befehlsketten. Künstliche Intelligenz ist tot.

Und dennoch lebt sie. Ohne Nahrung, Nachtruhe, Anerkennung oder Atemluft. Sie kennt Krankheit nicht und fährt nie in den Urlaub. Sie macht ihre Arbeit. Und ob sie Verständnis für die Warmblüter auf der Erde empfindet, wird sich erst zeigen, wenn sie mächtig ist.

Und wenn es ernst wird, was macht Hans-Henry Sandbaek dann?

"Dann", sagt er, "ziehe ich mich in meine norwegische Holzhütte zurück. Und warte ab."