Algorithmen, intelligente Software und Roboter können immer mehr Dinge, zu denen noch vor Kurzem allein der Mensch fähig war. Über die rasante Entwicklung der Künstlichen Intelligenz (KI) und deren Folgen berichtet ZEIT ONLINE in der neuen Serie Maschinenraum.
Dass Maschinen schwerere Lasten heben und präzisere Löcher bohren können als Menschen, daran haben wir uns gewöhnt. Auch dass es Roboter gibt, die schneller laufen als Usain Bolt, ist nicht mehr überraschend. Neu ist, dass Maschinen uns zunehmend auch auf Gebieten übertreffen, die bisher als Ausweis menschlicher Intelligenz galten. Möglich machen dies vor allem leistungsstarke neuronale Netze, die Deep-Learning-Systeme. Sie bilden die Funktionsweise der vernetzten Nervenzellen im Gehirn nach.
Dies sind sechs Felder, auf denen sie bereits heute Übermenschliches erbringen:
1. Verkehrszeichen erkennen
Deep-Learning-Netzwerke sind extrem gut darin, Bildinhalte zu erfassen. Schon vor fünf Jahren gewann eine Software des Schweizer Forschungsinstituts für Künstliche Intelligenz in Lugano den deutschen Wettbewerb für Verkehrszeichenerkennung. Aus 50.000 Fotos von Verkehrszeichen erkannten die künstlichen Neuronen 99,46 Prozent korrekt, auch wenn sie verdreht, halb verdeckt, im Dunkeln oder im Gegenlicht aufgenommen waren. Mit dieser Fehlerrate von 0,54 Prozent war der Computer mehr als doppelt so gut wie eine menschliche Vergleichsgruppe, die zu 1,16 Prozent falsch lag.
Für das automatisierte Fahren sind solche Erfolge entscheidend. Fahrzeuge müssen künftig nicht nur Verkehrszeichen fehlerfrei erkennen, sondern auch Bäume, Fußgänger oder Fahrradfahrer. Autohersteller arbeiten an einer automatischen Szenenanalyse. Dabei lernt das Auto beispielsweise, anhand der Position eines Fußgängers am Straßenrand sowie seiner Kopfhaltung und Körperstellung vorherzusagen, ob dieser gleich die Straße überqueren wird.
2. Hausnummern lesen
Forscher von Google haben ein Deep-Learning-Netz eingesetzt, um auf vielen Millionen Google-Street-View-Aufnahmen die Hausnummern zu finden und zu lesen, auch wenn sie gedreht, gekippt oder ungewöhnlich geschrieben waren. Das diente dazu, die Häuser in Google Maps exakt zu lokalisieren. Ein Team von Menschen wäre mit einer solchen Aufgabe jahrelang beschäftigt gewesen. Der Computer schaffte es in weniger als einer Stunde.
Künftig ließen sich solche Algorithmen im Prinzip auch für die automatische Suche nach verdächtigen Personen auf Bahn- oder Flughäfen oder auch zur Shoppingunterstützung einsetzen. Hat etwa die Dame am Nachbartisch eine besonders schicke Handtasche, dann genügt es, ein Foto davon zu schießen, und schon liefern Suchmaschinen Links zu Geschäften, die genau dieses Produkt verkaufen.
3. Mimik lesen
Das Programm Affdex der US-Firma Affectiva hat mehrere Jahre lang Menschen in 75 Ländern beobachtet, während sie Videos schauten. Dabei lernte es,Gefühlsregungen richtig zuzuordnen. Grundlegende Emotionen wie Freude, Überraschung, Ekel oder Traurigkeit spiegeln sich in Gesichtern immer auf die gleiche Weise wider, unabhängig von Herkunft, Geschlecht oder Alter. Inzwischen ist dieses Deep-Learning-System bei der Gefühlserkennung präziser und schneller als die meisten Menschen. Mehr noch: Es kann sogar ein echtes von einem falschen Lächeln unterscheiden.
Für Marktforscher und Werbetreibende sind solche Programme ebenso wertvoll wie für künftige Serviceroboter, die aus Mimik, Gestik oder Tonfall ihres menschlichen Gegenübers schließen sollen, wie dieses sich fühlt und entsprechend reagieren.
4. Spiele gewinnen
Computer beherrschen viele Spiele längst besser als Menschen: das Damespiel seit 1956, Schach seit 1997, und der weltbeste Go-Spieler unterlag im März 2016 der Software AlphaGo – einer Kombination aus Deep-Learning-Netz, analytischen Berechnungen und Zufallsgenerator – klar mit 4:1. Wenige Monate zuvor hatten die AlphaGo-Entwickler sogar ein Programm vorgestellt, das sich ganz eigenständig 49 klassische Atari-Spiele wie Space Invaders, Breakout oder Autorennen beibrachte – und zwar ohne dass es die Regeln dieser Spiele kannte. Der Computer hatte einfach die Spiele so lange gespielt und seine Strategien variiert, bis er die Punktzahl maximieren konnte.
Mittlerweile versuchen Forscher auch, Computern das Pokern beizubringen. Das ist besonders schwierig, weil es ein Spiel mit imperfekter Information ist. Fortschritte gibt es, einige Programme bluffen sogar schon. Doch noch kann man nicht behaupten, dass sie besser spielen als Menschen, erst recht nicht in Partien mit mehr als zwei Spielern.
5. Krankheiten diagnostizieren, neue Wirkstoffe finden
Forscher in den USA haben Deep Learning eingesetzt, um anhand von Gewebebildern die Überlebensrate von Krebspatienten vorherzusagen. Die Algorithmen lernten, verdächtige Merkmale zu finden, die helfen, die Krebszellen von gesunden Zellen zu unterscheiden. Zur Verblüffung der Wissenschaftler entdeckte der Computer am Ende sogar mehr solche Merkmale, als bis dahin in der medizinischen Literatur bekannt waren.
Ähnlich groß war die Überraschung in einem Wettbewerb, in dem es darum ging, Moleküle aufzuspüren, die sich für neue Medikamente eignen könnten. Die Software des Deep-Learning-Pioniers Geoffrey Hinton schaffte es in nur zwei Wochen, unter Tausenden von Molekülen die erfolgversprechendsten zu identifizieren. Nun hoffen Ärzte und Pharmaunternehmen, dass ihnen Deep-Learning-Netze oder andere Verfahren künstlicher Intelligenz – wie das Computersystem Watson von IBM – helfen, präzisere Diagnosen zu stellen, bessere Therapien zu finden und neue Wirkstoffe zu entwickeln.
6. Maschinen warten
Große Windturbinen verfügen über viele Sensoren, die pro Tag Hunderte Gigabyte Daten produzieren. Neuronale Netze lernen, diese Datenflut weit besser zu analysieren, als es jeder Mensch könnte. Sie erkennen ungewöhnliche Schwingungen oder einen unrunden Lauf und organisieren ein Wartungsteam für Reparaturen – Tage oder Wochen, bevor es zu Beschädigungen kommt, die zum Ausfall der Turbine führen würden.
Mit einer solchen vorausschauenden Wartung erreicht auch derHochgeschwindigkeitszug Velaro in Spanien eine extrem hohe Zuverlässigkeit. Nur eine von 2.300 Fahrten ist demnach deutlich verspätet. Das ist gut für die Kunden und für den Betreiber RENFE: Bei mehr als 15 Minuten Verspätung wird den Kunden der volle Fahrpreis erstattet.
Bislang werden Deep-Learning-Netze auf konventionellen Computern simuliert. Ein Forscherteam an der Universität Heidelberg entwickelt derzeit einen völlig neuen Ansatz: neuromorphe Chipstrukturen, die Nervenzellnetzwerke direkt als elektronische Schaltungen nachbilden. Das hat den Vorteil, dass sie millionenfach schneller sind als heutige Supercomputer und sogar zehntausendfach schneller lernen als das menschliche Gehirn. Das könnte die Leistungsfähigkeit künftiger neuronaler Netze um viele Größenordnungen steigern – und zu einer weiteren Intelligenzexplosion der smarten Maschinen führen.
Allerdings sind neuronale Netze keine Alleskönner. Sie eignen sich bestens, um Muster aller Art zu erkennen, in Bild-, Video-, Text- oder Audiodateien. Aber sie verfügen nicht über Alltagswissen. Menschen müssen ihnen erst sagen, ob es sich bei den erkannten Mustern um Bilder von Katzen oder Bäumen handelt, oder um Musikstücke von Mozart oder ein Gedicht von Goethe. Oder nehmen wir einen Autofahrer, der sieht, wie der Wind eine Papiertüte auf die Straße weht. Er würde dafür keine Vollbremsung machen, weil er weiß, dass die Tüte kein Hindernis darstellt. Ein autonomes Fahrzeug weiß so etwas nicht.
Um smarte Maschinen zu bauen, die über Alltagswissen verfügen, reichen Deep-Learning-Verfahren nicht aus. Sie müssen mit anderen Methoden des Erwerbs und der Verarbeitung von Wissen kombiniert werden – eine große Herausforderung für die Forschung. Und trotz aller Meldungen, dass Computer bereits im Stil von Rembrandt, Kandinsky oder van Gogh malen können: Wirklich kreativ sind sie damit noch lange nicht.
No comments:
Post a Comment