Highlight

Những điều thú vị khi dùng Trí tuệ nhân tạo của Viettel

Những người dùng Internet tại Việt Nam thường lấy “chị Google” ra để… giải trí. Khi “chị” đọc văn bản hay chỉ đường cho người tham gia gi...

Saturday, October 8, 2016

Nghiên cứu phát triển bộ nhớ nhân tạo

Các nhà nghiên cứu của IBM đang phát triển một mô hình bộ nhớ ứng dụng thuật toán, là cơ sở để tạo ra các siêu máy tính có khả năng hoạt động như não người.

TIN LIÊN QUAN
nghien cuu phat trien bo nho nhan taoSắp có tổ chức phi lợi nhuận quốc tế về trí tuệ nhân tạo
nghien cuu phat trien bo nho nhan taoRobot thâm nhập sâu vào cuộc sống
Một nhóm các nhà khoa học thuộc Tập đoàn Máy tính IBM năm 2009 đã thành công trong việc tạo ra bộ não nhân tạo lớn nhất khi đó, trong đó các thiết bị vi tính được ví như các tế bào hình thành nên vỏ não. Bộ não nhân tạo này chỉ to tương đương với bộ não con mèo, nhưng có chứa đến 1 tỷ tế bào thần kinh được kết nối bởi 10 nghìn tỷ khớp thần kinh, theo IBM.
Dựa trên bộ não nhân tạo được tạo ra năm 2009, các nhà nghiên cứu của IBM đã phát triển bộ não nhân tạo này có kích thước lớn hơn, lập bản đồ các con đường truyền tín hiệu thần kinh, và càng ngày càng tiến gần hơn tới một mô hình mô phỏng chính xác bộ não con người.
Tuy nhiên, để vận hành được bộ não nhân tạo với kích thước lớn như thế sẽ tốn kém chi phí khoảng 1 tỷ đô la Mỹ mỗi năm, đây chính là vướng mắc lớn nhất.
Vấn đề nữa được đặt ra là việc lý giải tại sao não người lại hoạt động được với cường độ lớn nhưng lại tiêu tốn rất ít năng lượng. Và nếu lý giải được điều đó, chắc chắn một hệ thống máy tính tinh vi như não người sẽ ra đời.
nghien cuu phat trien bo nho nhan tao
Một chiếc máy tính có khả năng tư duy như bộ não người là mục tiêu của các nhà thiết kế. (Nguồn: The Atlantic)
Theo ông Stefano Fusi, một nhà khoa học về lý thuyết thần kinh tại Viện Zuckerman của trường Đại học Columbia (Mỹ), đây vẫn luôn là điều bí ẩn mà phải rất lâu nữa con người mới tìm được câu trả lời.
Gần đây, ông Fusi và đồng nghiệp Marcus Benna cũng đã tạo ra được mô hình toán học mô phỏng cách thức não người xử l‎ý và lưu trữ các thông tin cũ và mới, từ đó minh họa cách thức các khớp thần kinh của não người đồng thời tạo ra các k‎ý ức mới trong khi vẫn duy trì được các ký ức cũ. Nhờ cách thức này mà các ký ức cũ giúp làm giảm sự mai một của các ký ức mới hơn.  
Mô hình của họ cho thấy rằng, qua thời gian, khi một người lưu trữ đủ các ký ức dài hạn và tích lũy đủ kiến thức, bộ nhớ trong não người đó sẽ trở nên ổn định hơn, tuy nhiên sự linh hoạt sẽ biến mất. Điều đó lý giải tại sao trẻ em thường học nhanh hơn người lớn, là bởi vì bộ não của trẻ em có sự linh hoạt rất lớn, trong khi người trưởng thành rất khó nhồi nhét thêm được những điều mới, ví dụ như ngoại ngữ.
Mô hình mới của Fusi và Marcus Benna được xây dựng dựa trên cách thức hoạt động thực tế của não bộ, mô phỏng chính xác sự linh hoạt của các khớp thần kinh qua thời gian – và cách thức mà các ký ức cũ tác động đến việc lưu trữ các ký ức mới, theo đó, nếu kết hợp được tất cả các biến số khác nhau trong mô hình này lại thì chúng ta có thể kéo dài được tuổi thọ ký ức mà không làm tác động đến năng lực ban đầu của bộ nhớ.
Phát hiện trên đây đã thôi thúc họ khám phá nhằm mô phỏng được các hệ thống sinh học theo chiều hướng tinh vi hơn, chính xác hơn, đặt ra nền tảng ban đầu cho ngành khoa học thần kinh.
Ông Fusi cho biết, sự mô phỏng đó sẽ là cơ sở để phát triển được một hệ thống phần cứng mang tính chất thần kinh nhân tạo, được điều khiển bởi các máy tính siêu nhỏ nhưng siêu mạnh.
Công nghệ não bộ nếu tích hợp được vào trong điện thoại di động thì khi lái xe, tất cả những gì bạn phải làm chỉ là ngồi quan sát, mọi thao tác lái xe đều được thực hiện một cách chính xác đúng như tư duy của bạn vậy – ông Fusi cho biết.
nghien cuu phat trien bo nho nhan tao
Gần đây, cả thế giới xôn xao trước một trận đấu lịch sử giữa con người và máy móc. Trí thông minh nhân tạo (AI) ...
nghien cuu phat trien bo nho nhan tao
Người khiếm thị sử dụng Facebook sẽ “nghe được” chú thích của các tấm ảnh được bạn bè họ đăng lên mạng xã hội này.
nghien cuu phat trien bo nho nhan tao
Các nhà nghiên cứu trí tuệ nhân tạo (AI) của Google vừa nêu ra những vấn đề quan trọng để sử dụng robot một cách ...
(theo The Atlantic)

Wie IBM Watson in Unternehmen eingesetzt werden kann

Künstliche Intelligenz kann auch den Alltag in kleinen Unternehmen erleichtern. Die futurezone sprach mit Barbara Koch über Vorteile und Bedenken.



„Wenn man von IBM Watson hört , denken viele an den Supercomputer, der beim Jeopardy gewonnen hat, oder der in der Medizin eingesetzt werden kann, um Radiologen bei der Krebs-Diagnose zu helfen. Aber Watson kann auch kleine Alltagsprobleme lösen“, erzählt Barbara Koch, Social Communication Lead bei IBM Deutschland, im futurezone-Gespräch. Koch war anlässlich des IBM Events „Business Connect“ in Wien zu Gast.

Call-Center und Protokolle

Watson ist eine künstliche Intelligenz, eine Art kognitives Computersystem, das mitlernt, wenn man ihm etwas beibringt.  So könne Watson beispielsweise auch in einem Geschäftsmeeting Protokolle verfassen und bei Aufgaben und To-Dos nachfassen, oder Mitarbeiter in Call Centern unterstützen, in dem die künstliche Intelligenz mithört und im Hintergrund die richtige Lösung für ein Problem sucht, so die Expertin.
Das kognitive Computersystem lässt sich vielfältig einsetzen und könne laut Koch auch von kleinen und mittelständischen Firmen eingesetzt werden. Weltweit kommt es bei mehr als 6000 Kunden zum Einsatz – von Hotels, die mit Watson-Robotern ihren Gästen Restaurant-Tipps geben, bis zu Supermärkten, die einen digitalen Shopping-Assistenten anbieten, der etwa für Weihnachtsgeschenke personalisierte Tipps gibt.

Start-ups  und Sprache-zu-Text

„Wir arbeiten auch mit Start-ups zusammen, die keine großen Investitionen im Vorfeld tätigen können. Da wird dann pro Abfrage abgerechnet“, erklärt Koch. Die kognitive Softwarelösung Watson lässt sich via Programmierschnittstelle relativ einfach in eine Software-Umgebung integrieren. „Eine kognitive App zu programmieren ist nicht so schwer“, so Koch.
Barbara Koch IBM…
Foto: /©Pepo Schuster, austrofocus.at
Am englischsprachigen Markt kommt Watson auch häufig als „Sprache-zu-Text“-Programm zum Einsatz. „Watson lässt sich auf bestimmte Schlüsselwörter trainieren und so kann er dann in Unternehmen bestimmten Aufgaben zuordnen und die Spracheigenschaften jedes Unternehmens erlernen“, sagt Koch. Unternehmen, die etwa nicht wollen, dass ihre Firmengeheimnisse in die Cloud transferiert werden, können das intelligente Computersystem auch offline nutzen und in ihre eigene Systemarchitektur integrieren.
„Man muss Watson immer was beibringen, weil jede Firma und jedes Land hat seine Eigenheiten.“ Demnächst soll Watson auch Deutsch sprechen und verstehen. „Die Sprache-zu-Text-Funktion funktioniert auf dem US-Markt schon sehr gut. Watson versteht auch Dialekte aus US-Bundesstaaten, die nicht alltäglich sind“, sagt Koch auf die Frage, ob die Sprachprogrammierung schon gut funktionieren würde. Bei der „Business Connect“ konnte Watson, der in Form eines NAO-Roboters anwesend war, mit der Expertin bereits problemlos kommunizieren.

Datenschutzbedenken

Auf die Frage, was die meisten Unternehmen im deutschsprachigen Raum als Bedenken äußern, sagte Koch: „Es kommt immer wieder die Frage, ob Watson datenschutzkonform eingesetzt werden kann. Außerdem stellen viele die Frage nach der Datensicherheit.“ Beides sei problemlos möglich.
„Man kann Watson als unternehmensinterne Lösung nutzen, ohne dass die Daten in die Cloud von IBM wandern müssen.“ Zudem greife Watson, wenn er etwa personalisierte Anfragen beantworten müsse, nur auf öffentliche Daten wie z.B. Tweets einer Person zurück, aber nicht auf Daten, die „privat“ verfügbar seien. „Watson muss in so einem Fall wie ein echter Concierge einfach mehr nachfragen, bevor er eine Empfehlung abgibt.“

Angst vor übermächtigen Robotern

Vorhanden ist auch bei einigen eine Grundangst vor der Veränderung durch künstliche Intelligenz, die künftig die Entscheidung anstelle von Menschen trifft. „Was Watson von anderen Systemen mit künstlicher Intelligenz unterscheidet ist, dass er keine Entscheidungen trifft, sondern nur Empfehlungen abgibt. Er ersetzt den Menschen nicht, sondern unterstützt sie bei ihrer Entscheidungsfindung.“
Watson sei in der Lage, auch offenzulegen, wie er zu einer bestimmten Entscheidung gekommen sei. „Je nach Wunsch des Unternehmens kann man das auch so programmieren, dass das mitangezeigt wird.“   Die Angst, dass durch Watson Jobs angebaut werden, kann Koch freilich nicht aus dem Weg räumen. „Es werden aber auch neue Jobs generiert, wie die der Datenanalysten“, so Koch. IBM selbst rüstet gerade in München auf. Am neuen Standort sollen bis zu 1000 Mitarbeiter eingestellt werden.

Kommentar zu KI und digitalen Assistenten: Mehr Statistik als Intelligenz


Digitale Assistenten mit künstlicher Intelligenz sollen bald wie Menschen mit uns sprechen. Von richtiger Intelligenz ist in der zugrunde liegenden Technik aber wenig zu sehen, findet c't-Redakteur Johannes Merkert.
"Das Zeitalter der Künstlichen Intelligenz", so heißt ein Buch aus dem Jahr 1993 auf meinem Schreibtisch. Damals stand die KI kurz vor ihrem Durchbruch. Genau wie jetzt.

Zum Thema siehe auch:

Uns Menschen reizt die Vorstellung intelligente Maschinen zu erschaffen, die wie wir bewusst denken. Aber Chatbots, digitale Assistenten und smarte Lautsprecher können nicht denken. Sie konvertieren im Idealfall korrekt was wir sagen in interne Datenformate und berechnen mit diesen Daten nützliche Antworten, die sie sogar aussprechen. Das kommt uns menschlich vor, weil Menschen es erschaffen haben, um menschlich zu wirken. Wer aber mehr als raffinierte Statistiken von seinem Assistenten erwartet, wird unweigerlich enttäuscht.

Aktueller Hype um KI

Die technische Basis des aktuellen Hypes bilden neuronale Netze. Die haben ihren Namen zwar von den Zellen im Gehirn, bilden die Funktion echter Nervenzellen aber nur sehr rudimentär ab. Durch die grobe Vereinfachung lassen sie sich effizient berechnen – aber nur, wenn man sie ordentlich übereinanderschichtet, statt die komplexe Struktur des Gehirns nachzuahmen.

Ein Kommentar von Johannes Merkert

Ein Kommentar von Johannes Merkert
Johannes Merkert schreibt über Programmieren, bastelt Programme, die selbst schreiben, und programmiert Basteleien, um darüber zu schreiben. Seine Projekte sind manchmal nützlich, gelegentlich lehrreich, aber immer irgendwie cyber.
    Was dabei herauskommt, ist ein Algorithmus, der die ungemein praktische Eigenschaft hat, auf fast beliebigen Datensätzen zu funktionieren. Voraussetzung sind nur große Datensätze und genug Rechenleistung um Tausende von Faktoren so zu wählen, damit das Netz aus den Daten die richtigen Ausgaben erzeugt.
    Da die Faktoren zu den Trainingsdaten passen sollen, entspricht das Training eines neuronalen Netzes der automatisierten Erstellung komplexer Statistiken. Das ist ein mächtiges Werkzeug um verschiedenste Probleme zu lösen. Beim menschlichen Denken passiert aber weit mehr: Menschen können Dutzende Objekte erkennen und in einen Zusammenhang setzen, Erinnerungen assoziieren, aus den Beobachtungen über die Welt und ihrem Wissen schlussfolgern und allein in ihrem Geist die Zukunft simulieren.

    RS statt KI

    Für all diese Fähigkeiten fehlen aktuellen neuronalen Netzen die Voraussetzungen. Deswegen sollte die Technik hinter den Assistenten statt künstliche Intelligenz (KI) lieber raffinierte Statistik (RS) heißen.
    Der aktuelle Hype macht neuronale Netze zum Milliardengeschäft. Auf lange Sicht ist das die beste Voraussetzung, um RS-Algorithmen irgendwann mal wirklich Intelligenz beizubringen. Vom RS-Assistenten im Pixel-Smartphone sollten Sie aber vorerst keine Intelligenz erwarten.
    Die Marketing-Abteilung wird das Gegenteil behaupten. Immerhin klingt "Intelligenz" besser als "Statistik". Bis aber ein Smartphone den Turing-Test besteht, wird es noch einige Jahre dauern. (jk) 

    Braucht künstliche Intelligenz einen Körper?

    Braucht künstliche Intelligenz einen Körper? Wer bin ich? Habe ich einen freien Willen? Wie trifft das Gehirn Entscheidungen? Diese und viele andere zentrale Fragen der Neurowissenschaft sind auch für die Entwicklung künstlich-intelligenter Systeme wesentlich.  

    Man könnte auch sagen, dass mit dem Erscheinen künstlich-intelligenter Systeme in der IT zunehmend menschliche Aspekte ins Spiel kommen. Nicht von ungefähr kann man daher bereits seit geraumer Zeit zum Beispiel an der Technischen Universität Berlin den Masterstudiengang "Computational Neuroscience" belegen. Flapsig formuliert geht es dabei um die sehr menschliche Frage: "Wer bin ich, und wenn ja wie viele?"
    Mit dieser Frage hat Richard David Precht vor zehn Jahren einen nachhaltigen Bestseller gelandet. Es sind philosophische Kernfragen wie "Was ist Wahrheit?", "Woher weiß ich, wer ich bin?" oder "Warum soll ich gut sein?", die er mit Aussagen der großen Denker der Menschheitsgeschichte beantwortet. Heutzutage sind es die Neurowissenschaften beziehungsweise ihre Unterabteilungen Neuroinformatik, Neurophilosophie und Neuroethik, die diese Fragen aufs Neue beantworten sollen - mit ganz praktischen Folgen, denn künstlich intelligente Systeme wie Watson sind bereits heute prinzipiell einsatzfähig.
    Ganz allgemein untersuchen die Neurowissenschaften Struktur und Funktion von Nervensystemen. Die Hirnforschung konzentriert sich im Speziellen auf die Erforschung des Zentralnervensystems von Mensch und Säugetieren. "Im Mittelpunkt steht dabei immer die Frage: Wer bin ich?", so Anil Ananthaswamy, Consultant, New Scientist Magazine, in seiner Keynote auf dem Third Annual IBM Research Cognitive Colloquium. "Je besser wir diese Frage beantworten können, desto eher wird es uns gelingen, künstlich intelligente Wesen zu erschaffen."
    Noch viel mehr aber steht im Fall der künstlichen Intelligenz die Frage im Raum, wie man sich seiner selbst bewusst sein kann - ohne Körper. Offenkundig ist der Körper wesentlich an der Identitätsbildung beteiligt. Ananthaswamy berichtete auf dem Colloquium von den neusten Forschungen zu dem Thema. Er hat sich intensiv mit Zuständen wie Alzheimer, Schizophrenie, Autismus, Epilepsie oder auch demCotard Syndrom beschäftigt. Letzteres ist ein Zustand, in dem der Glauben vorherrscht, dass man nicht existiert. Der Betroffene wähnt sich selbst bereits tot. Weniger bizarr, aber dennoch dramatisch sind die Folgen der Alzheimer-Krankheit. An dieser Krankheit leidende Menschen vergessen bekanntlich nach und nach ihre Geschichte - verblüffender Weise gibt es da aber bis zuletzt ein "Ich". Auch ohne unser Wissen und unsere Erfahrungen gibt es also immer noch ein Selbst. Ein Mensch mit Alzheimer empfindet Schmerzen und Hunger. Aber wer ist das, der dies erleidet? Darauf kann die Wissenschaft keine Antwort geben. Das Gehirn hilft dem Körper zu überleben. Dafür entwickelt es ein Modell des Körpers, so Ananthaswamy. Es gibt viele Karten und Modelle des Körpers. Sie sollten deckungsgleich mit dem physischen Körper sein, aber manchmal geht etwas schief, so etwa im Fall von Phantom-Gliedmaßen. Das Körpermodell denkt, dass man Schmerzen oder Gefühle in einem Bein verspüren sollte, obwohl es nicht vorhanden ist - und in der Folge hat der Betreffende tatsächlich Schmerzen oder Empfindungen in einem Körperteil, das nicht mehr existiert.
    Auch außerkörperliche Erfahrungen sind faszinierende Phänomene. Dazu gehört der Doppelgänger-Effekt, bei dem man eine Kopie von sich selbst wahrnimmt, laut Sigmund Freud der "verdrängte Anteil im Ich". Darüber hinaus wird immer wieder von dem Gefühl berichtet, dass man seinen Körper verlässt und auf sich selbst herunterblickt. Nach Ansicht der Wissenschaft ist da bei der Verarbeitung im Gehirn etwas schief gegangen. Festzuhalten bleibt aber: Manchmal liegt das "Ich" außerhalb des geometrischen Volumens, die den Körper ausmacht.
    Mit diesen Beispielen reißt Ananthaswamy Fragen nur an, die für die Entwicklung künstlich intelligenter Systeme wesentlich sind. Noch gibt es keine befriedigenden Antworten auf die Fragen nach dem Ich. Doch um wirklich intelligente künstliche Systeme zu erschaffen, müssen diese Antworten gefunden werden. Darauf konnten sich auch die Teilnehmer an dieser Paneldiskussion einigen:

    Thursday, October 6, 2016

    Machine learning in a quantum world



    From self-driving cars and IBM’s Watson to chess engines and AlphaGo(link is external), there is no shortage of news about machine learning, the field of artificial intelligence that studies how to make computers that can learn. Recently, parallel to these advances, scientists have started to ask how quantum devices and techniques might aid machine learning in the future.
    To date, much research in the emerging field of quantum machine learning has attacked choke points in ordinary machine learning tasks, focusing, for example, on how to use quantum computers to speed up image recognition. But Vedran Dunjko and Hans Briegel at the University of Innsbruck, in collaboration with JQI Fellow Jake Taylor, have taken a broader view. Rather than focusing on speeding up subroutines for specific tasks, the researchers have introduced an approach to quantum machine learning that unifies much of the prior work and extends it to problems that received little attention before. They also showed how to increase learning performance for a large group of problems. The research has been accepted for publication in Physical Review Letters.
    Many machine learning problems involve an agent—the program or device that is trying to learn—and an environment—the world that an agent explores as it learns. The machine learning community has paid particular attention to reinforcement learning, in which an agent interacts with its environment and learns how to behave through rewards and punishments. But such problems have not been widely studied when the agent and the environment obey the rules of quantum physics.
    The new work provides a Rosetta Stone that translates the language of reinforcement learning to the quantum realm. It tackles sticky questions like what it means for a quantum agent to learn and how the history of a quantum agent’s interaction with its environment can be captured in a meaningful way. It also shows how a standard algorithm in the quantum toolkit can help agents learn faster in settings where an early stroke of luck can make a big difference—like when learning how to navigate a maze. 
    Future research could investigate whether a quantum computer, with the added help of a quantum agent, could learn about its own noisy environment fast enough to change the way it reacts to errors. The work may also shed light on one of the deepest questions in physics: How does the everyday world arise from interactions that are, at the microscopic level, described by quantum mechanics? Studying how quantum agents interact with their quantum environments could add to the understanding of this lingering mystery.

    Google’s Go language ventures into machine learning

    Google’s Go language ventures into machine learning

    A small but growing number of libraries written entirely in Go are stepping up to show that Google's language can do machine learning, too


    Machine learning developers who want to use Google's Go language as their development platform have a small but growing number of projects to choose from.
    Rather than call out to libraries written in other languages, chiefly C/C++, developers can work with machine learning libraries written directly in Go. Existing machine learning libraries in other languages have a far larger culture of users, but there's clearly an interest in having Go toolkits that take advantage of the language's conveniences.
    Goml bills itself as "Golang machine learning, on the wire," meaning it "includes many models which let you learn in an online, reactive manner by passing data to streams held on channels," according to the developers. The project stands out by emphasizing its possibilities as a component for other applications, made easier by "comprehensive tests, extensive documentation, and clean, expressive, modular source code." If all you need is something for basic binary classification problems (is this spam or not?), a smaller library named Hector will fit the bill.
    The newest of the bunch, and in some ways most intriguing, is Gorgonia. This machine learning library, written entirely in Go, "provides the necessary primitives to dynamically build neural networks and assorted machine learning algorithms," according to the author, a Sydney, Australia-based developer who goes by the nick "chewxy."

    One key motivation for why machine learning projects might be worth creating in Go was raised by Gorgonia's creator in the Hacker News thread where he was promoting the project: "Part of the reason why I wrote Gorgonia was because I spent waay [sic] too long trying to deploy Theano on the cloud (this was circa 2 years ago)."The key adjective is "dynamic." Like the machine learning library Theano before it, Gorgonia lets you describe the behavior of a neural network in fairly high-level terms with a set of library primitives. This approach, also used by the TensorFlow library, frees the developer from having to write algorithms by hand and provides pieces that can be reused across different projects.
    A purely Go solution means fewer pieces from different languages that would have to be packaged and deployed together. But the main advantage of having these libraries in Go isn't deployment, but developer comfort. Prospective machine learning developers now have that many more languages to be productive in -- and it means existing Go developers who want to become machine learning pros can get a leg up in a domain with which they're already comfortable.
    http://www.infoworld.com/

    Google is going to win the next major battle in computing

    Over four years ago, Google launched a bold evolution of search called Google Now. Google Now wasn’t the search you were used to. Instead of a list of results to your queries, you got the single answer you were looking for.
    How old is Barack Obama? What time is the Super Bowl? When was the last time the Mets won the World Series?
    You always got the answer.
    And even better, Google Now was proactive, bringing you the information you wanted before you even knew you wanted it. Your flight is delayed. Traffic is bad, so you’d better leave a few minutes early if you want to make it to work on time. Your favorite team lost again.
    Google Now felt like the future at a time when Apple was still trying to get Siri to understand you when you asked it 2+2.
    On Tuesday, Google kicked it into high gear.
    At its big product launch event, Google Now officially became super-charged with Google Assistant, the next evolution of its AI.
    We got an early look at Assistant in Allo, Google’s new messaging app that launched a few weeks ago, but Tuesday’s event showed us Google’s true vision for its new AI helper. Assistant will be everywhere, helping you out no matter what gadget or app you’re using.
    And according to Google CEO Sundar Pichai, it’ll keep getting smarter the more you use it, to the point that it’ll be so customized to the user that there will be a unique Google Assistant for everyone.
    It may not be a new idea — all the major tech companies from Microsoft to Amazon to Facebook have their own AI assistants — but it is a category Google is uniquely qualified to dominate.
    google assistant in allo chat appGoogle Assistant in the Allo chat app. Skye Gould/Business Insider
    After all these years, Google continues to embarrass the competition. While Assistant can tap into the world’s knowledge, Siri struggles to answer even the simplest queries. I recently asked both AIs when Tuesday’s vice presidential debates start. Google Assistant told me 9 p.m. Eastern. Siri gave me a list of search results about the election from Bing. That’s just one example, but if you use Google Assistant often enough, you realize just how far ahead it is.
    Then there’s the new Google Home speaker, a competitor to Amazon’s surprise hit Echo speaker. While the Echo is a great device, Google’s demo of Home already felt ahead of what Amazon has pulled off so far. Of course, it can play music and control smart appliances. But it also intelligently answers questions better than Amazon’s Alexa. And overall, Echo can’t do half of the things we saw Home do on Tuesday.
    Google has literally built a multibillion dollar business on its ability to answer questions. (Pichai said Tuesday Google’s Knowledge Graph is loaded with a growing library of 70 billion facts.) Now it’s focusing that expertise on AI that will be with you no matter where you are. Your home. Your car. Your phone. And soon, everywhere else.
    The AI assistant race is the next major battle in personal computing, and Assistant is the first step towards that ever-present, voice-controlled computer. It already wipes the floor with the competition, and it’s tough to see how anyone else can keep up.





  • Monday, October 3, 2016

    Der Mensch muss den Computer zähmen

    Werden Computer eines Tages allwissend? (Bild: Keystone)

    Geräte machen uns gefügig. Es gibt nur einen Ausweg: Wir müssen dafür sorgen, dass die Computer sich uns anpassen, schreibt unser Essayist.

    In der Berichterstattung über künstliche Intelligenz überwiegen meist die Extreme. Es werden uns einerseits Aussichten auf ein paradiesisches Zeitalter ausgemalt, in dem uns smarte Maschinen das Leben in jeder Hinsicht angenehmer gestalten.


    Andererseits warnen apokalyptische Visionen davor, dass superintelligente Maschinen sich selbständig machen, die Herrschaft übernehmen und wir bestenfalls noch ein Sklavendasein fristen würden. Beide Szenarien sind entweder überspannt oder albern. Gibt es einen Weg zwischen ihnen hindurch?
    Die Frage «Glaubst du an künstliche Intelligenz?» klingt in gewissen Techno-Kreisen schon fast wie «Glaubst du an Gott?». Und wie in der Religion gibt es auch hier Gläubige und Ungläubige.
    Erstere glauben an die sogenannte Singularität. Damit ist ein Entwicklungsstadium der Maschinen gemeint, in dem deren Fähigkeiten jene des Menschen überholt haben werden und sich in einer Art von postbiologischer Evolution weiterentwickeln. Der Zeitpunkt des Eintretens diesen Stadiums wird von Gläubigen – nennen wir sie der Einfachheit halber Singularisten – auf Mitte bis Ende dieses Jahrhunderts geschätzt.

    Verstiegene Prognosen zu «Superintelligenzen»

    Die Ungläubigen: Das sind, nun ja, die Anti-Singularisten. Sie versuchen den Beweis zu führen, dass der Glaube an eine «echte» künstliche Intelligenz wie der Glaube an einen Gott Illusion sei. Die Desillusionierungsstrategie folgt dabei meist einem Standardkurs.
    Künstliche Intelligenz – das sind bloss Computer, also Schaltkreise und Algorithmen. Und Computer sind Turingmaschinen, die Zeichen syntaktisch manipulieren. Aus Syntax allein entsteht keine Semantik, das heisst, Maschinen können nichts verstehen. Punkt. Siri versteht mich nicht, sondern tut nur so, als ob.
    Singularisten verfügen durchaus über handfeste Argumente. Aber wie in allen Glaubenssystemen werden oft Fakten, Vermutungen und überzogene Analogien zu einer unwiderlegbaren Konstruktion verleimt. Zum Beispiel stellt das sogenannte Mooresche Gesetz fest, dass sich die Zahl der Transistoren in integrierten Schaltkreisen bis anhin etwa alle zwei Jahre verdoppelt hat: eine empirisch bestätigte Regularität, gewiss.
    Die Singularisten machen aber aus ihr eine Devotionalie. Diese dient dazu, die verstiegensten Prognosen über mögliche «Superintelligenzen» mit gut- oder bösartigen Absichten aufzustellen. Aus der Mooreschen Regularität lässt sich durchaus eine stetig vergrösserte Rechenkapazität von Computern extrapolieren.
    Computer übertreffen uns schon heute in Quantität und Geschwindigkeit der Datenverarbeitung. Aber ob, wie und inwieweit aus komplexen Schaltkreisen «Intelligenz», oder sogar «gute oder böse Absichten» entstehen können, ist eine bis heute nicht beantwortete Frage; eine Frage notabene, von der ohnehin nicht klar ist, ob sie so überhaupt richtig gestellt ist.
    Das kümmert die Singularisten allerdings wenig, weil sie «im Prinzip» davon überzeugt sind, dass sich Maschinen ihrer selbst bewusst werden, selbst wenn sie dieses «Prinzip» nicht kennen – das ist der typische Habitus des Glaubens.

    Auf der andern Seite müssen die Anti-Singularisten regelmässig zur Kenntnis nehmen, dass das vermeintlich Defizitäre der Maschine nun doch kein Defizit ist. So galt der Mensch lange als unschlagbar im Schach, bis die ersten Programme ihn besiegten; neuerdings im strategischen Brettspiel Go. Man darf mit einiger Wahrscheinlichkeit annehmen, dass noch weitere Fähigkeiten, die bisher als allein dem Menschen vorbehalten galten, künftig der Maschine zugesprochen werden können.