Highlight

Những điều thú vị khi dùng Trí tuệ nhân tạo của Viettel

Những người dùng Internet tại Việt Nam thường lấy “chị Google” ra để… giải trí. Khi “chị” đọc văn bản hay chỉ đường cho người tham gia gi...

Friday, March 4, 2016

L’intelligence artificielle, mythes et réalités

Lintelligence artificielle fait couler beaucoup d'encre et suscite des avis partagés, entre craintes et fascination. Il est temps de revenir sur son histoire...

cerveau© Nicolas Rougier

Les origines

Lintelligence artificielle, ou IA, est officiellement née en 1956 lors d'une conférence à Dartmouth (USA). Même si les recherches ont de fait commencé dès laprès-guerre (par exemple le « Test de Turing » en 1950), cette conférence est historique en ce quelle a rassemblé en un même lieu presque toutes les figures emblématiques de lIA, notamment John McCarthy, mathématicien, Herbert Simon, théoricien des organisations, Allen Newell, mathématicien, Claude Shannon, père de la théorie de linformation et Marvin Minsky, mathématicien. Ces pionniers rêvaient alors de construire des machines pouvant égaler voire surpasser lintelligence humaine, sur la base des nouveaux moyens de linformatique naissante. Cétait un projet dune ambition folle, puisquà cette époque tout restait à faire. Or, malgré les immenses difficultés qui se trouvaient devant eux, ces chercheurs et beaucoup dautres vont rapidement obtenir des résultats qui feront date dans l'histoire de l'informatique.
Ainsi, dès 1955, Newell et Simon conçoivent un programme (Logic theorist) qui permet de démontrer automatiquement 38 des 52 théorèmes du traité Principia Mathematica d'Alfred North Whitehead et Bertrand Russell (1913). Cest un résultat majeur et extrêmement impressionnant pour lépoque, puisque pour la première fois, une machine est capable de raisonnement. On considère légitimement ce programme comme la toute première intelligence artificielle de lhistoire. Quelques années plus tard, Newell et Simon vont généraliser cette approche et concevoir le GPS — General Problem Solver — qui permet de résoudre nimporte quel type de problème, pour peu que lon puisse le spécifier formellement à la machine. À cette même époque, dautres chercheurs vont défricher les domaines de la traduction automatique, de la robotique, de la théorie des jeux, de la vision, etc. Jusquau milieu des années 1970, lintelligence artificielle est extrêmement prolifique et engendre un nombre considérable de résultats. Mais elle va bientôt être victime de ses promesses originelles qui n'ont pas été tenues. En effet, si des avancées extraordinaires ont été réalisées, les chercheurs sont encore très loin d'avoir résolu le problème général de l'intelligence. Ils se rendent compte qu'ils ont été un peu trop optimistes, à l’exemple de  Marvin Minsky qui affirmait en 1970 que « Dans trois à huit ans nous aurons une machine avec lintelligence générale d'un être humain ordinaire ».  On parle de ce coup d'arrêt comme du premier hiver de lIA. Mais avec larrivée des systèmes experts et la résolution du problème de l'apprentissage dans les perceptrons multi-couches, lIA connaît un second souffle jusquà la fin des années 1990 où, de nouveau, tout sarrête ou presque pour à peu près les mêmes raisons.

Deep Blue vs. Kasparov

Il fallut attendre 1997, pour enfin lire ces quelques lignes dans la presse :
Kasparov mis en échec par Deep Blue. [...] le super-ordinateur d'IBM a vaincu le champion du monde [...] en gagnant dimanche soir la sixième et dernière partie de leur choc. [...] Le grand maître électronique s'impose 3-1/2 à 2-1/2 face au meilleur des humains et devient surtout le premier ordinateur à l'emporter sur un champion du monde dans une rencontre classique.
Avec presque trente ans de retard, la prophétie de Newell et Simon sest réalisée (« dici dix ans un ordinateur sera le champion du monde des échecs », 1958). Les objectifs de l'intelligence artificielle auraient-ils été finalement atteints ? Serions-nous capables de concevoir des machines intelligentes et omnipotentes ? La réponse est non. Sil est effectivement possible aujourd'hui de battre n'importe quel humain aux échecs, il reste impossible, par exemple, de faire jouer un robot au football contre un quelconque adversaire humain. Ce jeu ne peut pourtant prétendre rivaliser en finesse et en intelligence avec le jeu des échecs. Mais comment peut-on battre le champion du monde des échecs et se trouver en même temps incapable de jouer au football ?
Cette situation paradoxale s'explique par la diversité d’interprétation de la notion d'intelligence. En effet, l'intelligence que lon veut prêter à Deep Blue est ici fondée sur le calcul, l'analyse et le raisonnement. Depuis le discours de la méthode de Descartes, le courant de pensée des rationalistes, mené par Descartes, Spinoza et Leibniz, a voulu croire à cette intelligence, une intelligence fondée sur l'esprit et la raison, équivalente à lintelligence humaine. À lopposé, le courant de pensée des empiristes, parmi lesquels Bacon, Locke, Berkeley et Hume, prôna la prise en compte de l'expérience sensible du monde et rejeta l'idée de la connaissance réduite à l'esprit et à la raison.
Si la frontière entre ces deux courants de pensée nest plus aussi franche aujourdhui, lIA n'a pourtant pas su éviter cette séparation. Ainsi,  deux courants de pensée vont coexister plus ou moins pacifiquement dès la naissance de lIA. Un premier courant, symbolique, considère la machine comme un système de manipulation de symboles qui peut être utilisé pour instancier des représentations formelles du monde. Il repose sur la logique, se faisant ainsi l'héritier des rationalistes. Sa philosophie peut se résumer à la volonté de construire un esprit (« making a mind »). Mené par Allen Newell et Herbert Simon, ce courant symbolique stipule que l'intelligence repose sur la notion de symbole. Le deuxième courant, connexionniste, considère en revanche la machine comme un support de la modélisation du cerveau, offrant les capacités nécessaires pour simuler les interactions entre les neurones. Il repose sur le domaine des statistiques et sa philosophie peut se résumer à la volonté de modéliser le cerveau (« modelling the brain »). Ce courant connexionniste, mené entre autres par Frank Rosenblatt, propose une vision numérique du traitement de l'information et s'oppose en cela à l'hypothèse symboliste.
La victoire de Deep Blue sur Kasparov représente le paroxysme de l'approche symbolique. En effet, le jeu d'échecs est un très beau problème de nature symbolique, où il faut en substance déplacer des pièces sur des cases pour atteindre un but précis (échec et mat). La plus grande difficulté est l'explosion combinatoire, lorsque le programme souhaite prédire des séquences de coups. Cependant, grâce à des algorithmes très ingénieux, à la force brute, à la rapidité de calcul et une bibliothèque d'ouvertures bien fournie, Deep Blue a pu prédire plus de coups à l'avance que ce qu'il est humainement possible de faire. Deep Blue est-il intelligent au sens commun du terme ? A priori non, c'est simplement un logiciel qui joue aux échecs et ne fait que cela.

Au-delà de léchec

Certains n'ont pas été réellement surpris par ce résultat. Ainsi Rodney Brooks avait écrit dès 1990 un article au titre un peu curieux, « Les éléphants ne jouent pas aux échecs ». Ce qu'il voulait expliquer alors, c'était que les éléphants ont une certaine intelligence — ils doivent se nourrir, trouver des points d'eau, se reproduire, fuir les prédateurs, etc. — mais n'ont a priori pas besoin de manipuler des symboles abstraits pour le faire. C'est de fait une critique assez sévère du courant symbolique de l'IA, que l'on désigne aussi par le terme GOFAI (Good Old Fashion Artificial Intelligence, la bonne vieille intelligence artificielle). Or, nous savons aujourd'hui que ce courant de l'IA ne pourra pas résoudre le problème de l'intelligence générale à cause du problème de l'ancrage du symbole notamment. En effet, comment mettre en relation les symboles avec les objets qu’ils désignent ? Comment faire le lien entre un verre, le mot, et un verre, l’objet physique que je vois posé sur la table ? Autant cela est évident pour nous humains, autant cela reste un défi pour une machine qui n'a jamais soif et qui n'a pas de corps pour manipuler l'objet. C'est pourquoi l'idée de la cognition incarnée a émergé dès les années 1990, en mettant en avant le rôle du corps dans la cognition et son intelligence propre.
Aujourd'hui, en 2015, l'Intelligence Artificielle connaît un second souffle, notamment avec l'avénement du big data  et une puissance de calcul inégalée jusqu'alors. Ainsi, la redécouverte récente de l’apprentissage profond ou deep learning, qui date des années 1980, a permis de nouvelles avancées en traitement de données et reconnaissance d'images. Cet algorithme d'apprentissage est un réseau de neurones artificiel qui permet d'apprendre à partir d'exemples. De fait, la différence fondamentale entre les années 1980 et les années 2010 se situe au niveau de la puissance de calcul mise en jeu et de la masse de données qui a atteint des proportions gargantuesques. Imaginez un peu que plus d'un milliard de personnes postent leur photo sur Facebook alors qu'il y a trente ans, les chercheurs se démenaient pour constituer des échantillons de quelques dizaines de portraits. De nos jours, ils peuvent donc avoir accès à des centaines de millions de visages. C'est ainsi que Facebook possède un algorithme de reconnaissance faciale (DeepFace) qui égale statistiquement les performances humaines. Est-il besoin de préciser qu'on ne parle pas ici d'intelligence, mais bien d'algorithmes et d'apprentissage machine sur des gros volumes de données (big data) ?
Ces algorithmes restent pour le moment incapables de déchiffrer la majorité des captcha, ces mots écrits de façon bizarre qu'il faut recopier pour démontrer que l'on est humain. Néanmoins, on peut d'ores et déjà se demander quels sont les risques liés à la reconnaissance faciale de tout un chacun, que ce soit en ligne ou dans la rue. Imaginez simplement les possibilités d'un drone militaire équipé d'une caméra haute résolution à la recherche de sa cible dans une foule…
Dans le même temps, les voitures entièrement autonomes deviennent une réalité (Google), la traduction automatique à la volée devrait bientôt être opérationnelle (Skype) et les joueurs de poker ont du souci à se faire (Tartanian).
Comme le montrent ces exemples, les chercheurs en intelligence artificielle ne cherchent plus, comme aux débuts de l’IA, à créer une machine intelligente ou omnipotente. Ils cherchent avant tout à étudier des situations bien identifiées, résoudre des problèmes ouverts et répondre à des questions précises.

Faut-il avoir peur de lIntelligence Artificielle ?

Diverses interventions dans les médias soulignent les avancées extraordinaires en intelligence artificielle et ses dangers potentiels. S'il existe certainement des dangers liés à ce domaine comme à tout progrès scientifique, les vrais risques  de l’IA sont peut-être masqués par la crainte que des machines prennent le pouvoir. Faut-il s’effrayer de l’avènement futur d’une super IA ? Que signifie la notion de singularité ?
Le concept de singularité a été introduit par Vernon Vinge dans les années 1990, au travers d'unarticle assez court qui commencait par cette phrase provocante :
Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended.
(Dans 30 ans, nous disposerons de la technologie adéquate pour créer une super-intelligence. Peu de temps après, l'humanité s'éteindra.)
homo disparitus700
Illustration de la couverture du livre Homo Disparitus © François Baranger.
Si l'on s'en tenait à la prédiction de Vernon Vinge, nous pourrions en déduire qu'il nous reste à peu près cinq années à vivre et qu'ensuite nous disparaîtrions. Or, bien que le scénario de la disparition de l'Homme soit fascinant à bien des égards (voir notamment le livre d'Alan Weismann, The World Without Us ou Homo Disparitus en français), force est de constater que nous sommes encore très loin de ces conclusions dramatiques car il n'y a pas aujourd'hui de machine « super-intelligente ».
Pourtant, ce concept de singularité peut séduire car il repose sur une idée somme toute assez simple : si l'on construisait des ordinateurs de plus en plus « intelligents », alors ceux-ci deviendraient plus intelligents que leurs concepteurs et pourraient à leur tour concevoir de nouveaux ordinateurs plus intelligents qu'eux-mêmes. Le moment précis où l'Homme construirait cet ordinateur plus intelligent que lui-même est ce que Vernor Vinge désigne par singularité : puisque les ordinateurs sont beaucoup plus rapides que nous, l'accroissement de l'intelligence se ferait alors de façon exponentielle.
Avec la création en 2008 de l'université de la singularité par Peter Diamandis et Ray Kurzweil, ce concept a été remis au goût du jour, bien qu’il soit bancal.
Pour interpréter les prédictions de Vernor Vinge sur la singularité, il conviendrait de lui faire préciser sa pensée, afin de savoir ce qu'il considère être une intelligence surhumaine. Par exemple, cette intelligence devrait-elle parler ? avoir des buts propres ? avoir un corps ? avoir des opinions ? des amis ? des émotions ? des rêves ? etc. Et d'ailleurs, comment pourrions-nous reconnaître la singularité, c'est-à-dire, comment pourrions-nous savoir que la machine que nous venons de créer est intelligente ?
Au final, l'intelligence artificielle est un champ de recherche extrêmement fécond, qui a enfanté à son tour de très nombreux champs de recherche, que ce soit en reconnaissance de la parole, en algorithmes pour la génétique, en fouille de données, en vision par ordinateur, en réseaux de neurones artificiels, en apprentissage machine, etc. L'IA « canal historique » a permis de concevoir de très nombreux algorithmes que l'on retrouve aujourd'hui dans un très grand nombre d’applications grand public. Et si aujourd'hui on ne les appelle plus IA, ils en sont pourtant les héritiers directs. Cest dailleurs là une des malédictions de l'IA, car dès quun algorithme fonctionne, on a tendance à lui retirer sa filiation. En effet, si une machine sait le faire, cest quil ne s’agit plus d’intelligence !

No comments:

Post a Comment