Révolution quantique (3/5): l’arme fatale de l’informatique future

Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite, et IBM, Google et Microsoft sont lancées dans une « course aux armements » de l’intelligence artificielle. Mais le projet de l’ordinateur quantique n’est pas seulement technologique, il engage une mutation culturelle.

Michel de Pracontal

3 août 2016 à 08h48

ConstruireConstruire des ordinateurs qui puissent voir, écouter, dialoguer. Développer des moteurs de recherche intelligents, qui comprennent la demande de l’utilisateur et ne l’encombrent pas de réponses hors sujet. Élaborer des systèmes experts capables de traduire des langues, d’analyser des séquences génétiques, d’aider au diagnostic des maladies. Concevoir des programmes de robotique qui pilotent des voitures autonomes, sans conducteur et sans danger.

Telles sont quelques-unes des promesses de l’intelligence artificielle quantique, le nouvel horizon technologique de Google, Microsoft ou IBM. Leur projet : combiner la puissance des machines quantiques avec l’astuce des programmes intelligents, comme Alphago, le joueur de go artificiel de Google, qui a récemment flanqué une rouste inattendue au Coréen Lee Sedol, l’un des plus grands champions actuels, en faisant preuve de qualités de jeu remarquables (lire nos articles ici et ).

Pour les géants de la high-tech, l’intelligence artificielle quantique est la nouvelle arme fatale. Elle est à l’intelligence artificielle classique ce que la bombe H est à la bombe A. Le Washington Post parle même de « course aux armements de l’intelligence artificielle ». Elle a été lancée par Google et IBM en mai dernier. Google a créé, en association avec la Nasa, le Quantum Artificial Intelligence Laboratory (Quail), laboratoire d’intelligence artificielle qui exploite un ordinateur quantique construit par la société canadienne D-Wave (voir l’épisode précédent).

IBM, qui mène des recherches sur le domaine depuis trente-cinq ans, a inauguré une plateforme ouverte au public, accessible à tout ordinateur et permettant à des utilisateurs non professionnels d’exécuter des algorithmes et de pratiquer des expériences sur un processeur quantique. La plateforme, appelée IBM Quantum Experience, se veut une base d’exploration des applications potentielles des futurs ordinateurs quantiques intelligents.

Plus discret, Microsoft est, sur le plan scientifique, la plus ambitieuse des trois sociétés. La firme de Redmond a créé dès 2005, en Californie, un laboratoire voué au calcul quantique, Station Q, dirigé par un mathématicien de premier plan, Michael Freedman, médaille Fields en 1986. Puis Microsoft a formé en 2011 un groupe de recherche sur le calcul et l’architecture quantiques (QuArC), qui travaille avec des universités européennes : celle de Delft, aux Pays-Bas, celle de Copenhague, au Danemark, et l’École polytechnique fédérale de Zurich.

L’intelligence artificielle (IA) a fait irruption sur la scène médiatique il y a presque vingt ans, en mai 1997, lorsque le programme Deeper Blue d’IBM a battu le champion russe Garry Kasparov aux échecs. Près de vingt ans plus tard, un autre programme d’IA, AlphaGo, a remporté une nouvelle victoire symbolique sur l’intelligence humaine dans un jeu de stratégie, le go, que beaucoup considéraient comme un bastion imprenable de la suprématie humaine sur la machine.

Paradoxalement, la victoire d’AlphaGo, bien que plus significative que celle de Deeper Blue, n’a pas été perçue comme une défaite tragique de l’homme face à la machine. À la crainte que l’IA ne surpasse le cerveau biologique succède peu à peu le sentiment que les machines s’introduisent inéluctablement dans notre environnement immédiat et que leur puissance n’est que le prolongement de nos propres facultés.

Cette situation a transformé la discussion sur l’IA. Le terme d’intelligence artificielle a été introduit en 1955 par l’Américain John McCarthy, l’un des fondateurs de la discipline, qui la définit comme la science de « faire qu’une machine se comporte d’une manière qui serait qualifiée d’intelligente si le même comportement était celui d’un humain ». Selon un autre fondateur de l’IA, Marvin Minsky, l’intelligence artificielle consiste à faire accomplir par des machines des tâches « qui supposent de l’intelligence lorsqu’elles sont faites par des humains » (voir le site Internet Encyclopedia of Philosophy).

À l’époque de Minsky et McCarthy, l’enjeu crucial est de savoir si les capacités des machines peuvent être mises sur le même plan que les facultés humaines. Pour les fondateurs de l’IA, si un programme démontre un théorème de mathématiques ou bat un champion d’échecs, on doit admettre qu’il est capable de penser – même s’il ne pense pas comme un cerveau biologique. 

Ce débat métaphysique est dépassé. Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite. McCarthy et Minsky ne se souciaient guère de savoir combien de temps il faudrait à l’ordinateur pour calculer le meilleur coup à jouer dans une position donnée aux échecs. Jusqu’à une période récente, la supériorité de la machine, du point de vue de la puissance de calcul, semblait si évidente que l’on se préoccupait peu de ses limites techniques. D’autant que les progrès des circuits intégrés, qui suivaient la croissance exponentielle décrite par la loi de Moore, garantissaient que les ordinateurs seraient toujours plus performants.

À lire aussi Révolution quantique (1/5): le triomphe du chat de Schrödinger

29 juillet 2016 Révolution quantique (2/5): l’ordinateur surpuissant est en vue

1 août 2016

Avec l’essor du Big Data et de la simulation numérique, sont apparus des problèmes qui poussent les machines actuelles les plus puissantes aux limites de leurs possibilités. Certains de ces problèmes sont assez ésotériques, comme le calcul de l’état fondamental d’une molécule, c’est-à-dire de son état d’énergie minimale. Ou la modélisation exacte d’une réaction chimique. D’autres problèmes paraissent plus concrets comme celui, pour la Nasa, consistant à optimiser les trajectoires de vol des missions interstellaires ; ou, pour une société de transport, à organiser au mieux sa flotte de camions et d’avions de livraison ; ou, pour une compagnie pharmaceutique, à perfectionner la recherche d’un nouveau médicament.

De tels problèmes ont en commun le fait que leur traitement par les ordinateurs classiques, même les plus performants, peut demander un temps excessif : « La durée de vie de l’univers, ou plus », explique la directrice du groupe QuArC, Krysta Svore, sur le blog de Microsoft. Elle ajoute : « Nous pensons qu’un ordinateur quantique pourrait être exponentiellement plus rapide et traiter ce type de problèmes en un intervalle de temps plus raisonnable, de quelques années à quelques jours ou quelques secondes. »

« Simulation classique d’une machine quantique »

Cette accélération quantique tient aux propriétés très spéciales des objets du monde microscopique tels que les électrons, les photons ou les ions, supports de l’information dans un ordinateur quantique. Comme on l’a vu dans la première partie de cette série, un bit d’information quantique, ou qubit, peut prendre simultanément les valeurs 0 et 1, alors que dans un ordinateur digital classique, un bit d’information n’a qu’une seule valeur à la fois.

https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2Fk2x69jp08Sw%3Ffeature%3Doembed&url=http%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3Dk2x69jp08Sw&image=https%3A%2F%2Fi.ytimg.com%2Fvi%2Fk2x69jp08Sw%2Fhqdefault.jpg&key=c01725fdc60d4163862c69a3537692ff&type=text%2Fhtml&schema=youtube Conférence de Krysta Svore, de Microsoft, sur le calcul quantique, au Caltech le 26 janvier 2016 © IQIM Caltech

L’existence d’états « superposés » offre à l’ordinateur quantique une vitesse de traitement, toutes choses égales par ailleurs, exponentiellement supérieure à celle d’une machine classique. Un ordinateur comme celui avec lequel vous lisez cet article fonctionne avec des processeurs qui, si rapides soient-ils, fonctionnent étape par étape ; chaque circuit de base ne peut traiter qu’une opération à la fois. Dans un ordinateur quantique, un processeur peut, grâce à la superposition d’états, mener plusieurs calculs simultanément.

Pour illustrer la situation, comparons la résolution d’un problème à l’exploration d’un labyrinthe. Supposons que le problème soit traité par un programme installé sur un ordinateur classique. La stratégie de ce programme va ressembler à celle du traditionnel rat de laboratoire. Il s’engage dans le labyrinthe, avance jusqu’à rencontrer une bifurcation, et tourne alors dans l’une des directions possibles ; s’il arrive à une impasse, il revient sur ses pas, prend une autre direction, repart jusqu’à la prochaine bifurcation, et ainsi de suite.

Le programme classique, réduit au statut de rat de laboratoire, poursuit son exploration, par essai et erreur, jusqu’à ce qu’il finisse par trouver la sortie. Si le labyrinthe n’est pas trop vaste, cela se produit dans un temps raisonnable. L’ennui, c’est que le labyrinthe peut être si gigantesque que le programme n’aura aucune chance de découvrir l’issue avant la fin du monde.

Comment procède un système quantique ? Au lieu d’explorer le labyrinthe branche par branche comme le rat de laboratoire, il lâche d’un seul coup une armée de créatures virtuelles, comparables aux Tribbles de Star Trek, ces boules de poils qui se reproduisent à un taux exponentiel. Les bestioles se répandent dans le labyrinthe, explorent toutes les branches en même temps, et trouvent le meilleur itinéraire pour sortir en moins de temps qu’il n’en faut pour l’écrire.

Simple, non ? Dans le monde rêvé de la théorie quantique, oui. Mais tout se complique dès que l’on cherche à construire un dispositif qui fonctionne réellement. Les effets spéciaux qui confèrent aux qubits leur efficacité redoutable, comme la superposition d’états ou l’intrication (influence à distance entre particules), se révèlent en pratique capricieux et peu contrôlables. Et les prétendues machines quantiques ne le sont pas autant qu’elles le devraient. Du moins jusqu’ici.

Fin 2014, Zhaokai Li et ses collègues de l’Université de science et technologie de Chine, à Hefei, publient « le premier algorithme d’intelligence artificielle installé sur un processeur quantique à 4 qubits, c’est-à-dire une machine quantique capable d’apprendre ».

Cette machine apprend à effectuer une tâche élémentaire : reconnaître si un chiffre manuscrit est un 6 ou un 9. Lorsqu’on lui présente un nombre, la machine le divise selon les axes horizontal et vertical. Puis elle compte le nombre de pixels de part et d’autre de chaque axe, et utilise cette information pour classer le chiffre présenté dans la catégorie « 6 » ou « 9 » (par exemple, pour l’axe horizontal, un 9 aura plus de pixels en haut qu’en bas, tandis que ce sera l’inverse pour un 6).

Les résultats présentés en 2014 par Li et ses collègues sont très convaincants. Ils montrent que leur machine a reconnu correctement toute une série de 6 et de 9 écrits à la main. Le hic, c’est que cette machine fonctionne sans mettre en jeu l’intrication quantique entre particules. Un groupe de chercheurs de l’université de Bristol explique dans un article que le travail de l’équipe de Li est plus probablement une « simulation classique d’une machine quantique ».

Une discussion du même ordre a eu lieu en 2014-2015 à propos de l’ordinateur quantique fabriqué par la société canadienne D-Wave Systems et testé par Google. Cette machine traite des problèmes d’optimisation que l’on peut comparer à la recherche du point le plus bas dans un paysage constitué d’un grand nombre de collines et de vallées. La méthode classique pour résoudre le problème revient à faire rouler une bille au hasard jusqu’à ce qu’elle tombe dans une vallée, puis à vérifier qu’il n’y a pas une autre vallée plus profonde un peu plus loin, et ainsi de suite jusqu’à parvenir à la vallée la plus profonde de toutes.

Ce processus est lent car, le plus souvent, la bille va tomber dans un « minimum local », un point qui est le plus bas dans la petite région qui l’environne, mais non dans l’ensemble du paysage.

Dans un système quantique, la bille dispose d’un atout supplémentaire : si elle se trouve dans une vallée, et qu’il y a une autre vallée plus basse dans les environs, la bille peut rapidement passer de l’une à l’autre en traversant les collines par « effet tunnel » ; elle peut ainsi explorer le paysage beaucoup plus rapidement et découvrir la vallée la plus basse en un temps beaucoup plus court que la bille « classique ».

Google a réalisé une série de tests, publiés en juin 2014 dans la revue Science, destinés à vérifier si l’ordinateur D-Wave produisait une accélération quantique. Mais en fait, l’équipe de Google a constaté que le temps de calcul augmentait aussi vite pour la machine supposée quantique que pour un ordinateur classique.

Lors d’un deuxième test, en décembre 2015, les chercheurs de Google ont présenté des résultats suggérant que l’ordinateur D-Wave était, pour certains problèmes, 100 millions de fois plus rapide qu’une machine classique. Mais une analyse critique des résultats, effectuée par Matthias Troyer, de l’École polytechnique fédérale de Zurich, montre que cette affirmation est très exagérée. En fait, les chercheurs de Google admettent qu’une machine non quantique mais construite spécialement dans ce dessein pourrait égaler les performances actuelles de l’ordinateur D-Wave, comme l’explique le magazine britannique New Scientist.

La mécanique quantique est le langage fondamental de l’univers

Mais Google ne se décourage pas facilement. La firme vient d’annoncer un nouveau résultat prometteur, la première simulation d’une molécule par une méthode quantique (lire la publication). Une équipe de Google, associée à plusieurs universités américaines et au University College de Londres, a réussi à calculer l’énergie de surface d’une molécule d’hydrogène (H2) en utilisant un assemblage de qubits supraconducteurs (ce dispositif est différent de l’ordinateur D-Wave).

Certes, le même calcul pourrait être fait par un ordinateur classique. Le résultat ne démontre pas encore la supériorité de la machine quantique. Mais la même méthode pourrait être appliquée à des molécules plus complexes, y compris des molécules dont l’énergie ne peut pas être calculée par des ordinateurs classiques, selon Ryan Babbush, l’un des chercheurs de Google. Babbush explique sur son blog que la perspective, à terme, est de simuler précisément les réactions chimiques.

« Avec seulement une centaine de qubits fiables, on pourrait modéliser le processus par lequel les bactéries produisent de l’engrais à la température ambiante, écrit Ryan Babbush. Élucider ce mécanisme est un problème ouvert célèbre en chimie parce que la méthode utilisée par les humains pour produire de l’engrais artificiel est extrêmement peu efficace et consomme 1 à 2 % de l’énergie mondiale chaque année. »

Mais la simulation de molécules ou de réactions chimiques suffit-elle à justifier le branle-bas de combat autour de l’IA quantique ? Si intéressantes que soient de telles applications, « il est difficile de soutenir qu’[elles transformeraient] la civilisation d’une manière qui approche même de loin les bouleversements causés par l’informatique classique au cours du siècle dernier », observe Scott Aaronson, chercheur au MIT, dans Nature Physics.

Comment l’intelligence artificielle quantique pourrait-elle sortir des sentiers peu fréquentés où elle s’est cantonnée jusqu’ici ? Pour Nathan Wiebe, Ashish Kapoor et Krysta Svore, chercheurs chez Microsoft, la réponse tient en trois mots : « Quantum deep learning », « apprentissage quantique profond ». L’idée est de transposer à la technologie quantique les progrès accomplis par l’intelligence artificielle sur les ordinateurs classiques, et qui se sont manifestés, notamment, par la victoire d’AlphaGo sur Lee Sedol.

Illustration 2
La partie de go mettant face à face le Coréen Lee Sedol et le programme AlphaGo © Reuters

Désormais, l’apprentissage constitue le trait dominant de l’IA. L’expression « machine learning », ou « apprentissage automatique », est devenue synonyme d’intelligence artificielle. Cet apprentissage se fait grâce à des réseaux de neurones artificiels, des assemblages de circuits qui imitent dans une certaine mesure le fonctionnement des neurones biologiques.

Le principe général d’un réseau de neurones artificiels consiste en ce que les connexions entre ces neurones se renforcent quand le réseau produit une bonne réponse et s’affaiblissent quand la réponse est mauvaise. Le réseau apprend en modifiant progressivement ses connexions jusqu’à produire la réponse la plus adaptée.

Les réseaux de neurones ont été inventés il y a des décennies, mais ils sont longtemps restés une curiosité scientifique, parce que l’on ne disposait pas d’une puissance de calcul suffisante pour les faire fonctionner de manière intéressante. L’essor du Big Data et les développements récents de la technologie informatique ont donné une nouvelle jeunesse aux réseaux de neurones. Ils sont aujourd’hui l’outil de base de l’IA. De plus, ils ont acquis de la profondeur. Les « réseaux neuronaux profonds » (« deep neural networks ») sont agencés selon une architecture complexe, en couches superposées, qui permet un « apprentissage profond » (« deep machine learning »).

« [Le deep learning] part du principe que pour accomplir des tâches complexes d’IA, comme la reconnaissance de la parole ou des images, il peut être nécessaire de permettre à la machine d’apprendre un modèle qui répartit les données brutes en plusieurs niveaux d’abstraction, expliquent Wiebe, Kapoor et Svore dans un article intitulé Quantum Deep Learning. Par exemple, pour détecter une voiture, le modèle peut comporter une première couche qui reçoit une image brute, en pixels. Dans une deuxième couche, il organise les données en formes simples. Dans la couche suivante, ces formes élémentaires peuvent être agencées pour constituer des formes [plus élaborées] comme les pare-chocs ou les roues. À des niveaux plus élevés, les formes peuvent être étiquetées par des mots comme “pneu” ou “capote”. »

En somme, un réseau profond construit une représentation hiérarchisée des données, un peu à la manière dont opère le cerveau biologique. Ces dernières années, les techniques de deep learning ont révolutionné le champ de l’IA et de l’apprentissage des machines. Elles sont utilisées dans de nombreuses applications grand public. Elles servent pour les moteurs de recherche, le classement d’images, la reconnaissance de sons, de visages, les problèmes d’optimisation, etc. Elles ont permis de réduire très fortement le taux d’erreurs dans les tâches de reconnaissance visuelle ou sonore, et d’approcher les performances humaines dans certains cas comme la comparaison de deux visages.

Malgré leur efficacité remarquable, les réseaux neuronaux profonds restent tributaires des limites des ordinateurs classiques. Pourraient-ils bénéficier de l’accélération quantique ? Krysta Svore et ses collègues de Microsoft y travaillent. Ils s’intéressent à une classe particulière de réseaux profonds, les « machines de Boltzmann ». Ils ont mis au point une méthode quantique qui, en théorie, permettrait à une machine de Boltzmann de dépasser les ordinateurs actuels. Il reste à le prouver expérimentalement. Et nul ne sait encore si cela aboutira.

« Ce qu’il y a d’étonnant avec la mécanique quantique, c’est que c’est […] la manière dont l’univers se parle à lui-même, et nous ne pensons pas de cette façon, dit Michael Freedman, le directeur de Station Q. Nous sommes plus proches des ordinateurs classiques. » Le projet de l’ordinateur quantique n’est pas seulement technologique, il engage une mutation culturelle. Nous allons abandonner les machines classiques et leur « manière primitive de traiter l’information » pour des machines qui penseront « dans le langage fondamental de l’univers ».

Michel de Pracontal


Publié

dans

par

Étiquettes :