Informatique Quantique & Machine Learning

OLIVIER EZRATTY, Consultant, Auteur et Blogueur Technophile

Chez Prevision.io, nous nous intéressons depuis quelque temps au domaine de l'informatique quantique appliqué au Machine Learning. Beaucoup d'algorithmes de recherche opérationnelle que nous utilisons y trouvent une formulation élégante. Leurs performances sont d'ailleurs souvent sans commune mesure avec leurs équivalents classiques. Et quand on développe une plateforme automatisée de Machine Learning, ce genre de changement radical se prépare en amont...

Il y a quelques semaines, Oliver Ezratty, créateur des fameux rapports CES, a publié un article sur les cycles longs de l'innovation dans lequel justement, il aborde, oh surprise, le sujet quantique.

L'occasion était trop belle pour nous de le rencontrer et de faire le point sur les perspectives qui fleurissent et les barrières techniques autour de l'ordinateur quantique.

Superconducting qubits are tops - UCSB

Bonjour Olivier, avant tout qu'est-ce que l'informatique quantique ?

L’informatique quantique permet en théorie de résoudre des problèmes dits exponentiels dont la taille augmente très rapidement et qui ne peuvent pas être traités avec des ordinateurs traditionnels, même avec des supercalculateurs.

Il existe plusieurs types d’ordinateurs quantiques avec notamment les ordinateurs quantiques universels capables de résoudre tous les problèmes et algorithmes quantiques, les ordinateurs quantiques adiabatiques comme ceux de D-Wave qui peuvent résoudre une quantité plus limitée de problèmes avec des performances a priori moins bonne.

Le domaine est-il en pleine expansion et prometteur où s'agit-il juste d'un effet de mode comme il en arrive parfois ?

L'innovation fonctionne souvent sur des cycles longs et l'informatique quantique en est encore au début de son cycle d'innovation, alors que la recherche la concernant a démarré au début des années 1980.

Pour l'intelligence artificielle par exemple, l'innovation est dans la phase plateau. Son intérêt n'est plus à prouver et l'adoption est déjà en cours. Elle doit cependant encore faire des progrès, notamment du côté du raisonnement automatique.

L'informatique quantique est dans la phase où la promesse de rupture est importante mais les incertitudes scientifiques et quantiques encore énormes.

Quelles sont les clés pour que ce cycle suive son cours ?

L'informatique quantique réunit deux éléments qui évoluent en parallèle :

  • Des plateformes matérielles avec un co-processeur quantique manipulant des qubits fragiles et éphémères que les chercheurs ambitionnent de stabiliser en réduisant leur “bruit pour que les calculs fonctionnent bien”.
  • Mais aussi du logiciel et des algorithmes qui permettent d'utiliser l'hyper-parallélisation quantique offerte par les phénomènes de superposition et d'intrication des qubits.

shor’s integer factorization algorithm (cc wikipedia)

Les défis à relever sont immenses sur chacun de ces deux aspects. Comment gérer les erreurs dues aux dé-cohérences dans les calculs quantiques qui nécessitent pour être corrigées d'utiliser plus de qubits correctifs que ceux nécessaires aux calculs effectués ? Comment créer des algorithmes qui sont réellement plus performants sur ordinateurs quantiques que leurs équivalents « best in class » sur supercalculateurs traditionnels ?

Nous sommes également dans une situation ou le formalisme de calcul et sa simulation sont déjà possibles : mettre au point les algorithmes quantiques permet de préparer les applications quand la technologie sera prête.

Oui, et ce n'est pas une situation nouvelle en innovation, les programmes informatiques conçus en 1842 par Ada Lovelace ne furent exécutables sur des machines réelles qu'un siècle plus tard !

Du coup quel est le message à retenir pour celles et ceux qui comme nous travaillent à décliner le formalisme classique des algorithmes de machine learning en équivalent quantique : A quel horizon peut-on s'attendre à voir leur mise en application ?

Les avis des experts divergent énormément. Certains comme Gil Kalais pensent que les problèmes techniques à résoudre sont trop importants et qu'on ne verra jamais d'application, d'autres comme le scientifique français Alain Aspect tablent un délai d’environ 30 ans pour la mise au point d’ordinateurs quantiques opérationnels. Des acteurs comme Google et Microsoft sont plus optimistes.

A typical datascientist nerd trying to looks like he's holding an IBM quantum computer in his hands

Il y a plusieurs enjeux applicatifs clés : la factorisation quantique de nombres entiers qui pourrait casser la cryptographie à base de clés publiques et la simulation des interactions atomiques dans les molécules, d’abord sur la matière puis dans les molécules biologiques. Avec des applications potentiellement extraordinaires.

Est-ce que les GAFAM investissent déjà dans ce domaine ?

Comme tous les domaines, ils sont en quelque sorte obligés d'investir, d'autant plus qu'ils en ont les moyens. Ce ne sont pas exactement les GAFA mais Google, IBM, Microsoft et Intel pour retenir les principaux grands acteurs impliqués. Les « AFA » ne font rien dans le domaine pour l’instant.

La plupart de leur travaux en la matière associent ces grands industriels à des laboratoires des recherches. En parallèle avec les récentes publications mentionnant records sur records en terme de qubits et avec la démocratisation des plateformes de simulation de calcul quantique, se dévoile l’enjeu de la création d’écosystèmes et de plateformes. Les grands du quantique sont déjà sur les rangs pour séduire les développeurs avant même que les ordinateurs quantiques soient véritablement opérationnels. Bref, la course est déjà lancée !

Olivier donnera au web2day en compagnie de Fanny Bouton le 14 juin 2018 à Nantes une conférence sur le sujet : Le Quantique c'est fantastique

Our Latest
News