Véritable Graal informatique, révélant une force de calcul extrêmement puissante, l’informatique quantique ouvre des perspectives jusqu’alors inimaginables. Les Big three, conscient de ces compétences, plutôt révolutionnaires, ne comptent passer en rien à côté de cette prouesse technologique.
En effet, les GAM sans le FA, se livrent une course effrénée. Chacun développe désormais sa propre technologie : Microsoft avec Majorana AWS avec Ocelot et Google avec Willow.
En quelques ligne, pour le commun des mortels, l’informatique quantique kezako? Pour les plus curieux, retrouvez un article plus détaillé ici.
Alors que les ordinateurs d’aujourd’hui utilisent le bit comme unité fondamentale, qui ne sont capable de prendre que deux états (0 ou 1) en simultanée, l’informatique quantique, lui, repose sur une valeur appelée le qubit (ou quantum bit). La véritable puissance du qubit permet à une valeur de s’exprimer par le biais de 1 et 0, mais également par une superposition des deux. Ce qui permet à l’ordinateur quantique de traiter simultanément plusieurs états à la fois, et d’augmenter la vitesse de calcul de manière exponentielle. La puissance d’une telle machine est stupéfiante : avec N qubits, elle peut potentiellement explorer 2 N états en simultané. Ainsi, une machine de seulement 6 qubits pourrait théoriquement manipuler 64 états différents.
Problème, (paracerque sinon ce serai trop beau pour être vrai), cette puissance technologique s’accompagne d’un défi majeur. En effet, contrairement aux bits classiques, les qubits sont extraordinairement sensibles aux perturbations environnementales.
Le moindre changement de température, les vibrations, les rayonnements électromagnétiques ou même les rayons cosmiques peuvent introduire des erreurs et compromettre la fiabilité des calculs.
Conscients de cet obstacle crucial, Amazon, Google et Microsoft, désormais tous les trois engagés dans cette course à l’informatique quantique concentrent une partie significative de leurs efforts sur la correction de ces erreurs.
Alors qui arrivera à relever ce défi ? Chacun sa technique !
Parmi les trois concurrents, Microsoft semble adopter une approche particulièrement audacieuse en misant sur l’étude et l’exploitation d’une particule appelée Fermion de Majorana. Cette particule élémentaire, qui n’existe pas naturellement possède des propriétés uniques, notamment celle d’être sa propre antiparticule. Le cœur de cette innovation réside dans le développement d’un « topoconducteur », un matériau hybride composé d’arséniure d’indium et d’aluminium. Ce matériau crée un état entièrement nouveau de la matière (un état topologique), qui permet d’observer et de contrôler les particules. Si les chercheurs de Microsoft parvenaient à manipuler et à stabiliser ces fermions de Majorana, cela pourrait produire des qubits plus stables, fiables et résistants aux erreurs.
Chetan Nayak, chercheur expérimenté chez Microsoft explique que « Notre approche basée sur la mesure simplifie la correction des erreurs quantiques de manière radicale : nous effectuons la correction des erreurs uniquement via des mesures activées par de simples impulsions numériques connectant et déconnectant des points quantiques équipés de nanofils. Ce contrôle numérique rend la gestion de vastes ensembles de qubits beaucoup plus pratique pour des applications réelles »
En février 2025, Microsoft affirmait avoir créé le premier topoconducteur au monde, ouvrant une possibilité d’intégrer jusqu’à un million de qubits sur une seule puce. Le million de qubits est le seuil considéré comme nécessaire pour atteindre l’avantage quantique.
« L’informatique quantique à cette échelle pourrait conduire à des innovations telles que des matériaux auto-réparateurs capables de combler les fissures des ponts, une agriculture durable et des découvertes de produits chimiques plus sûrs. Ce qui nécessite aujourd’hui des milliards de dollars en recherches expérimentales approfondies et en expériences en laboratoire pourrait être réalisé grâce aux calculs d’un ordinateur quantique », conclut Chetan Nayak.
Cette approche, bien que risquée en raison de l’incertitude scientifique concernant l’existence et la manipulation des fermions de Majorana, donne à Microsoft un avantage décisif dans la course à l’informatique quantique et la résolution d’erreurs.
De son côté, Amazon, reste en course avec son projet Ocelot qui repose sur des qubits de chat, (nommés d’après l’expérience de pensée du chat de Schrödinger), inspirés des recherches de la start-up française Alice & Bob. La technologie Ocelot utilise la superposition quantique d’états classiques pour supprimer certains types d’erreurs, notamment les erreurs de bit-flip et phase-flip.
Dévoilée fin février 2025, cette technologie utilise des oscillateurs fabriqués à partir d’un film mince de tantale, un matériau supraconducteur. Architecturalement, Ocelot est composé de deux puces de silicium microélectroniques, chacune d’environ 1 cm², empilées et connectées électriquement. Chaque puce comprend 14 composants principaux : cinq qubits de données (les fameux qubits de chat), cinq « circuits tampon » pour stabiliser les qubits de données, et quatre qubits supplémentaires dédiés à la détection d’erreurs.
Oskar Painter, directeur du matériel quantique chez AWS, explique que « le principal atout d’Ocelot réside dans sa capacité à réduire les coûts de correction d’erreurs jusqu’à 90% par rapport aux approches conventionnelles. A l’avenir, les puces quantiques construites selon l’architecture Ocelot pourraient coûter aussi peu qu’un cinquième du prix des approches actuelles. Et ce, en raison du nombre considérablement réduit de ressources nécessaires à la correction d’erreurs ».
Ce qui permettrait à Amazon d’aboutir à un ordinateur quantique exploitable d’ici cinq ans.
Du côté de Google, son projet Willow, utilise des qubits basés sur la technologie des transmons, des condensateurs supraconducteurs refroidis à des températures proches du zéro absolu, développés à l’Université de Yale il y a 20 ans. Le défi pour Google est de combiner plusieurs qubits physiques pour obtenir des qubits logiques stables, en réduisant les erreurs provoquées par le bruit ambiant. Défi relevé car, le processeur présenté développé par Google en décembre 2024 comprend 105 qubits physiques ; ce qui permet de réduire les erreurs en dessous du seuil critique et ainsi de créer des qubits logiques fiables.
En effet, Willow réussi à réduire le nombre d’erreurs de manière exponentielle avec l’augmentation du nombre de qubits, testant des réseaux de qubits de plus en plus grands, passant de 3×3 à 7×7 qubits, avec un taux d’erreur diminué de moitié à chaque étape. En termes de performance, Willow a réalisé un calcul d’échantillonnage en moins de cinq minutes, un travail qui prendrait 10 septillions d’années sur les supercalculateurs actuels.
Cependant, bien que Willow ait démontré une correction d’erreurs efficace, son approche nécessite toujours un nombre important de qubits physiques pour chaque qubit logique, rendant difficile l’atteinte de l’objectif d’un million de qubits. Bien que le benchmark RCS démontre une supériorité quantique impressionnante, il manque d’applications pratiques. Google doit désormais prouver qu’il peut réaliser des calculs qui soit à la fois au-delà des capacités classiques et utile pour une application concrète.
En comparaison, la stratégie Ocelot d’Amazon semble la plus efficace en matière de réduction d’erreurs et d’évolutivité, Amazon ayant trouvé un meilleur équilibre jusqu’à présent.
En comparant les stratégies retenues par les trois géants de la Tech, la stratégie Ocelot d’Amazon, semble la plus efficace en matière de réduction d’erreurs et d’évolutivité ; Amazon ayant trouvé un meilleur équilibre jusqu’à présent.