En 2023, la majorité des prototypes d’ordinateurs quantiques ne dépassent pas la centaine de qubits opérationnels, bien loin des milliers jugés nécessaires pour un calcul à grande échelle. Certaines architectures, pourtant prometteuses sur le papier, se heurtent à des taux d’erreur supérieurs à 1 %, rendant la correction d’erreurs exponentiellement complexe.
Les promesses de puissance rencontrent des limites techniques inattendues. Les coûts énergétiques, la stabilité des systèmes et le manque d’algorithmes adaptés freinent encore l’adoption à grande échelle. L’écart qui subsiste entre la démonstration expérimentale et l’industrialisation soulève des interrogations sur la trajectoire réelle de cette technologie.
Ordinateur quantique : où en est-on vraiment aujourd’hui ?
Le secteur de l’informatique quantique vacille entre annonces fracassantes et réalités techniques parfois moins reluisantes. IBM et Google occupent le haut de l’affiche avec des prototypes prometteurs, mais la barrière des qubits s’impose avec fermeté. Afficher 127 ou 433 qubits sur des machines de laboratoire ne garantit ni la maîtrise de la décohérence, ni la précision des résultats.
Dans ce contexte, des startups françaises telles que Pasqal ou Quandela misent sur des alternatives innovantes : atomes froids, photons, ions piégés. Portée par le plan quantique national, la France veut structurer une filière robuste, mais la compétition s’accélère. Les États-Unis, la Chine, l’Allemagne investissent massivement, intensifiant la course mondiale à l’ordinateur quantique.
Ce paysage se distingue par une grande diversité de technologies quantiques et une série de défis à surmonter. Les collaborations entre laboratoires publics et industriels se multiplient pour sortir des expérimentations et viser plus grand : l’ordinateur quantique à grande échelle. Mais une question persiste : dans quel domaine l’impact sera-t-il d’abord visible ? Calcul moléculaire, optimisation logistique, cryptographie : chaque secteur attend la preuve concrète que le saut quantique est possible.
Quelques repères marquants illustrent ce cheminement :
- IBM : premier processeur quantique de 127 qubits (2021)
- Google : démonstration de la « suprématie quantique » contestée (2019)
- France : lancement du plan quantique doté de 1,8 milliard d’euros
Tirée par la rivalité internationale et l’émergence de nouveaux acteurs, la recherche progresse vite. Pourtant, l’ordinateur quantique universel reste un horizon lointain, presque insaisissable.
Pourquoi les qubits posent-ils tant de défis techniques ?
La nature singulière des qubits interpelle ingénieurs et physiciens. Contrairement aux bits classiques limités à deux états, un qubit peut se trouver dans une infinité de superpositions, selon les principes de la mécanique quantique. Mais cette flexibilité se paie cher : le moindre échange avec l’environnement provoque une perte de cohérence. Stabiliser un qubit relève du défi permanent.
Le choix des qubits supraconducteurs, favorisé par Google et IBM, oblige à maintenir des températures effleurant le zéro absolu. La moindre fluctuation thermique, le bruit électromagnétique, une vibration infime : tout menace l’équilibre. Les chercheurs doivent à la fois isoler chaque qubit et permettre leur interaction. Un exercice d’équilibriste entre isolement et collaboration.
Autre difficulté : la correction d’erreurs quantiques. Obtenir un seul qubit logique fiable nécessite de coupler plusieurs dizaines, parfois des centaines de qubits physiques. Les protocoles de correction, spécifiques à chaque technologie (supraconducteurs, ions piégés, photons…), complexifient l’équation. Miniaturisation des circuits, stabilité des lasers : chaque architecture a ses propres obstacles à franchir.
Au final, tout se joue sur la capacité à rendre ces systèmes robustes et fiables. La compétition mondiale s’intensifie, car l’issue dépendra de cette robustesse autant que de la performance brute.
Des avancées prometteuses face à des obstacles de taille
Du laboratoire à l’entreprise, la recherche quantique s’active sur tous les fronts. Le calcul quantique sort peu à peu des salles protégées : des prototypes sont accessibles via le cloud, proposés par IBM ou Google. Même limités en nombre de qubits, ces systèmes marquent un tournant dans l’histoire de l’informatique.
Certains domaines avancent plus vite que d’autres. La cryptographie quantique, par exemple, tire déjà profit des clés quantiques QKD pour sécuriser les communications au-delà des capacités des algorithmes classiques. En France et ailleurs, des réseaux de communication quantique voient le jour à l’échelle urbaine. Ce dynamisme déborde sur d’autres secteurs : logistique, simulation de matériaux, optimisation, intelligence artificielle : partout, les premiers algorithmes quantiques trouvent des applications ciblées.
Cependant, plusieurs obstacles pèsent encore sur une adoption à grande échelle. Voici les principaux freins actuellement identifiés :
- la fragilité persistante des systèmes quantiques ;
- le coût élevé des infrastructures cryogéniques ;
- la difficulté à former des experts capables de créer des algorithmes quantiques efficaces.
La rivalité internationale s’intensifie : États-Unis, Chine, Europe rivalisent d’ambition, chacun cherchant à devenir un centre d’excellence incontesté. La promesse reste puissante : permettre la résolution de problèmes hors de portée pour l’informatique traditionnelle.
L’avenir de l’informatique quantique : quelles pistes pour dépasser les limites actuelles ?
Le secteur de l’informatique quantique s’organise pour franchir les prochaines étapes, tant sur le plan technologique qu’industriel. L’un des objectifs majeurs : la création d’un ordinateur quantique universel capable de supporter des applications complexes sans s’effondrer sous la fragilité des qubits. Intel, Honeywell, Microsoft, mais aussi de jeunes pousses soutenues par le CNRS ou des fonds européens, investissent massivement, multipliant les coopérations à l’échelle mondiale. Les budgets grimpent jusqu’à plusieurs milliards de dollars, avec en toile de fond une bataille d’influence entre grandes puissances.
La souveraineté technologique motive de grands programmes publics, notamment en France où la recherche s’appuie sur des pôles de pointe à Paris, Saclay ou Grenoble. Des figures reconnues comme Michel Devoret contribuent à structurer l’écosystème, avec une ambition claire : éviter de dépendre de plateformes étrangères pour les usages sensibles, qu’ils concernent la finance ou la défense.
Les axes de travail sont multiples et clairement identifiés :
- améliorer la fidélité et la durée de cohérence des qubits ;
- miniaturiser les composants pour limiter la consommation énergétique ;
- développer des protocoles de correction d’erreurs quantiques plus efficaces.
Dans les principales capitales mondiales, des programmes de formation visent à faire émerger une nouvelle génération d’ingénieurs, capables de concevoir des algorithmes taillés pour ces architectures inédites. Yann LeCun, directeur scientifique de l’IA chez Meta, souligne la nécessité de rassembler les compétences en informatique, physique et mathématiques pour relever ces défis.
Rien n’est joué : pour l’heure, l’ordinateur quantique universel reste à inventer. Mais la dynamique est lancée, et chaque étape franchie rapproche cet horizon qui, hier encore, semblait réservé à la science-fiction.


