L'informatique quantique améliore l'IA : modèles plus petits, plus grande précision

Edited by: Irena I

Bien que l'entraînement de grands modèles de langage (LLM) sur les ordinateurs quantiques actuels reste un défi, des découvertes récentes suggèrent une synergie prometteuse entre l'informatique quantique et l'intelligence artificielle. Des experts d'IBM et d'Eviden (groupe Atos) explorent ce potentiel, révélant des avancées dans plusieurs domaines clés.

Une étude de 2021 publiée dans Nature Computational Science a démontré que les réseaux neuronaux quantiques peuvent être entraînés plus rapidement que leurs homologues classiques, laissant entrevoir un potentiel important avec des réseaux plus grands. L'informatique quantique excelle dans les problèmes d'optimisation, permettant un réglage fin des paramètres des réseaux neuronaux pour des prédictions plus précises.

L'Agence spatiale européenne (ESA) a mis en évidence la puissance de l'informatique quantique dans la vision par ordinateur, atteignant un taux de reconnaissance d'image de 96 % avec un réseau neuronal quantique, contre 85 % avec un réseau classique, en utilisant des images satellite pour détecter les éruptions volcaniques. Le modèle quantique utilisait beaucoup moins de paramètres, ce qui a entraîné une consommation d'énergie et de données plus faible.

Des recherches publiées dans Nature Communications en 2024 ont encore renforcé ces résultats, montrant qu'un modèle quantique pouvait atteindre une précision similaire à celle des modèles classiques avec dix fois moins de données. L'informatique quantique facilite également la création de données synthétiques de haute qualité pour l'entraînement des modèles et améliore la détection de motifs dans des ensembles de données complexes, ce qui profite à des domaines tels que la chimie et la science des matériaux.

Ces avancées indiquent la capacité de l'informatique quantique à améliorer la précision avec des modèles plus petits, à optimiser les performances et à accélérer l'obtention de résultats fiables, ce qui pourrait révolutionner les applications de l'IA.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.