Hoewel het trainen van grote taalmodellen (LLM's) op huidige quantumcomputers een uitdaging blijft, suggereren recente bevindingen een veelbelovende synergie tussen quantum computing en kunstmatige intelligentie. Experts van IBM en Eviden (Atos group) onderzoeken dit potentieel en onthullen vooruitgang op verschillende belangrijke gebieden.
Een studie uit 2021 in Nature Computational Science toonde aan dat quantum neurale netwerken sneller kunnen worden getraind dan klassieke tegenhangers, wat wijst op een aanzienlijk potentieel met grotere netwerken. Quantum computing blinkt uit in optimalisatieproblemen, waardoor fijnafstemming van neurale netwerkparameters mogelijk is voor nauwkeurigere voorspellingen.
De European Space Agency (ESA) toonde de kracht van quantum computing in computervisie, waarbij een beeldherkenningspercentage van 96% werd bereikt met een quantum neuraal netwerk, vergeleken met 85% met een klassiek netwerk, met behulp van satellietbeelden om uitbarstende vulkanen te detecteren. Het quantummodel gebruikte aanzienlijk minder parameters, wat resulteerde in een lager energie- en dataverbruik.
Onderzoek gepubliceerd in Nature Communications in 2024 bevestigde deze bevindingen verder en toonde aan dat een quantummodel een vergelijkbare nauwkeurigheid kan bereiken als klassieke modellen met tien keer minder data. Quantum computing faciliteert ook de creatie van hoogwaardige synthetische data voor modeltraining en verbetert de detectie van patronen in complexe datasets, wat ten goede komt aan vakgebieden als chemie en materiaalkunde.
Deze ontwikkelingen wijzen op het vermogen van quantum computing om de precisie te verbeteren met kleinere modellen, de prestaties te optimaliseren en betrouwbare resultaten te versnellen, wat mogelijk een revolutie teweeg kan brengen in AI-toepassingen.