Szkolenie dużych modeli językowych (LLM) na obecnych komputerach kwantowych pozostaje wyzwaniem, jednak najnowsze odkrycia sugerują obiecującą synergię między obliczeniami kwantowymi a sztuczną inteligencją. Eksperci z IBM i Eviden (grupa Atos) badają ten potencjał, ujawniając postępy w kilku kluczowych obszarach.
Badanie z 2021 roku opublikowane w Nature Computational Science wykazało, że kwantowe sieci neuronowe można trenować szybciej niż ich klasyczne odpowiedniki, co sugeruje znaczący potencjał w przypadku większych sieci. Komputery kwantowe doskonale radzą sobie z problemami optymalizacyjnymi, umożliwiając precyzyjne dostrajanie parametrów sieci neuronowych w celu uzyskania dokładniejszych przewidywań.
Europejska Agencja Kosmiczna (ESA) zaprezentowała moc obliczeń kwantowych w dziedzinie widzenia komputerowego, osiągając 96% wskaźnik rozpoznawania obrazów za pomocą kwantowej sieci neuronowej, w porównaniu do 85% w przypadku sieci klasycznej, wykorzystując zdjęcia satelitarne do wykrywania erupcji wulkanów. Model kwantowy wykorzystywał znacznie mniej parametrów, co skutkowało niższym zużyciem energii i danych.
Badania opublikowane w Nature Communications w 2024 roku dodatkowo umocniły te odkrycia, pokazując, że model kwantowy może osiągnąć podobną dokładność do modeli klasycznych przy dziesięciokrotnie mniejszej ilości danych. Komputery kwantowe ułatwiają również tworzenie wysokiej jakości syntetycznych danych do trenowania modeli i poprawiają wykrywanie wzorców w złożonych zbiorach danych, przynosząc korzyści takim dziedzinom jak chemia i materiałoznawstwo.
Te postępy wskazują na zdolność komputerów kwantowych do zwiększania precyzji dzięki mniejszym modelom, optymalizacji wydajności i przyspieszania uzyskiwania wiarygodnych wyników, co potencjalnie może zrewolucjonizować zastosowania sztucznej inteligencji.