Back to Articles
Quantum Computing

Quantum Extreme Learning'de Çığır Açan Gelişme: 124 Qubit Başarısı

24 March 2026

ÖZET

Kuantum makine öğrenmesinin (QML) önündeki en büyük engellerden biri olan konsantrasyon etkisi (concentration effects), 13 Mart 2026'da yayınlanan çığır açıcı bir çalışmayla aşıldı. Timothée Dao ve 10 araştırmacıdan oluşan ekip, IBM Quantum işlemcilerinde 124 qubit ve 5.000'den fazla iki-qubit kapısı kullanarak bugüne kadar gerçekleştirilmiş en büyük ölçekli Kuantum Extreme Learning Machine (QELM) uygulamasını başarıyla hayata geçirdi. Bu makale, çalışmanın teorik temellerini, deneysel metodolojisini ve elde edilen sonuçları kapsamlı bir şekilde incelemektedir.


1. GİRİŞ: KUANTUM MAKİNE ÖĞRENMESİNİN TEMEL SORUNU

Kuantum makine öğrenmesi, kuantum bilgisayarların yüksek boyutlu Hilbert uzaylarından yararlanarak klasik bilgisayarların erişemeyeceği zengin özellik uzaylarına ulaşmayı vaat eder. Bir n-qubit'lik kuantum sisteminin durum uzayının boyutu 2ⁿ ile ölçeklenir; bu, n=100 için yaklaşık 10³⁰ boyutlu bir uzay anlamına gelir. Ancak bu muazzam boyut, beraberinde ciddi bir problem getirir: konsantrasyon etkisi.

1.1 Konsantrasyon Etkisinin Matematiksel Temeli

Yüksek boyutlu uzaylarda, rastgele seçilen iki vektör arasındaki mesafenin ortalama etrafında toplanma eğilimi vardır. Bu fenomen, Levy'nin lemma'sı ile niceliksel olarak ifade edilebilir:

Levy'nin Lemma'sı: f, ℝᵈ üzerinde L-Lipschitz bir fonksiyon ve X, d-boyutlu küre üzerinde düzgün dağılmış rastgele bir vektör olsun. O halde:

P( |f(X) - E[f(X)]| ≥ ε ) ≤ 2 exp( - (d+1)ε² / (9π³L²) )

Bu eşitsizlik, boyut d arttıkça f(X)'in beklenen değerinden sapma olasılığının üstel olarak azaldığını gösterir. Kuantum durum uzayı için d = 2ⁿ - 1 ≈ 2ⁿ olup, bu durum n büyüdükçe sapma olasılığının sıfıra hızla yaklaştığı anlamına gelir.


2. KUANTUM EXTREME LEARNING MACHINE'İN TEORİK ÇERÇEVESİ

2.1 Rezervuar Hesaplama Paradigması

QELM, klasik rezervuar hesaplamanın kuantum versiyonudur. Klasik rezervuar hesaplamada, bir girdi u(t), rastgele bağlantılara sahip dinamik bir rezervuara beslenir:

x(t+1) = f( Wᵢₙ u(t+1) + W x(t) )

Yalnızca Wₒᵤₜ eğitilir; W ve Wᵢₙ rastgele seçilir ve sabit tutulur.

2.2 Kuantum Rezervuar Hesaplama

Kuantum durumunda, rezervuar rolünü bir kuantum devresi üstlenir. Girdi, bir kodlama devresi ile kuantum durumuna dönüştürülür:

|ψ(u)⟩ = U_enc(u) |0⟩⊗ⁿ

Ardından, bu duruma bir evrim devresi U_res uygulanır.


3. ARAŞTIRMA EKİBİNİN ÇÖZÜMÜ: ÇOK AMAÇLI HİPERPARAMETRE OPTİMİZASYONU

Dao ve ekibi, konsantrasyon etkisini aşmak için üç kilit metrik üzerinde eş zamanlı optimizasyon yapan bir strateji geliştirdi.

Tablo 1: Optimizasyonda Kullanılan Üç Temel Metrik

MetrikSembolTanımMatematiksel İfade
Gözlemlenebilir Değişkenlikσ²_obsÖlçüm sonuçlarının girdiye bağlı varyansıσ²_obs = Varᵤ[ xⱼ(u) ]
KapasiteCRezervuarın farklı girdileri ayırt edebilme yeteneğiC = rank(Σ_x) / M
Görev PerformansıPHedef görevde elde edilen başarıP = 1 - MSE(ŷ, y)

4. DENEYSEL UYGULAMA

Tablo 2: Deneysel Konfigürasyon

ParametreDeğer
Kuantum İşlemciIBM Quantum (124 qubit)
Kullanılan Qubit Sayısı124
İki-Qubit Kapı Sayısı5.000+
Gözlemlenebilir Sayısı (M)500

5. DENEYSEL SONUÇLAR

Tablo 3: Zaman Serisi Tahmini Sonuçları

ModelMSE (test)Normalized RMSE
QELM (optimal)0.02340.152
LSTM (256 hücre)0.02510.158
QELM (konsantrasyon rejimi)0.08920.298

8. SONUÇ

Timothée Dao ve ekibinin 124 qubit'lik IBM Quantum işlemcisinde gerçekleştirdiği bu çalışma, kuantum makine öğrenmesinin pratik uygulanabilirliği açısından kritik bir dönüm noktasıdır. Geliştirilen çok amaçlı hiperparametre optimizasyon stratejisi ve yerel özgörev analizi, konsantrasyon etkisini aşarak QELM'in büyük ölçekli sistemlerde de çalışabileceğini göstermiştir.


KAYNAKÇA

[1] Dao, T. et al. (2026). "Scaling Quantum Extreme Learning to 124 Qubits: Overcoming Concentration Effects through Multi-Objective Hyperparameter Optimization." arXiv:2603.13005.