Quantum Extreme Learning'de Çığır Açan Gelişme: 124 Qubit Başarısı
ÖZET
Kuantum makine öğrenmesinin (QML) önündeki en büyük engellerden biri olan konsantrasyon etkisi (concentration effects), 13 Mart 2026'da yayınlanan çığır açıcı bir çalışmayla aşıldı. Timothée Dao ve 10 araştırmacıdan oluşan ekip, IBM Quantum işlemcilerinde 124 qubit ve 5.000'den fazla iki-qubit kapısı kullanarak bugüne kadar gerçekleştirilmiş en büyük ölçekli Kuantum Extreme Learning Machine (QELM) uygulamasını başarıyla hayata geçirdi. Bu makale, çalışmanın teorik temellerini, deneysel metodolojisini ve elde edilen sonuçları kapsamlı bir şekilde incelemektedir.
1. GİRİŞ: KUANTUM MAKİNE ÖĞRENMESİNİN TEMEL SORUNU
Kuantum makine öğrenmesi, kuantum bilgisayarların yüksek boyutlu Hilbert uzaylarından yararlanarak klasik bilgisayarların erişemeyeceği zengin özellik uzaylarına ulaşmayı vaat eder. Bir n-qubit'lik kuantum sisteminin durum uzayının boyutu 2ⁿ ile ölçeklenir; bu, n=100 için yaklaşık 10³⁰ boyutlu bir uzay anlamına gelir. Ancak bu muazzam boyut, beraberinde ciddi bir problem getirir: konsantrasyon etkisi.
1.1 Konsantrasyon Etkisinin Matematiksel Temeli
Yüksek boyutlu uzaylarda, rastgele seçilen iki vektör arasındaki mesafenin ortalama etrafında toplanma eğilimi vardır. Bu fenomen, Levy'nin lemma'sı ile niceliksel olarak ifade edilebilir:
Levy'nin Lemma'sı: f, ℝᵈ üzerinde L-Lipschitz bir fonksiyon ve X, d-boyutlu küre üzerinde düzgün dağılmış rastgele bir vektör olsun. O halde:
P( |f(X) - E[f(X)]| ≥ ε ) ≤ 2 exp( - (d+1)ε² / (9π³L²) )
Bu eşitsizlik, boyut d arttıkça f(X)'in beklenen değerinden sapma olasılığının üstel olarak azaldığını gösterir. Kuantum durum uzayı için d = 2ⁿ - 1 ≈ 2ⁿ olup, bu durum n büyüdükçe sapma olasılığının sıfıra hızla yaklaştığı anlamına gelir.
2. KUANTUM EXTREME LEARNING MACHINE'İN TEORİK ÇERÇEVESİ
2.1 Rezervuar Hesaplama Paradigması
QELM, klasik rezervuar hesaplamanın kuantum versiyonudur. Klasik rezervuar hesaplamada, bir girdi u(t), rastgele bağlantılara sahip dinamik bir rezervuara beslenir:
x(t+1) = f( Wᵢₙ u(t+1) + W x(t) )
Yalnızca Wₒᵤₜ eğitilir; W ve Wᵢₙ rastgele seçilir ve sabit tutulur.
2.2 Kuantum Rezervuar Hesaplama
Kuantum durumunda, rezervuar rolünü bir kuantum devresi üstlenir. Girdi, bir kodlama devresi ile kuantum durumuna dönüştürülür:
|ψ(u)⟩ = U_enc(u) |0⟩⊗ⁿ
Ardından, bu duruma bir evrim devresi U_res uygulanır.
3. ARAŞTIRMA EKİBİNİN ÇÖZÜMÜ: ÇOK AMAÇLI HİPERPARAMETRE OPTİMİZASYONU
Dao ve ekibi, konsantrasyon etkisini aşmak için üç kilit metrik üzerinde eş zamanlı optimizasyon yapan bir strateji geliştirdi.
Tablo 1: Optimizasyonda Kullanılan Üç Temel Metrik
| Metrik | Sembol | Tanım | Matematiksel İfade |
|---|---|---|---|
| Gözlemlenebilir Değişkenlik | σ²_obs | Ölçüm sonuçlarının girdiye bağlı varyansı | σ²_obs = Varᵤ[ xⱼ(u) ] |
| Kapasite | C | Rezervuarın farklı girdileri ayırt edebilme yeteneği | C = rank(Σ_x) / M |
| Görev Performansı | P | Hedef görevde elde edilen başarı | P = 1 - MSE(ŷ, y) |
4. DENEYSEL UYGULAMA
Tablo 2: Deneysel Konfigürasyon
| Parametre | Değer |
|---|---|
| Kuantum İşlemci | IBM Quantum (124 qubit) |
| Kullanılan Qubit Sayısı | 124 |
| İki-Qubit Kapı Sayısı | 5.000+ |
| Gözlemlenebilir Sayısı (M) | 500 |
5. DENEYSEL SONUÇLAR
Tablo 3: Zaman Serisi Tahmini Sonuçları
| Model | MSE (test) | Normalized RMSE |
|---|---|---|
| QELM (optimal) | 0.0234 | 0.152 |
| LSTM (256 hücre) | 0.0251 | 0.158 |
| QELM (konsantrasyon rejimi) | 0.0892 | 0.298 |
8. SONUÇ
Timothée Dao ve ekibinin 124 qubit'lik IBM Quantum işlemcisinde gerçekleştirdiği bu çalışma, kuantum makine öğrenmesinin pratik uygulanabilirliği açısından kritik bir dönüm noktasıdır. Geliştirilen çok amaçlı hiperparametre optimizasyon stratejisi ve yerel özgörev analizi, konsantrasyon etkisini aşarak QELM'in büyük ölçekli sistemlerde de çalışabileceğini göstermiştir.
KAYNAKÇA
[1] Dao, T. et al. (2026). "Scaling Quantum Extreme Learning to 124 Qubits: Overcoming Concentration Effects through Multi-Objective Hyperparameter Optimization." arXiv:2603.13005.