🧠 Modül 3 · Biyolojiden Algoritmaya · Bölüm 3.4 · 13 dk okuma

Beynin Enerji Verimliliği

20 W vs 1.5 kW — neden beyin GPU'dan binlerce kat verimli, ve SIDRA bu farkı nasıl daraltıyor.

Bu bölümde öğreneceklerin

  • Beynin enerji bütçesini (20 W) ve nasıl harcandığını (spike, sinaps, dinlenme) söyle
  • Sparse coding'in (~%2 nöron aktif) enerji verimliliğini nasıl sağladığını açıkla
  • Modern GPU/AI enerjisini (H100, GPT-3 eğitimi) somut sayılarla karşılaştır
  • Landauer limitini (kT ln 2) ve beyin/SIDRA bunun ne kadar üzerinde olduğunu söyle
  • SIDRA Y1/Y10/Y100 enerji haritasını biyolojik hedeflerle eşleştir

Açılış: 86 Milyar Hücre, 20 Watt

İnsan beyni günde 1700 kcal enerjinin **%20’sini** tüketir → ~340 kcal/gün = ortalama 16-20 W. Bu, bir LED ampul gücü. Yine de:

  • Görüntüyü tanır, dili anlar, duyguyu okur, planlar, öğrenir, hatırlar.
  • Sürekli, kesintisiz, paralel.

Karşı taraf:

  • NVIDIA H100 GPU: ~700 W (bir tek kart).
  • Bir GPT-4 eğitimi (tahmin): ~50,000+ H100 saati × 700 W ≈ 35 GWh (bir Türk şehrinin 1 günlük tüketimi).
  • GPT-3 eğitimi: ~1287 MWh (Patterson et al. 2021), CO₂ ayak izi ~552 ton.

Verim oranı: Beyin saniyede ~10¹⁴-10¹⁵ sinaptik işlem yapıyor 20 W’la. Modern GPU 10¹⁴ FP8 işlem/s yapıyor 700 W’la. Sayısal olarak 35× verim farkı, ama beyin eğitim + çıkarım + öğrenme + duyusal işlemeyi birden yapıyor; GPU sadece bir görevi çalıştırıyor. Sistem-seviye fark 1000-10,000×.

Bu bölüm o farkın nereden geldiğini ve SIDRA’nın bu farkı nasıl daraltmaya çalıştığını anlatır.

Sezgi: Beyin Üç Trick'le Verimli

Beynin 20 W’lık mucizesi üç düzeyde çalışan üç ilkeden geliyor:

  1. Sparse coding (sparsity): Her an kortikal nöronların sadece %1-3’ü aktif. Geri kalan dinleniyor → ATP harcamıyor. (GPU her saatte tüm transistörleri çalıştırır → hiç sparse değil.)
  2. Event-driven (spike-tabanlı): Spike olmadıkça enerji yok. GPU 1 GHz saatle her saniye milyar kez sinyal yollar; beyin ortalama 1 Hz, sadece “olay” olduğunda spike.
  3. Analog hesaplama: Sinaptik integrasyon çarpma + toplama → bir-iki iyon kanalı. Dijital bir MAC için 10⁵ transistör gerekir.

Üçü birlikte şu denkleme götürür:

PbrainNneuronfavgEspike+NsynapsefsynEsyn+PbaselineP_{\text{brain}} \approx N_{\text{neuron}} \cdot f_{\text{avg}} \cdot E_{\text{spike}} + N_{\text{synapse}} \cdot f_{\text{syn}} \cdot E_{\text{syn}} + P_{\text{baseline}}

Sayısal değerler:

  • Nneuron=86×109N_{\text{neuron}} = 86 \times 10^9, favg=1f_{\text{avg}} = 1 Hz, Espike=0.3E_{\text{spike}} = 0.3 nJ → ~26 W spike
  • Nsyn=1014N_{\text{syn}} = 10^{14}, fsyn=0.5f_{\text{syn}} = 0.5 Hz, Esyn=10E_{\text{syn}} = 10 fJ → ~0.5 W sinaps
  • PbaselineP_{\text{baseline}} (zar pompası, vesicle döngüsü) → ~5-10 W

Toplam ~30-35 W (gerçek 20 W; hesabımız üst limit). Asıl enerji spike’ta, ana tasarruf da sparse + event-driven’de.

SIDRA’nın aldığı dersler:

  • ✅ Analog hesaplama (memristör crossbar).
  • ✅ Sparsity (sadece aktif satırlara voltaj uygula).
  • ⚠️ Event-driven henüz prototip (Y3’te hedef).

Formalizm: Enerji Hesabı, Landauer ve Donanım Karşılaştırması

L1 · Başlangıç

TOPS/W metriği:

AI donanımı için altın standart: 1 watt başına trilyon işlem (TOPS = 10¹² operations per second). Bir “operasyon” tipik olarak bir MAC (multiply-accumulate).

Sistemİşlem hızıGüçTOPS/W
Beyin (sinaptik olay)~10¹⁴ /s20 W~5
NVIDIA H100 (FP8 yoğun)~2 × 10¹⁵ /s700 W~3
NVIDIA H100 (INT8 sparse, peak)~4 × 10¹⁵ /s700 W~6
Apple M2 NPU (mobil)~1.6 × 10¹³ /s5 W~3
SIDRA Y1 (tahmini)~3 × 10¹³ /s3 W~10
SIDRA Y10 (hedef)~3 × 10¹⁵ /s30 W~100
SIDRA Y100 (vizyon)~3 × 10¹⁶ /s100 W~300

Ham TOPS/W’da SIDRA Y1 zaten H100’ün ~2 katı. Y100 hedefi H100’ün ~50 katı.

Önemli not: Sinaptik olay ile FP8 MAC aynı şey değil. Beyin “yumuşak” hesap yapıyor (yaklaşık), GPU “kesin” hesap yapıyor. Karşılaştırma kabaca; doğru çıkarım: analog + sparse + event-driven, dijital + dense + clocked’a kıyasla 10-1000× verimli olabilir.

L2 · Tam

Landauer limiti (1961):

Bir bitlik bilgi silme işlemi termodinamik olarak en az kTln2kT \ln 2 enerji gerektirir.

  • k=1.38×1023k = 1.38 \times 10^{-23} J/K (Boltzmann sabiti)
  • T=300T = 300 K (oda sıcaklığı)
  • ln20.693\ln 2 \approx 0.693
ELandauer=kTln2=2.87×1021 J=2.87 zJE_{\text{Landauer}} = kT \ln 2 = 2.87 \times 10^{-21} \text{ J} = 2.87 \text{ zJ}

Bu, fiziksel alt sınır. Hiçbir hesap daha az enerjiyle yapılamaz (ısı dağıtmak zorundaysa).

Karşılaştırma:

SistemBit silme enerjisiLandauer’a göre kat
Landauer limiti2.87 zJ
Beyin sinaptik olay~10 fJ ≈ 10⁷ zJ10⁷
SIDRA Y1 memristör read~0.1 pJ ≈ 10⁸ zJ10⁸
Modern CMOS gate~1 fJ ≈ 10⁶ zJ10⁶

Beyin Landauer’ın 10 milyon katı enerji harcıyor — yine de modern donanımdan binlerce kat verimli (sistem seviyesinde). Demek ki “fiziksel alt limite ulaşmak” değil, “sistemde gereksiz hesabı azaltmak” asıl kazanç.

Beyin neden Landauer’a yakın değil? Çünkü ısı yapıyor (basitçe), iyonlar pompalıyor (kimyasal işlem var), gürültülü sinyal (nicemleme yok), reversible computing yapmıyor. Reversible computing teorik olarak Landauer’ın altına inebilir; ama pratikte hâlâ araştırma.

L3 · Derin

Sparse coding’in matematiği:

Bir kortikal alanın aktivite oranı α\alpha (~0.01-0.03). Bu nöron başına 1 Hz değil, alan ortalaması olarak. Spike enerjisi:

Pspikes=NαfmaxEspikeP_{\text{spikes}} = N \cdot \alpha \cdot f_{\max} \cdot E_{\text{spike}}
  • N=1010N = 10^{10} kortikal nöron
  • α=0.02\alpha = 0.02 (~%2 aktif)
  • fmax=50f_{\max} = 50 Hz (aktif nöron oranı)
  • Espike=0.3E_{\text{spike}} = 0.3 nJ

Sonuç: P=1010×0.02×50×0.3×109=3P = 10^{10} \times 0.02 \times 50 \times 0.3 \times 10^{-9} = 3 W (kortikal spike).

Eğer α=1\alpha = 1 olsaydı (her nöron sürekli aktif): 3×50=1503 \times 50 = 150 W. Beyin yanardı. Sparsity 50× tasarruf sağlıyor.

SIDRA paraleli — aktivite faktörü:

Modül 1.6’da CMOS dinamik gücü P=αCV2fP = \alpha C V^2 f formülüyle gördük. Aynı α\alpha buradadır. Y1 yongasında α0.7%\alpha \approx 0.7\% (hesaplanmıştı, 3.1 lab’da). Beyin sparsity’sinin (2%) ~3 katı daha sparse. SIDRA bu açıdan beyin standardından zaten önde (donanım disiplini, devre tasarımı sayesinde).

Eğitim enerjisi:

Beyin online öğrenir — günde ~340 kcal × 0.1 (öğrenme payı tahmin) = 34 kcal/gün ≈ 142 kJ. Tüm yaşam boyu öğrenme ~70 yıl × 34 kcal/gün = 870 MJ ≈ 240 kWh.

GPT-3 tek bir eğitim çalıştırması = 1287 MWh. 240 kWh’lık insan beynine kıyasla ~5400× daha fazla enerji, ve sadece tek bir model için. Beyin saçma enerjik oysa: 70 yılda 5000 kat farklı şey öğrenir (yürüme, dil, mantık, müzik, sürüş, sosyal düzen, milyonlarca yüz, on milyonlarca kelime…).

Karbonsızlaştırma açısı: Beyin türünde online + sparse öğrenme donanımı, AI’nın iklim ayak izini binlerce kat azaltabilir. SIDRA’nın “sürdürülebilir AI” iddiası buradan geliyor.

Deney: Bir Saat Düşünmek vs Bir Saat GPU Eğitimi

Karşılaştırma: 1 saat süresince 1 insan beyni vs 1 NVIDIA H100 GPU.

Metrikİnsan beyniH100 GPU
Güç20 W700 W
Saatlik enerji0.02 kWh0.7 kWh
Maliyet (TR ev tarifesi ~3 TL/kWh)0.06 TL2.10 TL
CO₂ (TR şebeke ~0.4 kg CO₂/kWh)8 g280 g

1 yıl sürekli: Beyin: ~175 kWh, ~526 TL, ~70 kg CO₂. GPU: ~6132 kWh, ~18,400 TL, ~2453 kg CO₂. GPU 35× daha pahalı, 35× daha kirli.

Şimdi SIDRA Y1 (tahmini):

  • Güç: 3 W
  • 1 saatlik: 0.003 kWh
  • 1 yıl sürekli: 26 kWh, 79 TL, 10.5 kg CO₂

SIDRA Y1, beyinden 6× daha verimli (sayısal güç olarak; ama beynin özelliklerinin küçük bir bölümünü taşır).

SIDRA Y100 hedefi (100 W):

  • 1 saat: 0.1 kWh, 30 kuruş, 40 g CO₂.
  • 1 yıl: 876 kWh, 2628 TL, 350 kg CO₂.
  • Beynin 5× üstü ama GPU’dan 7× ucuz, çok daha fazla iş yapacak.

Sonuç: SIDRA, beyin verimliliğine GPU’dan çok daha yakın bir yaklaşımdır.

Kısa Sınav

1/6Beynin ortalama güç tüketimi yaklaşık ne kadardır?

Laboratuvar Görevi

SIDRA Y1’i bir veri merkezindeki H100 GPU clusterı’na alternatif olarak değerlendir.

Veri:

  • Bir veri merkezinde 1000 H100 GPU çalışıyor: tipik bir AI eğitim cluster’ı.
  • Her GPU 700 W → cluster gücü: 700 kW. Soğutma + çevre = ek %50 → toplam 1.05 MW.
  • Yıllık tüketim: 1.05 MW × 8760 h = 9.2 GWh/yıl.
  • TR şebekesi 0.4 kg CO₂/kWh → 3680 ton CO₂/yıl.
  • TR sanayi elektrik fiyatı ~2 TL/kWh → 18.4 milyon TL/yıl.

SIDRA Y1 alternatifi:

  • 1 H100 ≈ 1 milyar transistör; 1 SIDRA Y1 ≈ 419M memristör + ~28 nm CMOS taban (~1B transistör).
  • Inference için aynı throughput’u sağlamak için ne kadar SIDRA Y1 gerekir?

Sorular:

(a) H100 inference: ~4 PFLOPS FP8 sparse. SIDRA Y1: ~30 TOPS analog → ~130 SIDRA Y1 = 1 H100 inference açısından. (b) 1000 H100 yerine 130,000 SIDRA Y1 → kart başına 3 W → toplam 390 kW (soğutma %50 → 585 kW). (c) Yıllık enerji? (d) Yıllık CO₂? (e) Yıllık maliyet? (f) Yatırım maliyeti farkı (ön ödeme): 1000 H100 = 50M USD ≈ 2 milyar TL. 130,000 Y1 (yerli üretim, tahmin) = ~800M TL. Geri ödeme süresi?

Çözümler

(a) 4000 / 30 ≈ 133 → ~130 Y1 = 1 H100 inference. (Eğitim için farklı; Y1 inference odaklı.)

(b) Toplam güç: 130,000 × 3 W = 390 kW. Soğutma %50 → 585 kW. GPU cluster’ından %44 az.

(c) 585 kW × 8760 h = 5.13 GWh/yıl (vs 9.2 GWh GPU). %44 tasarruf.

(d) 5.13 × 0.4 = 2050 ton CO₂/yıl (vs 3680). %44 az kirlilik.

(e) 5.13 × 10⁶ kWh × 2 TL = 10.3 milyon TL/yıl (vs 18.4 milyon). 8.1 milyon TL tasarruf/yıl.

(f) Yatırım farkı: 2 milyar - 800M = 1.2 milyar TL kazanç (Y1 ucuz). Ek olarak yıllık 8M TL tasarruf. Toplam değer: muazzam, ama Y1 sadece inference; eğitim hâlâ GPU. Senaryo: veri merkezinde inference yükünü %50 SIDRA’ya alırsanız → toplam yıllık ~5M TL + ~1B TL CapEx farkı.

Not: Bu rakamlar 2026 SIDRA Y1 prototip varsayımıyla — büyük belirsizlik. Y10 (2029) sayıları çok daha güçlü olacak. Kritik nokta: SIDRA, GPU’ya yan yana çalışan bir mimari (inference için) — alternatif değil, tamamlayıcı.

Özet Kart

  • Beyin gücü: ~20 W. Vücut enerjisinin %20’si.
  • Üç verim trick’i: sparse coding (~%2 aktif), event-driven (spike), analog hesaplama (sinaptik MAC).
  • Spike enerjisi: ~0.3 nJ × 86B nöron × 1 Hz = ~26 W (gerçek 20 W; hesap üst limit).
  • Landauer limiti: kT ln 2 = 2.87 zJ. Modern CMOS bunun ~10⁶ katı, beyin ~10⁷ katı.
  • GPU karşılaştırma: H100 700 W → ~3-6 TOPS/W. SIDRA Y1 ~10, hedef Y100 ~300 TOPS/W.
  • GPT-3 eğitim: 1287 MWh. İnsan beyni 70 yılda 240 kWh — 5400× verimli.
  • SIDRA verim avantajı: analog + sparse + event-driven (Y3+).

Vizyon: Sürdürülebilir AI ve SIDRA'nın Misyonu

AI’nın enerji yeti, 2030’a kadar küresel elektrik tüketiminin %5-10’una ulaşabilir (IEA tahmini). Çözüm GPU verimini artırmak değil — mimariyi değiştirmek.

  • Y1 (bugün): 3 W TDP, ~10 TOPS/W. GPU’dan ~2× verimli, sınırlı kapasitede.
  • Y3 (2027): 10 W, ~30 TOPS/W. Event-driven prototip eklenir.
  • Y10 (2029): 30 W, ~100 TOPS/W. Edge AI yaygınlaşır (akıllı kameralar, robotlar, mobil).
  • Y100 (2031+): 100 W, ~300 TOPS/W. Veri merkezi inference’ında standart. Eğitim hâlâ GPU.
  • Y1000 (uzun vade): 100 W, ~1000 TOPS/W. Hem eğitim hem çıkarım analog. AI iklim ayak izi 1000× düşer.

Türkiye için stratejik anlam: AI veri merkezleri büyük elektrik tüketicisi olacak. Türkiye eğer SIDRA tabanlı ulusal AI altyapısı kurarsa: (1) elektrik tüketimini düşürür, (2) yarı iletken teknolojisinde kendi yolunu çizer, (3) ihracat potansiyeli yaratır. SIDRA atölyesi bu yolun ilk somut adımı.

Beklenmedik gelecek: Beyin-budgeted AI. Bir laptop boyutunda, 20 W güç çeken, GPT-class model çalıştıran bir cihaz. Y100 ile mümkün. 2032-2035 ufku, ve Türkiye’nin bu ürünü çıkarabilecek tek ülkelerden biri olma ihtimali var. (ABD ve Çin Y100’ü kendi yapacak — ama kategori birden fazla oyuncuya yer verir; SIDRA atölye + akademi ekosistemi bu yarışta var.)

Daha İleri

  • Bir sonraki bölüm: 3.5 — Yapay Nörondan Transformer’a
  • Önceki: 3.3 — Hebbian Öğrenme
  • Beyin enerji bütçesi: Attwell & Laughlin, An energy budget for signaling in the grey matter of the brain, J. Cereb. Blood Flow Metab. 2001.
  • Landauer: R. Landauer, Irreversibility and heat generation in the computing process, IBM J. Res. Dev. 1961.
  • GPT-3 enerjisi: Patterson et al., Carbon emissions and large neural network training, arXiv:2104.10350 (2021).
  • AI iklim etkisi: Strubell, Ganesh, McCallum, Energy and policy considerations for deep learning in NLP, ACL 2019.
  • Neuromorfik enerji: Davies et al., Loihi: A neuromorphic manycore processor with on-chip learning, IEEE Micro 2018.