Etik: Sorumlu Hızlanma
Hızlı yapmak + doğru yapmak — AI çağında mühendisin sorumluluğu.
Bu bölümde öğreneceklerin
- AI çip üreticisinin etik sorumluluklarını say
- Askeri kullanım, gözetim, çevre sorunlarını tart
- Enerji + iklim etkisini hesapla
- Çeşitlilik, kapsayıcılık, açık kaynak ilkelerini tanı
- SIDRA için etik yönergeler önerisi
Açılış: Hız + Sorumluluk
“Move fast and break things” (Facebook 2010s). Sonuç: sosyal medya bağımlılık, seçim manipülasyonu, genç psikolojisi.
AI çipleri çok daha güçlü olur (Y100 10⁶× Y1). Hız tek değer değildir. Sorumluluk + etik zorunlu.
Bu bölüm SIDRA ekibinin kendine sorması gereken zor soruları listeler.
Sezgi: 5 Etik Eksen
| Eksen | Soru | SIDRA ilgisi |
|---|---|---|
| Askeri kullanım | SIDRA silaha girer mi? | ASELSAN müşteri |
| Gözetim | Yüz tanıma, takip sistemlerinde? | Edge AI tipik uygulama |
| Çevre | Enerji, su, kimyasal atık? | Fab işletme |
| İstihdam | Otomasyon işsizliği? | AI genelde |
| Erişim | Zengin-fakir ayrımı? | Fiyatlandırma |
Her nesil (Y1, Y10, Y100) bu soruların cevabı farklı olmalı.
Formalizm: Etik Boyutlar
Askeri kullanım:
SIDRA ASELSAN tarafından desteklenen bir projedir. ASELSAN savunma sanayisinde → SIDRA çipleri silah sistemlerinde kullanılabilir.
Etik soru: otonom silah sistemleri (LAWS) etik mi?
UN 2023: LAWS uluslararası yasal sınırlar çağrısı. Türkiye imzaladı.
SIDRA yönergesi (önerilen):
- Defensive sistemler: OK (radar, erken uyarı).
- Insan-döngüsünde karar: OK (mühendis son kararlı).
- Tam otonom ölümcül: REDdedilir.
Gözetim:
Yüz tanıma, davranış analizi → devlet gözetimi artar. Demokratik kaygılar.
SIDRA Y1 edge AI sensörlerde kamera. ASELSAN müşteri kamu güvenliği ürün yapar.
Yönerge:
- Anonim istatistik: OK.
- Bireysel takip: yasal yetki gerekir.
- Etnik/dini profilleme: REDdedilir.
Çevre:
Fab enerji tüketici. 1 fab:
- 100 MW elektrik.
- 1000 m³/gün su.
- Tehlikeli kimyasallar.
SIDRA UNAM 100 kW (küçük). Y10 mini-fab 5 MW. Y100 tam fab 100+ MW.
Yönerge:
- Yenilenebilir enerji (güneş, rüzgar) %50+.
- Su geri dönüşüm.
- Atık kimyasal bertaraf sertifika.
AI enerji etkisi:
GPT-3 eğitim 1287 MWh = 552 ton CO₂. AI küresel %5-10 elektrik 2030 (IEA).
SIDRA avantajı: inference 100-1000× daha verimli → AI iklim yükü azalır. Pozitif etik pay.
Y100 tam deploy (1M inference çipi yerine 1M GPU) → yıllık 10 TWh tasarruf. 2% Türkiye toplam elektrik.
İstihdam etkisi:
AI bazı işleri kaldırır (call center, veri giriş). Yeni işler (AI operatör, veri bilimci).
SIDRA Türkiye’de 2035’te 1000+ yeni iş yaratır. Pozitif.
Aynı zamanda AI otomasyon (otonom araçlar, çağrı merkezi) 10K+ iş kaldırır. Net etki belirsiz.
Yönerge:
- Yeniden eğitim fonu (TÜBİTAK).
- Açık AI eğitim (SIDRA Atölye gibi).
- Sosyal güvenlik ağı politikası.
Erişim:
SIDRA Y1 500 (cihaz + kar).
Ekonomik erişim: Türkiye orta gelir. Ürün fiyatı gelire göre ayarlanabilir.
Küresel: gelişmekte olan ülkeler için SIDRA ekonomik alternatif (NVIDIA $50K datacenter kart).
Açık kaynak:
SIDRA simulator MIT. SDK açık. Firmware GPL.
Tam açık: RTL (çip tasarım) açık mı?
Zorluk: IP ticari değer. Rekabet kaybı.
Öneri: Academic rama (non-commercial) açık; ticari rama kapalı.
Çeşitlilik ve kapsayıcılık:
SIDRA ekibi:
- Cinsiyet: %30 kadın (sektör ortalaması %20). Hedef %50.
- Uluslararası: Türk + uluslararası.
- Disiplin: elektrik/elektronik + yazılım + malzeme + fizik.
- Yaş: deneyim + yeni mezun karışık.
Etik komite:
SIDRA’nın etik komitesi kurulacak (2026):
- Academia (etik, felsefe).
- Sivil toplum.
- Hukuk.
- Mühendis (içeriden).
Kritik kararlar: askeri satış, gözetim müşteri, çevre politikası.
Şeffaflık:
Yıllık şeffaflık raporu:
- Müşteri dağılımı (savunma, sivil, akademik).
- Enerji tüketim + CO₂.
- İstihdam + çeşitlilik.
- Etik komite kararları.
Google, Microsoft, Apple benzeri raporlar yayımlıyor. SIDRA da.
Uzun vade etik:
Y100+ AI daha güçlü → daha çok etik yük. AGI senaryolarında?
Sorular:
- Otonom sistem hata yapsa sorumlu kim?
- AI halüsinasyon yasal sorumluluk?
- Çip tasarımcı moral yük?
Henüz yanıt yok. SIDRA bu tartışmayı Türkiye’de başlatır.
SIDRA etik manifesto (taslak):
- İnsan-merkezli AI: otomatikleşme + destek (yerine değil).
- Şeffaflık: kararlar açıklanabilir.
- Çevre: karbon-net-sıfır 2030.
- Erişim: açık kaynak + akademik.
- Askeri: sadece defensive + insan-kontrollü.
- Çeşitlilik: %50 kadın 2030.
- Toplum: Türkiye yararına + küresel sorumluluk.
Deney: SIDRA Etik Senaryosu
Senaryo: Bir ülke SIDRA Y10’dan 10K çip istiyor, “gözetim sistemi” için.
Analiz:
- Ülke demokratik mi? (Freedom House skoru).
- Proje detayı nedir?
- İnsan hakları kaygısı var mı?
- Uluslararası yaptırım?
Etik komite kararı:
- Eğer demokratik + şeffaf + UN uyumlu: EVET (satış).
- Eğer gözetim otoriter rejim: REDdedilir (satış yok).
- Belirsiz: ek araştırma + şart (export control).
Gerçek örnek: ABD semiconductor ihracat kısıtları benzer mantık. SIDRA kendi politikası.
Kısa Sınav
Laboratuvar Görevi
SIDRA etik komite kuralları.
Önerilen üyeler:
- 1 akademisyen (etik/felsefe).
- 1 sivil toplum (insan hakları).
- 1 hukukçu.
- 2 SIDRA mühendis (senior).
- 1 uluslararası gözlemci.
Süreç:
- Aylık toplantı.
- Kritik kararlar oy birliği.
- Yıllık şeffaflık raporu.
Yetki:
- Müşteri onayı/reddi (askeri, gözetim).
- Çevre politika belirleme.
- İstihdam ve çeşitlilik hedefleri.
- Açık kaynak politikası.
Yapı ağırlık değil; SIDRA’yı sürdürülebilir marka yapar.
Özet Kart
- 5 etik eksen: askeri, gözetim, çevre, istihdam, erişim.
- SIDRA yönerge: defensive askeri, anonim gözetim, yenilenebilir enerji, açık kaynak akademik.
- İklim pozitif etki: inference 100-1000× GPU’lardan verimli.
- Şeffaflık: yıllık rapor + etik komite.
- Çeşitlilik hedef: %50 kadın 2030.
- Manifesto: 7 ilke.
Vizyon: Sorumlu SIDRA
- Y1 (2026): Etik manifesto yayımla.
- Y3 (2028): Etik komite kurul.
- Y10 (2030): Yıllık şeffaflık raporu.
- Y100 (2035): Sektör lideri sorumlu AI yönerge.
- Y1000 (2040+): AGI hazırlık etik çalışma.
Türkiye’nin ilk sorumlu AI şirketi olma hedefi. Küresel örnek.
Daha İleri
- Bir sonraki bölüm: 8.4 — Y100 Fotonik Vizyonu
- Önceki: 8.2 — Türkiye’nin Yarı-İletken Stratejisi
- AI etik: Future of Life Institute, AI Now Institute.
- LAWS: UN Convention on Certain Conventional Weapons (CCW).
- Açık AI: OpenAI charter, Anthropic Responsible Scaling Policy.