Ağustos 2025. EU AI Act'in en tartışmalı bölümü yürürlüğe girdi: Madde 51–56, genel amaçlı yapay zekâ modellerini düzenleyen kuralları getiriyor. Peki bu kurallar kimi kapsıyor, ne gerektiriyor ve Türk şirketler için ne anlama geliyor?
GPAI Nedir, Neden Önemli?
GPAI, "General Purpose AI" — genel amaçlı yapay zekâ. ChatGPT, Claude, Gemini, Llama gibi modeller bu kategoriye giriyor. Bu modellerin ayırt edici özelliği tek bir görev için değil, çok sayıda farklı uygulama için kullanılabilmeleri.
EU AI Act bu modelleri ayrı bir kategoride ele alıyor çünkü riski değerlendirmek çok daha karmaşık. Bir işe alım yazılımının riski bellidir; ama her ortamda çalışabilen bir dil modelinin riski bağlama göre değişir.
Madde 51–56 Ne Getiriyor?
Bu maddeler iki katmanlı bir yükümlülük yapısı kuruyor: tüm GPAI modelleri için temel gereksinimler ve "sistemik riskli" modeller için ek yükümlülükler.
- Teknik dokümantasyon zorunlu: modelin nasıl eğitildiği, hangi veriyle çalıştığı, yetenekleri ve sınırlılıkları yazılı olarak belgelenmeli.
- Telif hakkı politikası açıklanmalı: eğitim verisinde kullanılan içerikler için AB telif hakkı mevzuatına uyum sağlanmalı.
- Model kartı yayınlanmalı: kullanıcıların modeli doğru değerlendirmesi için şeffaf bilgi sunulmalı.
- Eşik: 10²⁵ FLOP üzerinde eğitilen modeller bu kategoriye giriyor — bugünün en güçlü modellerini eğitmek için gereken hesaplama gücünün üst sınırı.
- Düzenli risk değerlendirmesi ve siber güvenlik testleri zorunlu.
- Ciddi olayları Avrupa Yapay Zekâ Ofisi'ne bildirme zorunluluğu var.
Hangi Şirketler Etkileniyor?
Burada kritik bir ayrım var: model geliştiren ile model kullanan.
Kısacası: modeli siz geliştirmeseniz de, o modeli kullanarak ne yaptığınız sizin sorumluluğunuzda.
Ağustos 2025'ten İtibaren Ne Değişti, Ne Hâlâ Belirsiz?
- Teknik dokümantasyon ve model kartı gereksinimleri aktif
- Avrupa Yapay Zekâ Ofisi denetim yetkisini kullanmaya başladı
- Büyük model sağlayıcıları uyum süreçlerini açıklamaya başladı
- Sistemik risk eşiğinin nasıl güncelleneceği netleşmedi
- Açık kaynaklı modellerin tam olarak nasıl değerlendirileceği tartışmalı
- Üçüncü taraf denetim mekanizmaları henüz olgunlaşmadı
Hexis Perspektifi
Madde 51–56'ya çoğunlukla teknik bir uyum meselesi olarak bakılıyor: dokümantasyon yap, model kartı yayınla, eşiği geç ya da geçme. Bu bakış açısı eksik.
Bu maddeler aslında şunu soruyor: sisteminizin altında ne var ve bunu biliyor musunuz?
Bir şirket GPAI tabanlı bir ürün kullanıyorsa, o modelin sınırlılıklarını, eğitim verisi politikasını ve olası başarısızlık modlarını anlamadan gerçek bir insan denetimi kuramaz. Dokümantasyon bir son nokta değil, başlangıç noktası.
Hexis bu yükümlülüklere "yönelim" olarak yaklaşıyor. Kurallar değişse de, altındaki soru değişmiyor: sisteminizi yönetebilmek için onu yeterince anlıyor musunuz?
Sonuç
GPAI kuralları, AI governance'ın neden sadece yüksek riskli sistemlerle sınırlı kalamayacağını gösteriyor. Kullandığınız temel modeller de bir yönetim çerçevesi gerektiriyor.
Başlangıç noktası, kullandığınız GPAI tabanlı araçların dokümantasyonunu talep etmek ve kendi sisteminizin bu model üzerinde ne yaptığını belgelemek.
GPAI kapsamına girip girmediğinizi belirledikten sonra, EU AI Act uyum kontrol listesi ile yükümlülüklerinizi adım adım takip edebilirsiniz.