Ağustos 2025. EU AI Act'in en tartışmalı bölümü yürürlüğe girdi: Madde 51–56, genel amaçlı yapay zekâ modellerini düzenleyen kuralları getiriyor. Peki bu kurallar kimi kapsıyor, ne gerektiriyor ve Türk şirketler için ne anlama geliyor?

GPAI Nedir, Neden Önemli?

GPAI, "General Purpose AI" — genel amaçlı yapay zekâ. ChatGPT, Claude, Gemini, Llama gibi modeller bu kategoriye giriyor. Bu modellerin ayırt edici özelliği tek bir görev için değil, çok sayıda farklı uygulama için kullanılabilmeleri.

EU AI Act bu modelleri ayrı bir kategoride ele alıyor çünkü riski değerlendirmek çok daha karmaşık. Bir işe alım yazılımının riski bellidir; ama her ortamda çalışabilen bir dil modelinin riski bağlama göre değişir.

Madde 51–56 Ne Getiriyor?

Bu maddeler iki katmanlı bir yükümlülük yapısı kuruyor: tüm GPAI modelleri için temel gereksinimler ve "sistemik riskli" modeller için ek yükümlülükler.

Tüm GPAI Modelleri — Temel Gereksinimler
Sistemik Riskli Modeller — Ek Yükümlülükler

Hangi Şirketler Etkileniyor?

Burada kritik bir ayrım var: model geliştiren ile model kullanan.

Model Geliştirenler
Doğrudan yükümlü
OpenAI, Google, Anthropic, Meta gibi şirketler bu kapsamda. Türkiye'de GPAI modeli geliştiren şirket sayısı henüz çok az, ama bu değişiyor.
Model Kullananlar
Dolaylı olarak etkileniyor
Bir Türk şirketi ChatGPT API'sini ürününe entegre ettiyse, kullandığı modelin bu kurallara uyup uymadığını bilmek zorunda. Yüksek riskli bir uygulama geliştiriyorsa, altındaki modelin dokümantasyonunu ve sınırlılıklarını anlaması gerekiyor.

Kısacası: modeli siz geliştirmeseniz de, o modeli kullanarak ne yaptığınız sizin sorumluluğunuzda.

Ağustos 2025'ten İtibaren Ne Değişti, Ne Hâlâ Belirsiz?

✓ Yürürlüğe Girenler
  • Teknik dokümantasyon ve model kartı gereksinimleri aktif
  • Avrupa Yapay Zekâ Ofisi denetim yetkisini kullanmaya başladı
  • Büyük model sağlayıcıları uyum süreçlerini açıklamaya başladı
→ Hâlâ Belirsiz Olanlar
  • Sistemik risk eşiğinin nasıl güncelleneceği netleşmedi
  • Açık kaynaklı modellerin tam olarak nasıl değerlendirileceği tartışmalı
  • Üçüncü taraf denetim mekanizmaları henüz olgunlaşmadı

Hexis Perspektifi

Hexis · Governance Perspectives

Madde 51–56'ya çoğunlukla teknik bir uyum meselesi olarak bakılıyor: dokümantasyon yap, model kartı yayınla, eşiği geç ya da geçme. Bu bakış açısı eksik.

Bu maddeler aslında şunu soruyor: sisteminizin altında ne var ve bunu biliyor musunuz?

Bir şirket GPAI tabanlı bir ürün kullanıyorsa, o modelin sınırlılıklarını, eğitim verisi politikasını ve olası başarısızlık modlarını anlamadan gerçek bir insan denetimi kuramaz. Dokümantasyon bir son nokta değil, başlangıç noktası.

Hexis bu yükümlülüklere "yönelim" olarak yaklaşıyor. Kurallar değişse de, altındaki soru değişmiyor: sisteminizi yönetebilmek için onu yeterince anlıyor musunuz?

Sonuç

GPAI kuralları, AI governance'ın neden sadece yüksek riskli sistemlerle sınırlı kalamayacağını gösteriyor. Kullandığınız temel modeller de bir yönetim çerçevesi gerektiriyor.

Başlangıç noktası, kullandığınız GPAI tabanlı araçların dokümantasyonunu talep etmek ve kendi sisteminizin bu model üzerinde ne yaptığını belgelemek.

Hexis'in yapay zeka yönetişim araçları sisteminizin risk sınıfını ve yönetim olgunluğunu belirlemenize yardımcı olmak için tasarlandı.
EU AI Act Risk Sınıflandırma Aracı →

GPAI kapsamına girip girmediğinizi belirledikten sonra, EU AI Act uyum kontrol listesi ile yükümlülüklerinizi adım adım takip edebilirsiniz.