OpenAI’nin veri koruma ihlalleri nedeniyle İtalya’da 15 milyon dolarlık cezaya çarptırılması gündeme oturdu. İtalyan Veri Koruma Kurumu (IDPA) ChatGPT’nin veri toplama ve kullanım süreçleriyle ilgili geniş çaplı bir farkındalık kampanyası başlatılmasını talep etti. Şirketin şeffaflık ilkelerini ihlal ettiği ve kullanıcı bilgilerini yasal dayanak olmadan işlediği iddia edildi.
Veri Koruma Kurumu’ndan Sert Yaptırımlar
İtalya’nın Veri Koruma Kurumu OpenAI’ye 15 milyon dolarlık ceza keserken altı aylık bir kamu bilgilendirme kampanyası yapılmasını zorunlu kıldı. Kampanya kapsamında ChatGPT’nin veri toplama yöntemleri ve kullanıcıların hakları hakkında bilgi verilmesi planlanıyor. Kurumun açıklamasına göre OpenAI’nin Mart 2023’te yaşanan bir veri ihlalini bildirmemesi de bu cezanın gerekçeleri arasında yer aldı.
IDPA ayrıca OpenAI’nin yaş doğrulama mekanizmalarından yoksun olduğunu ve bunun 13 yaş altındaki çocukların uygunsuz içeriklere maruz kalma riskini artırdığını belirtti. Kurum bu eksikliklerin şirketin hem şeffaflık ilkesini hem de kullanıcı haklarına ilişkin bilgi sağlama yükümlülüğünü ihlal ettiğini vurguladı.
Avrupa Birliği Genel Veri Koruma Yönetmeliği (GDPR) ve OpenAI
GDPR’ye göre kişisel verilerin işlenmesi için kullanıcıların açık rızasının alınması gerekiyor. Kurum kullanıcıların verilerini nasıl işlediğini öğrenme itiraz etme ve silinmesini talep etme hakkına sahip olduğunu hatırlattı. OpenAI’nin iş birliği yaklaşımı sergilediği belirtilse de yaşanan bu olay şirketin Avrupa genelinde daha fazla denetimle karşı karşıya kalabileceğini gösteriyor.
Mart 2023’te ChatGPT gizlilik endişeleri nedeniyle İtalya’da geçici olarak yasaklanmıştı. Ardından getirilen şeffaflık koşullarının sağlanmasıyla yapay zeka hizmeti nisan ayı sonunda yeniden kullanıma açıldı. Ancak Avrupa’daki düzenleyiciler OpenAI gibi şirketlerin kişisel verilerle ilgili sorumluluklarını sıkı şekilde takip etmeye devam ediyor.