OpenAI’de hizalama sorumlusu ve ‘Superalignment’ ekibinin başkanı Jan Leike, öncelikleriyle ilgili endişelerini dile getirerek şirketten ayrıldı. Bir dizi sosyal medya paylaşımında, OpenAI liderliğinin yapay zeka güvenliğinden ziyade ürün geliştirmeye daha fazla yöneldiğini belirterek istifasını duyurdu. Leike, kaynakların tahsisinde hayal kırıklığı yaşadığını ifade ederek, insanlardan daha akıllı makinelerin geliştirildiği bir ortamda YZ güvenliğinin önemini vurguladı.
Eş zamanlı İstifalar
Eş zamanlı olarak OpenAI’nin baş bilim insanı ve ‘Superalignment’ ekibinin eş lideri Ilya Sutskever de istifasını sundu. Bu kilit isimlerin ayrılması, yapay zeka tarafından sunulan varoluşsal riskleri azaltmaya ve süper zeki yapay zekayı kontrol etmek için çözümler formüle etmeye odaklanan ‘Superalignment’ ekibinin dağılmasına yol açtı.
OpenAI, CEO Sam Altman’ın geçici olarak görevden alındığı ve Başkan Greg Brockman’ın başkanlığını kaybettiği Kasım 2023’teki yönetim krizinden bu yana iç yeniden yapılanma sürecinden geçiyor. Ancak ekibin dağılmasına rağmen OpenAI, John Schulman’ın liderliğinde uzun vadeli YZ riskleri üzerine araştırmaların devam edeceğini teyit etti.
Güvenlik Konusu
Uzmanlar, gelişmiş YZ modellerini piyasaya sürmeye çalışan OpenAI’nin güvenlik konusundaki kararlılık derecesini tartışırken, şirket bu gelişmelerin ardından incelemelerle karşı karşıya kaldı. Kısa süre önce, insanlarla daha insani bir şekilde etkileşime giren ve gizlilik ve siber güvenlikle ilgili etik sorunları gündeme getiren yeni bir “multimodal” yapay zeka modeli olan GPT-4o’yu tanıttı.
Yaşanan kargaşaya rağmen OpenAI, insanlığın yararı için güvenli bir şekilde AGI yaratma hedefini yineliyor. Altman, Leike’nin katkılarını takdir etti ve OpenAI’nin YZ güvenliğine olan bağlılığını vurgulayarak bu konuda daha fazla çalışma yapılacağını garanti etti. Böylece, önemli istifalar ve şirket içi yeniden yapılanmanın ortasında bile OpenAI, gelişmiş YZ modellerindeki gelişimini sürdürürken YZ güvenliğine öncelik verme konusundaki duruşunu koruyor.