OpenAI’nin CEO’su Sam Altman, şirketin çıkış anlaşmalarında yer alan ve hisse senetlerinin iptal edilebileceğini ima eden tartışmalı maddelerle ilgili endişeleri giderdi. Altman, önceki çıkış belgelerinin bir özelliği olan bu maddenin bir hata olduğunu vurguladı. OpenAI bu maddeyi kullanmadı ve Altman maddenin herhangi bir kazanılmış öz sermayeyi etkilemeyeceğini taahhüt etti. Hatanın tüm sorumluluğunu kabul eden Altman, bunun farkında olması gerektiğini itiraf etti ve eski çalışanların bu nedenle duydukları endişeleri giderme sözü verdi.
Altman’ın Açıklaması Ne Anlama Geliyor?
Altman’ın açıklaması, OpenAI’de, şirkette uyumdan sorumlu olan Jan Leike’nin de aralarında bulunduğu bir dizi istifanın ardından geldi. Leike, ayrılışının başlıca nedeni olarak yapay zeka güvenliği pahasına ürün geliştirmeye odaklanılmasını gösterdi. Hisse senedi iptal maddesi, amacı ve olası kötüye kullanımı konusunda kuşku uyandırmış ve Altman’ın OpenAI’nin gelecekte ilgili sorunların ortaya çıkmasını önlemek için standart çıkış evraklarını değiştirdiğini kabul etmesine yol açmıştı.
Ayrılmalar, yapay zeka topluluğunu OpenAI’nin iç stratejilerini ve önceliklerini incelemeye itti. Eleştirmenler, ‘Superalignment’ ekibini feshettikten ve işlevlerini şirket içindeki diğer araştırma projelerine entegre ettikten sonra kuruluşu gelişmiş YZ sistemiyle ilgili endişelere yeterince dikkat etmemekle suçladı.
YZ Güvenliği Önemseniyor
Bununla birlikte, şirket içi yeniden yapılanmaya rağmen, OpenAI hala YZ güvenliğine sıkı sıkıya bağlı. Altman ve OpenAI Başkanı Greg Brockman, güvenlik araştırmalarının gündemlerinin önemli bir parçası olduğunu defalarca vurguladılar. Brockman, ayrılan çalışanların çabaları için minnettarlığını ifade etti ve şirketin güvenlik endişelerini titizlikle karşılamaya devam edeceği konusunda güvence verdi.
Brockman, OpenAI’nin uluslararası yönetişim savunuculuğunun, yapay zeka güvenlik araştırmalarındaki öncü rolünün ve yapay genel zeka (AGI) ile ilişkili riskler ve fırsatlar konusunda farkındalığı artırma çabalarının altını çizdi. AGI’nin güvenli bir şekilde geliştirilmesi ve yaygınlaştırılması yolunda ilerlemenin, güvenlik önlemlerinin ve denetiminin sürekli olarak geliştirilmesini gerektirdiğini kabul etti.