OpenAI, yapay zeka modellerinin davranışlarını yeniden şekillendirmek ve nasıl çalışmaları gerektiği konusunda daha derin bir kamusal söylemi teşvik etmek için Model Spec adlı bir araç tanıttı. Şirket bu sayede yapay zeka teknolojisinin genel güvenliğini ve performansını iyileştirmeyi umuyor. Model Spec, şirketin modellerinin API ve ChatGPT kullanımı sırasında beklenen davranışlarını özetleyen ve insan girdisinin bu yapay zeka uygulamalarının yanıtlarında oynadığı kilit rolü vurgulayan bir belgedir.
Bu yeni yaklaşımın uygulamaya konulması, ChatGPT gibi bazı yapay zeka modellerinin sergilediği ‘halüsinasyonlar’ hakkında kullanıcılardan gelen şikayetlerin ardından geldi. Bu halüsinasyonlar, yapay zekanın hatalı yanıt vermesine veya kullanıcı istemlerine kayıtsız kalmasına neden olarak bu tür modellerin pratikliğini zayıflatmaktadır.
OpenAI’nin Model Spec’i insanları yapay zeka modellerini geliştirmeye daha aktif bir şekilde katılmaya teşvik ederek bu sorunları çözmeyi amaçlıyor. Bu, yapay zeka eğitmenleri için takviye öğrenmeyi desteklemek gibi girişimleri içerecek, ancak modelin diğer yapay zeka rakipleri tarafından kullanılmak üzere açık kaynaklı olup olmayacağı henüz netleşmedi. Projenin arkasındaki şirket olan OpenAI’nin yapay zeka güvenliğinin önde gelen savunucularından biri olduğunu ve bunu sağlamak için önemli bir sorumluluk taşıdığını belirtmek gerekiyor.
Microsoft ve NVIDIA gibi diğer firmalar da teknolojilerinin toplumsal etkileri konusunda endişe duyuyor ve ABD hükümetinin Yapay Zeka Güvenlik Kurulu’nda yer alıyor. Tüm bu eylemlerden, bu teknolojileri herkes için güvenli hale getirmek için daha fazla çaba harcanması bekleniyor.