OpenAI o1’ın nasıl düşündüğünü öğrenmeye çalışan kullanıcılar, platformdan engellenebilir

Sorgulara yanıt vermeden önce düşünen model serisi OpenAI o1’dan sizlere daha önce bahsetmiştik. Şirketin aktardıklarına göre; o1’in muhakeme becerisine katkıda bulunanlardan biri de CoT veya düşünce zinciri olarak bilinen bir makine öğrenimi yaklaşımı kullanılması. Ancak paylaşılan son bilgilere göre; OpenAI, o1 serisinin nasıl düşündüğünün ortaya çıkmasını pek istemiyor.

OpenAI, büyük dil modelinin nasıl düşündüğünü ortaya çıkarmaya çalışan kullanıcılara yasaklanabileceklerine dair uyarılar gönderiyor. Sosyal medyadaki paylaşımlara göre, kullanıcılar, ChatGPT ‘ye yaptıkları jailbreak odaklı taleplerin “güvenlik önlemlerini aşmaya çalıştıkları” için işaretlendiğini bildiren e-postalar alıyor. E-postada şu ifade yer alıyor: 

“Bu politikanın daha fazla ihlal edilmesi, muhakemeye sahip GPT-4o’ya erişimin kaybedilmesine neden olabilir”

Bazı kullanıcılar “muhakeme izi” (reasoning trace) terimini kullanmanın bu sonucu doğurduğunu belirtiyor. Kullanıcılardan bazıları ise “muhakeme” kelimesini kullanmanın bile OpenAI’nin sistemlerini uyarmak için yeterli olduğunu belirtiyor. Kullanıcılar hala Strawberry’nin düşünce sürecinin bir özetini görebiliyor, ancak bu özet ikinci bir yapay zeka modeli tarafından bir araya getirilmiş durumda.

Bir blog yazısında OpenAI, düşünce zincirini gizlemesinin nedeni sesli düşünürken güvenlik politikalarına uygun olmayan şeyler söylemesi durumunda yapay zekasının nasıl düşündüğüne dair bir filtre koymasına gerek kalmaması. Bu şekilde, geliştiriciler yapay zekanın perde arkasındaki “ham” düşünce sürecini güvenle görebilecek. Bu önlem aynı zamanda şirketin rekabet avantajını korumasına yardımcı oluyor. Ancak bu yaklaşım, yapay zeka modellerini daha güvenli hale getirmek için hacklemeye çalışan programcılar için bir sorun teşkil ediyor.

Leave A Comment