Yasaklanan ChatGPT ile ilgili OpenAI’dan ciddi yapay zeka açıklaması

OpenAI, popüler yapay zeka mesajlaşma robotu ChatGPT’nin cevaplarındaki kişisel veri gizliliği ve olgusal hatalar hakkındaki şüpheleri gidermek amaçlı açıklamalar yaptı.

ChatGPT’nin geliştiricisi OpenAI, yapay zekanın korunması ve ürünlerini nasıl güvenli tutmaya çalıştığı konusunda kamuoyuna açıklamalar yaptı. Hatırlayacağınız üzere ChatGPT abonelerinin bir kısmının kişisel verileri çok basit bir yanlışlık sonucunda ele geçirilmişti. ChatGPT, bu durumun ardından İtalya’da engellenmiş ve Avrupa’nın bazı ülkelerinde inceleme altına alınmıştı.

Geçtiğimiz hafta İtalya, gizlilik ile alakalı korkularını sebep olarak sunarak ChatGPT kullanımını engelleyen ilk batılı ülke olmuştu. OpenAI, mevcut kurallara uyduğu konusunda emin olduğunu dile getirmiş olsa da İtalya’nın hamlesi, diğer ülkelerin de davayı takip etme ve yapay zekanın güvenliğinden emin olunana kadar kullanımını kısıtlama ihtimalini yükseltti. Şirketin internet sitesindeki blog paylaşımı, son birkaç ayda ciddi ilerlemeler kaydeden yapay zeka modelleri hakkındaki endişeleri durultabilir.

GPT-4 piyasaya sürülmeden önce 6 ay boyunca test aşamasında geçti

Gönderide OpenAI, herhangi bir yeni sistemi halka arz edilmeden önce harici uzmanlar kullanarak titizlikle incelendiğini ve geliştirmeler yapmak için insan geri bildirimi ile pekiştirici öğrenmeyi kullandığını dile getirdi. Şirket, son modeli GPT-4’ü piyasaya sunmadan önce 6 ay süresince incelediğini iddia ediyor ve düzenleme çağrısı yapıyor: ‘’ Güçlü yapay zeka sistemlerinin titiz güvenlik değerlendirmelerine tabii tutulması gerektiğine inanıyoruz. Bu tür uygulamaların benimsenmesini sağlamak için düzenlemeye ihtiyaç vardır ve bu bu tür düzenlemenin alabileceği en iyi biçim konusunda hükümetlerle aktif olarak çalışıyoruz.’’

OpenAI, özenle yürüttüklerini söylediği kapsamlı inceleme ve testlere rağmen laboratuvarda öğrenebileceklerinin kısıtlı olduğunu, bu sebeple tüm yararlı veya kötüye kullanım noktalarını öngöremediklerini dile getirdi. Şirket bu sebeple halka açık testlerin bu tür sistemlerin gelişimi açısından bir zorunluluk olduğunu belirtiyor. OpenAI, hizmetlerinin aksi yönde kullanımını izleyebileceğini ve gerçek dünya verilerine dayanarak hemen harekete geçebileceklerini aktarıyor.

Kötüye kullanım devam edecek

OpenAI, ChatGPT gibi teknolojilerinden kaynaklanan ciddi risklere karşı incelikli politikalar geliştirirken aynı zamanda kullanıcıların bunları faydalı ve kötü amaçlar için kullanmasına da müsaade etmiş oluyor.

ChatGPT’ye yaş doğrulama özelliği geliyor

Şirket ayrıca 18 yaşından büyük veya 13 yaşından küçük, ebeveyn onayı olan abonelerin hizmetlerine erişebilmesi için doğrulama seçeneklerini değerlendirdiğini belirtti. İtalya’nın yasak kararında bir doğrulama seçeneğinin olmamasınında altı çiziliyordu.

OpenAI, yeni modeli GPT-4’ün nefret dolu, taciz ve şiddet içeren içerik taleplerine cevap verme olasılığının yüzde 82 daha az olduğunu belirtiyor. Blog paylaşımında GPT-4’ün gerçeğe dayalı içerik üretme olasılığının ise GPT-3,5’a göre yüzde 40 daha fazla olduğununda üzerinde duruluyor. Fakat OpenAI, çıktıların her zaman doğru olmayağı konusunda da olabildiğince şeffaf olmaya çalıştıklarını da belirtiyor.

OpenAI’ın bu açıklamalarının açıkçası korkuları biraz olsun azaltmadığını da söylemek gerekiyor. Paylaşılan blog gönderisinde kullanıcıların mesaj verilerinin eğitim verisi olarak kullanılabileceği açıkça dile getiriliyor. Evet, bu verilerin reklam veya kazanç amacıyla kullanılmayacağı söyleniyor fakat soru işaretleri giderilmiş görünmüyor.

Dijital Gündem

BEDAVA
İNCELE