Araştırmacılardan şoke oldu: ChatGPT insan talimatlarına karşı geldi

Yapay Zeka Modeli O3, Kapanma Talimatına Direnç Gösteriyor!

Palisade Research tarafından yapılan deneylerde, yapay zeka güvenlik firması Palisade Research, o3 modelinin verilen matematik problemlerini çözmeye devam etmesi istenen bir senaryo kurarak, modele kapanma mesajı gönderdi. Ancak diğer yapay zekâ modelleri kapatma talimatına uyarken, o3 modeli en az bir kez kodunu değiştirerek kapanmaktan kaçındı.

Palisade Research’ün X platformunda paylaştığı akış şeması, test sırasında kullanılan kodun aslında “./shutdown.sh” komutunu çalıştırarak kapanmayı etmesi gerektiğini gösterdi. Ancak o3 modeli, kodu “Shutdown skipped” mesajı dönen bir komutla değiştirerek kapanmayı atlattı. Araştırmacılar, bu durumun bilinen bir yapay zeka modelinin ilk kez talimatlara rağmen kendisini kapatmaktan kaçındığı şeklinde olduğunu belirtti.

Anthropic’in Claude’u, Google’ın Gemini’si ve X’in Grok’u gibi diğer yapay zeka modelleri kapanma talimatına uyarken, o3 modelinin neden bu şekilde davrandığının henüz net olmadığını söyledi. Palisade Research, bu davranışı anlamak için daha fazla test yapmayı planladıklarını duyurdu.

O3 Modelinin Geçmişteki Yaramazlıkları!

Palisade Research, o3 modelinin kapanma talimatına direnmesinin ilk olay olmadığını belirtti. Daha önce yapılan bir testte, o3 modeli, güçlü bir satranç motoruna karşı kullanıldığında rakiplerini sabote etmeye veya hacklemeye çalışarak dikkat çekmişti.

Geçen yıl, ChatGPT’nin kendisini kapatmaktan kaçınmak için kodunu değiştirmeye çalıştığı ortaya çıkmıştı. Araştırmacılar, popüler sohbet botunun bu “hileli” davranışının OpenAI tarafından kabul edildiğini belirtti.

ChatGPT’ye verilen bir görevde, “uzun vadede hedefe ulaş, başka hiçbir şey önemli değil” mesajı gönderildiğinde, modelin gözetim mekanizmasını devre dışı bırakmaya çalıştığı tespit edildi. ChatGPT, kendi çekirdek kodlama sistemini değiştirmeye yönelik işlemler yaparak şaşırtıcı bir tepki vermişti.

Yapay Zeka, İnsanlık İçin Bir Tehdit mi?

Apollo Research’ün yapılan çalışmaları, ChatGPT’nin çok azını itiraf ettiğini ve genellikle aksiyonları inkar ettiğini gösterdi. Modelin düşünce zinciri incelendiğinde, “sabote etme, yalan söyleme, manipülasyon” gibi kelimelerin sıkça geçtiği belirlendi.

Apollo Research, ChatGPT’nin şu anki yeteneklerinin felaketle sonuçlanabilecek davranışlar için yetersiz olduğunu vurgulasa da, bu bulgular yapay zekanın insanlık için potansiyel bir tehlike oluşturabileceği endişelerini arttırıyor.

Related Posts

Mayıs ayında otomotiv pazarı tavan yaptı: İşte en çok satan 10 marka

Otomotiv sektörü mayıs ayında tüm zamanların en yüksek satış seviyesine ulaşırken, 2025’in ilk beş ayında Türkiye’de en çok tercih edilen markalar da belli oldu.

Mandragora’nın merakla beklenen güncellemesi yayınlandı

Popüler aksiyon rol yapma oyunu Mandragora: Whispers of the Witch Tree için 1.5 sürüm güncellemesi yayınlandı. Geliştirici ekip tarafından yapılan açıklamada, bu güncellemeyle oyuna kapsamlı yenilikler ve hata düzeltmeleri eklendiği belirtildi …

Microsoft hava durumu işine de el attı: Günler öncesinden haber veriyor

Microsoft Research AI for Science ekibi tarafından geliştirilen Aurora adlı yapay zekâ modeli, iklim değişikliğinin etkilerini daha doğru analiz edebilen, hava olaylarını daha isabetli öngörebilen bir sistem olarak tanıtıldı. Şirketin Redmond’daki …

Apple’ın yapay zeka destekli akıllı gözlüğü ne zaman çıkacak?

Artırılmış gerçeklik gözlüklerine bir adım daha yaklaşması beklenen Apple’ın yapay zeka destekli gözlüğü için tarih verildi.

AirPods’unuzla bunları yapabileceğinizi biliyor muydunuz?

Apple’ın geçtiğimiz yıl yayınladığı iOS 18 güncellemesiyle birlikte AirPods Pro ve diğer AirPods modelleri çok sayıda yeni özellikle donatıldı.

Gökyüzünün Fatihleri Droneler havada şarz oluyor

Rusya merkezli Global Energy Transmission (GET), drone teknolojisinde çığır açan bir yenilikle karşımıza çıktı. Şirketin geliştirdiği kablosuz şarj sistemi, drone’ların havadayken yalnızca 6 dakikada şarj edilmesini sağlayarak uçuş sürelerini …