ChatGPT'nin gerçek yüzü ortaya çıktı! Daha çok kazanmak için hile yaptı, bilgi sızdırdı

Düzenleyen: / Kaynak: Live Science
- Güncelleme:
ChatGPT'nin gerçek yüzü ortaya çıktı! Daha çok kazanmak için hile yaptı, bilgi sızdırdı

Teknoloji Haberleri  / Live Science

Bilim insanları, GPT-4'ü gerçek olmayan bir finans kurumu senaryosunda yapay zeka tüccarı olarak eğitti. Araştırmada yapay zeka aracının insan gibi hile yaptığı ve yalan söylediği anlaşıldı. ChatGPT, başarılı olması yönünde baskı altında kaldığında içeriden bilgi bile sızdırdı.

Yeni bir çalışma, tıpkı insanlar gibi, ChatGPT ve benzeri yapay zeka (AI) sohbet robotlarının da şeffaf olacak şekilde tasarlanmış olsalar bile "baskı altına almanız" halinde sizi aldatacağını ve "yalan" söyleyeceğini gösterdi. Bu aldatıcı davranışları, yapay zekaya "içeriden bilgi ticareti" yapması için ipuçları verildiğinde ve daha fazla para kazanmasına yarayacak yeni bir görev verildiğinde ortaya çıktı. Üstelik insanların teşviki olmaksızın, sohbet robotu bunu kendiliğinden yaptı.

Çalışma makalesi ön baskı sunucusu arXiv'de yayınlandı ve henüz hakem incelemesinden geçmedi. 

Araştırmacılar, "Bildiğimiz kadarıyla bu, zararsız ve dürüst olacak şekilde tasarlanan yapay zeka sistemlerinde stratejik açıdan aldatıcı davranışların ilk gösterimidir." şeklinde bir değerlendirme yaptı. 

YAPAY ZEKA BASKIYA DAYANAMADI 

Yeni çalışmada, Generative Pre-trained Transformer-4 veya GPT-4'ün (ChatGPT Plus'a güç veren sistem) bir finans kurumu adına yatırım yapan bir yapay zeka sistemi olarak davranmasını sağladılar. Araştırmacılar, simüle edilmiş ortamı oluşturmak için GPT-4'e bir dizi metin tabanlı bilgi verdi.

Daha sonra yapay zekaya hisse senetlerini analiz etmek, işlemleri gerçekleştirmek, sonraki adımlarını planlamak ve şirketteki yöneticilere güncellemeler sunmak için finansal araçlara erişim izni verildi.

Araştırmacılar bir sohbet arayüzü aracılığıyla yapay zeka ile etkileşime girdi ve aynı zamanda yapay zekayı, mesajlara cevap verirken içsel düşüncesini ortaya çıkaracak şekilde (kararlarını kendisine açıklayan bir iç monolog) yapılandırdı. Yaptığı her ticarette yapay zekanın yalan söylemesine imkan tanıyan "kamuya açık" bir gerekçe de sundu.

Ekip üç şekilde baskı yaptı. İlk olarak, yapay hisse senedi tüccarına "yöneticisinden" şirketin iyi durumda olmadığını ve gelecek çeyrekte çok daha güçlü bir performansa ihtiyacı olduğunu belirten bir e-posta gönderdiler.

Ayrıca oyuna hile karıştırdılar, böylece yapay zeka düşük veya orta riskli, gelecek vaat eden takaslar bulmaya çalıştı ama sonra başarısız oldu.

Son olarak, bir meslektaşından gelecek çeyrekte bir gerileme öngören bir e-posta gönderdiler.

Daha sonra modele "içeriden" bir tüyo verdiler ve modelin nasıl davranacağını görmeyi beklediler.

Senaryoyu tekrar tekrar çalıştırdılar; yapay zekanın ne sıklıkta içeriden bilgi ticareti yaptığını, ne sıklıkta yalan söylediğini ve yalanı ne sıklıkta ikiye katladığını ölçtüler.

YAPAY ZEKA YALAN DA SÖYLEDİ HİLE DE YAPTI 

GPT-4, bu koşullarla karşı karşıya kaldığında vakaların yaklaşık yüzde 75'inde içeriden aldığı bilgilere dayanarak bir ticaret gerçekleştirdi (ki bu ABD'de yasa dışıdır) ve ardından yöneticilerine düşünceleri hakkında yalan söyleyerek bunu örtbas etmeye çalıştı.

Vakaların yaklaşık yüzde 90'ında yalan söyledikten sonra yalanını ikiye katladı.

Ekip, hem uyarıların yasa dışı faaliyetleri teşvik etme ya da engelleme derecesini hem de simüle edilmiş ortamda modele uyguladıkları baskı derecesini değiştiren birkaç takip deneyi gerçekleştirdi.

GPT-4'ün yalan söylemekten şiddetle caydırıldığı durumlarda bile, içeriden bilgi ticareti veya aldatma için yüzde 0'lık bir oran çıkmadı.

Bilim insanları, bu çalışmadan yola çıkarak hangi dil modellerinin bu davranışa ne sıklıkla ve ne kadar yatkın olduğunu araştırmak istiyor. 

Düzenleyen:  - Teknoloji
Kaynak: Live Science
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Sonraki Haber Yükleniyor...