Adeta ders niteliğinde! Samsung çalışanlarından 'yok artık' dedirten ChatGPT skandalı

Tüm dünyanın konuştuğu ChatGPT isimli sohbet robotu (chatbot) yapay zeka alanında ve genel olarak teknolojide yeni bir çağ başlattı. Ancak bu yapay zeka destekli sohbet robotunu kullanırken dikkat edilmesi gereken çok şey var; hassas ve önemli bilgileri paylaşmamak gibi.
Görünüşte ChatGPT, bir dizi iş görevi için yararlı olabilecek bir araç gibi olabilir. Ancak sohbet robotundan önemli notları özetlemesini veya çalışmalarınızı kontrol etmesini istemeden önce, ChatGPT'yle (ve benzeri yapay zeka destekli sohbet robotlarıyla) paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta belki de diğer kullanıcılara verilen cevaplarda ortaya çıkabileceğini bilmekte fayda var.
İşte bu küçük bilgi, birkaç Samsung çalışanının gizli bilgileri sohbet robotuyla paylaşmadan önce muhtemelen bilmediği bir şeydi ve çalışanlar bir skandala imza attı.
HASSAS VERİLERİ CHATGPT'YE VERDİLER
The Economist Korea'nın haberine göre, Samsung'un yarı iletken bölümünde çalışan bazı mühendisler, ChatGPT'yi kullanmaya başladıktan kısa bir süre sonra en az üç defa gizli bilgileri yapay zeka aracına sızdırdı. Bir çalışanın, sohbet robotundan hassas veritabanı kaynak kodunu hatalara karşı kontrol etmesiniistediği, bir başka kişinin bir kod optimizasyonu talep ettiği ve bir diğer çalışanın da kayıtlı bir toplantıyı ChatGPT'ye vererek düzenlemesini istediği ortaya çıktı.
Teknoloji sitesi Engadget'in aktardığı bilgilere göre, Samsung, güvenlik hatalarını öğrendikten sonra çalışanların ChatGPT istemlerinin uzunluğunu bir kilobayt veya 1024 karakterlik metinle sınırladı. Şirketin ayrıca söz konusu üç çalışanı soruşturduğu ve benzer hataları önlemek için kendi sohbet robotunu yapmaya çalıştığı ortaya çıktı.
CHATGPT'NİN SAHİBİ OPENAI KULLANICILARI UYARIYOR
Aslında ChatGPT'nin veri politikası, kullanıcılar devre dışı bırakmadığı sürece sistemin aracı eğitmek için soruları ve talepleri kullandığını açıkça belirtiyor. Yapay zeka aracının geliştiricisi OpenAI şirketi, 'geçmiş kısmından belirli sorular / talepler silinmediği için' kullanıcıları ChatGPT'yle gizli bilgileri paylaşmaması için uyarıyor.
Öte yandan, ChatGPT'de kişisel olarak tanımlayıcı bilgilerden kurtulmanın tek yolu hesabınızı silmektir ve bu dört hafta kadar sürebilen bir işlemdir.
Samsung çalışanlarının yaptığı bu inanılmaz hata, belki de tüm çevrim içi (internet) faaliyetlerinizde, sohbetlerinizde yapmanız gerektiği gibi, sohbet robotlarını kullanırken neden dikkatli olmanız gerektiğini gösteriyor. Verilerinizin nereye varacağını asla tam olarak bilemezsiniz.
(Engadget)