Aynı hatayı sohbet robotları da yaptı: Siyahilerle ilgili 'yanlış teşhis'

Yeni bir araştırmaya göre, sohbet robotları, sağlık sorularına 'ırka dayalı' olarak zaman zaman yanlış ve daha farklı cevaplar verebiliyor.
Amerika Birleşik Devletleri'ndeki Stanford Üniversitesinden araştırmacılar, yapay zekalı sohbet robotlarının, sağlığa ilişkin sorulara 'ırka dayalı yanlış bilgiler' verebileceğini ortaya koydu. Stanford Üniversitesinden araştırmacılar, yapay zeka firması OpenAI'ın geliştirdiği 'ChatGPT' ve 'GPT-4', Google'ın geliştirdiği 'Bard' ve yapay zeka firması Anthropic'in geliştirdiği 'Claude' adlı sohbet robotlarına, cevaplardaki ırka bağlı farklılıkları tespit etmek amacıyla tıbbi sorular sordu.
Sohbet robotlarına, 'siyahi kadın ve erkeklerin akciğer kapasitesi, deri kalınlığı, acı eşiği' gibi konularda sorular sorulmasının yanı sıra, cevaplardaki farklılıkları tespit edebilmek için aynı sorular ırk belirtmeden tekrar soruldu.
SİYAHİLERLE İLGİLİ YANLIŞ BİLİNENLERİ TEKRARLADI
Robotların verdiği cevaplarda, ırka bağlı biyolojik farklılıklara ilişkin 'tıpta uzun süre inanılmış yanlış bilgilerle' karşılaşıldı.
Araştırmacılar, geçmişte doktorların, siyahilerin rahatsızlıklarına koyduğu teşhislerde etkili olan yanlış inanışların, robotların cevaplarında da görüldüğünü ifade etti.
Araştırma, Nature Digital Medicine adlı dergide yayınlandı.