Aynı hatayı sohbet robotları da yaptı: Siyahilerle ilgili 'yanlış teşhis'

Düzenleyen: / Kaynak: Anadolu Ajansı
- Güncelleme:
Aynı hatayı sohbet robotları da yaptı: Siyahilerle ilgili 'yanlış teşhis'

TEKNOLOJİ Haberleri  / Anadolu Ajansı

Yeni bir araştırmaya göre, sohbet robotları, sağlık sorularına 'ırka dayalı' olarak zaman zaman yanlış ve daha farklı cevaplar verebiliyor.

Amerika Birleşik Devletleri'ndeki Stanford Üniversitesinden araştırmacılar, yapay zekalı sohbet robotlarının, sağlığa ilişkin sorulara 'ırka dayalı yanlış bilgiler' verebileceğini ortaya koydu. Stanford Üniversitesinden araştırmacılar, yapay zeka firması OpenAI'ın geliştirdiği 'ChatGPT' ve 'GPT-4', Google'ın geliştirdiği 'Bard' ve yapay zeka firması Anthropic'in geliştirdiği 'Claude' adlı sohbet robotlarına, cevaplardaki ırka bağlı farklılıkları tespit etmek amacıyla tıbbi sorular sordu.

Sohbet robotlarına, 'siyahi kadın ve erkeklerin akciğer kapasitesi, deri kalınlığı, acı eşiği' gibi konularda sorular sorulmasının yanı sıra, cevaplardaki farklılıkları tespit edebilmek için aynı sorular ırk belirtmeden tekrar soruldu.

SİYAHİLERLE İLGİLİ YANLIŞ BİLİNENLERİ TEKRARLADI 

Robotların verdiği cevaplarda, ırka bağlı biyolojik farklılıklara ilişkin 'tıpta uzun süre inanılmış yanlış bilgilerle' karşılaşıldı.

Araştırmacılar, geçmişte doktorların, siyahilerin rahatsızlıklarına koyduğu teşhislerde etkili olan yanlış inanışların, robotların cevaplarında da görüldüğünü ifade etti.

Araştırma, Nature Digital Medicine adlı dergide yayınlandı.

Düzenleyen:  - TEKNOLOJİ
Kaynak: Anadolu Ajansı
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Sonraki Haber Yükleniyor...