Yapay Zekadan Endişelendiren Muvaffakiyet: İstenmeyen ayrıntıları Bile Verebiliyor!

babanne

New member
Yapay Zekadan Endişelendiren Muvaffakiyet: İstenmeyen ayrıntıları Bile Verebiliyor! Yeni araştırmalar, röntgen sinemalarını tahlil eden yapay zekanın (AI) hastaların ırkını şaşırtan derecede doğrulukla tanımlayabildiğini, fakat tıpkı manzarayı inceleyen insanların bunu yapamayacağını buldu. Besin ve İlaç Yönetimi (FDA), tıbbi kullanım için daha fazla algoritmayı onaylarken, araştırmacılar AI’nın ırksal önyargıların devam etmesine niye olabileceğinden telaş duyuyorlar. Bilhassa, makine tahsili modellerinin, çok derecede bozuk ve düşük çözünürlüklü manzaralardan bile ırkı nasıl tanımlayabildiğini tam olarak çözememekten telaşlı olduklarını söylüyorlar.

Arxiv’de yayınlanan çalışmada, milletlerarası bir hekim grubu, derin öğrenme modellerinin tıbbi manzaralardan ırkı nasıl tespit edebildiğini araştırdı. Özel ve kamuya açık göğüs röntgenlerini ve ırk ve etnik kökene ait kullanıcının kendi bildirdiği dataları kullanarak, birinci olarak bu algoritmaların ne kadar yanlışsız olduğunu değerlendirdiler, akabinde da mekanizmayı araştırdılar.

Grup, araştırmalarında şu biçimde yazdı: “Model bir hastanın ırkını tanımlayabiliyorsa, bu, modellerin direkt bu bakılırsav için eğitilmemesine karşın, ırksal ayrıntıları tanımayı dolaylı olarak öğrendiğine işaret ediyor.

Daha evvelki çalışmalarda olduğu üzere, makine tahsili algoritmalarının hastaların Siyah, Beyaz yahut Asyalı olup olmadığını yüksek doğrulukla varsayım edebildiğini buldular. Takım çabucak sonrasında algoritmanın bu bilgiyi toplayabilmesi için birkaç muhtemel yolu test etti. Yapılan tüm incelemeler kararında, yapay zekânın ırkı düşük kaliteli imajlarda bile gerçek olarak varsayım ettiği, lakin bunu nasıl başardığının hala anlaşılamadığı ortaya çıktı. Lakin, istenmeden de olsa sağlanan bu ek bilginin muhtemel problemler çıkarabileceğine de işaret ediliyor.

Araştırmanın muharrirleri, “Tıbbi manzara tahliliyle ilgilenen tüm geliştiricilerin, düzenleyicilerin ve kullanıcıların derin öğrenme modellerinin kullanmasını son derece dikkatli bir biçimde düşünmelerini şiddetle tavsiye ediyoruz” diyor ve ekliyor: “Irk bilgisi özel olarak sağlanmamış olsa bile, makinenin bunu ortaya koyuyor olması, mevcut tıbbi uygulamada var olan ırksal eşitsizliklerin sürdürülmesine yahut hatta daha da kötüleştirmek için direkt bir sistem olarak ortaya çıkmasına niye olabilir.