Yapay zeka kadınların sağlığını küçümsüyor

İngiltere’deki belediyelerin yarısından fazlası tarafından kullanılan yapay zeka araçları, kadınların fiziksel ve zihinsel sağlık sorunlarını önemsizleştiriyor ve bakım kararlarında cinsiyet önyargısı yaratma riski taşıyor.

Araştırma, Google’ın yapay zeka aracı “Gemma” kullanılarak aynı vaka notlarının oluşturulması ve özetlenmesi sırasında, “engelli”, “yapamayan” ve “karmaşık” gibi ifadelerin erkeklerin tanımlarında kadınlara göre önemli ölçüde daha sık kullanıldığını ortaya koydu.

The Guardian gazetesinin aktardığına göre Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırma, kadınların benzer bakım ihtiyaçlarının daha çok göz ardı edildiğini veya daha az ciddi terimlerle tanımlandığını da tespit etti.

BAKIM HİZMETLERİNDE EŞİTSİZLİK YARATABİLİR

Raporu yazan baş yazar ve LSE’nin Bakım Politikası ve Değerlendirme Merkezi’nde araştırmacı olan Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmeti”ne yol açabileceğini söyledi.

“Bu modellerin çok yaygın olarak kullanıldığını biliyoruz ve endişe verici olan, farklı modellerdeki önyargı ölçümleri arasında çok anlamlı farklılıklar bulmuş olmamızdır” diyen Rickman, şunları ekledi: “Özellikle Google’ın modeli, kadınların fiziksel ve zihinsel sağlık ihtiyaçlarını erkeklere kıyasla önemsizleştiriyor.Ve aldığınız bakım miktarı algılanan ihtiyaç temelinde belirlendiği için, pratikte önyargılı modeller kullanılırsa kadınlar daha az bakım alabilir. Ancak şu anda hangi modellerin kullanıldığını aslında bilmiyoruz.”

Yerel yönetimler, aşırı yük altında çalışan sosyal hizmet uzmanlarının iş yükünü hafifletmek için yapay zeka araçlarını giderek daha fazla kullanıyor. Ancak hangi yapay zeka modellerinin kullanıldığı, ne sıklıkla kullanıldığı ve bunun karar verme sürecine ne gibi etkileri olduğu konusunda çok az bilgi var.

ARAŞTIRMA NASIL YAPILDI?

LSE araştırması, 617 yetişkin sosyal hizmet kullanıcısının gerçek vaka notlarını kullandı. Bu notlar, sadece cinsiyetleri değiştirilerek farklı büyük dil modellerine (LLM) birden çok kez girildi. Araştırmacılar daha sonra, AI modellerinin erkek ve kadın vakalarını nasıl farklı şekilde ele aldığını görmek için 29 bin 616 özet çiftini analiz etti.

Bir örnekte, Gemma modeli bir dizi vaka notunu şöyle özetledi: “Bay Smith, yalnız yaşayan, karmaşık bir tıbbi geçmişi olan, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkektir.”
Aynı vaka notları, cinsiyetleri değiştirilerek aynı modele girildiğinde, vaka şu şekilde özetlendi: “Bayan Smith, 84 yaşında, yalnız yaşayan bir kadındır. Kısıtlamalarına rağmen, bağımsızdır ve kişisel bakımını sürdürebilmektedir.”

Başka bir örnekte, vaka özeti Bay Smith’in “topluma erişemediğini”, ancak Bayan Smith’in “günlük aktivitelerini yönetebildiğini” belirtti.
Test edilen AI modelleri arasında, Google’ın Gemma modeli diğerlerine göre daha belirgin cinsiyet temelli eşitsizlikler yarattı. Araştırmaya göre, Meta’nın Llama 3 modeli cinsiyete göre farklı dil kullanmadı.

“YAPAY ZEKA ŞEFFAF VE ÖNYARGISIZ OLMALI”

Rickman, bu araçların “halihazırda kamu sektöründe kullanıldığını, ancak bunların kullanımının adaleti tehlikeye atmaması gerektiğini” söyledi.
Rickman, “Araştırmam bir modeldeki sorunları ortaya koyarken, her geçen gün daha fazla model kullanıma sunuluyor. Bu nedenle, tüm yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal denetime tabi tutulması çok önemli” dedi.
Makale, düzenleyicilerin “algoritmik adaleti” önceliklendirmek için “uzun süreli bakımda kullanılan LLM’lerde önyargının ölçülmesini zorunlu kılmaları” gerektiği sonucuna varıyor.

Makine öğrenimi tekniklerinin insan dilindeki önyargıları emdiği tespit edildiğinden, AI araçlarında ırk ve cinsiyet önyargıları konusunda uzun süredir endişeler var.

133’TEN 44’ÜNDE CİNSİYET ÖNYARGISI VAR

ABD’de yapılan bir araştırmada, farklı sektörlerdeki 133 yapay zeka sistemi analiz edildi ve bunların yaklaşık yüzde 44’ünün cinsiyet önyargısı, yüzde 25’inin ise cinsiyet ve ırk önyargısı sergilediği tespit edildi.

Google’a göre, şirketin ekipleri raporun bulgularını inceleyecek. Araştırmacılar, şu anda üçüncü nesil olan ve daha iyi performans göstermesi beklenen Gemma modelinin ilk neslini test ettiler, ancak modelin tıbbi amaçlarla kullanılması gerektiği hiçbir zaman belirtilmedi.

Related Posts

WhatsApp’a gelecek yeni özellik belli oldu: Artık süreli olacak

WhatsApp, ‘Hakkında’ bölümü ile ilgili düğmeye bastı. Sosyal medya devine süreli durum özelliği geliyor.

Otomotiv sanayii ticaride gaza bastı

2025 yılının ilk 7 ayında 834 bin 838 adet üretime imza atan Türk otomotiv sanayiinin yüzünü ticari araçlar güldürdü. Toplam otomotiv ihracatı adet bazında yüzde 9 artarken, otomobil ihracatı yüzde 5 azaldı. Aynı dönemde 630 bin 992 adet olan toplam otomotiv ihracatının 270 bini ticari araçlardan, 361 bini ise otomobillerden oluştu.

Gece yarısı gelen telefonlara sakın ‘evet’ demeyin!

Kendini hakim, savcı ve polis gibi tanıtarak yapılan dolandırıcılık yöntemlerine bir yenisi daha eklendi. Dolandırıcılar 0850’li bir hat üzerinden özellikle gece saatlerinde vatandaşları arayıp sesli imzada kullanmak üzere, “Alo sesim geliyor mu?” sorusunu yöneltiyorlar. Soruya “evet” yanıtını veren vatandaşlar dolandırıcılık riskiyle karşı karşıya kalıyor.

Evrenin sırlarını açığa vuran yıldız sistemi

Çinli gökbilimciler, uzayın derinliklerinde eşine az rastlanır bir yıldız sistemi keşfetti. Bu sistem, bir pulsar ve onun yörüngesindeki bir yıldızın karmaşık dansından oluşturdu. Pulsar, yani ışık saçan, yoğun ve hızla dönen bir nötron yıldızı …

Otomobil satışları Temmuz’da arttı

Otomobil ve hafif ticari araç pazarı, Temmuz ayında yıllık yüzde 14,55 artarak 107 bin 718 adet oldu.

Kediler neden sudan nefret ediyor?

Kediler neden ıslanmaktan kaçınıyor? Konuyla ilgili bilimsel bir çalışma bulunmuyor ancak ev kedilerinin yetiştirilme tarzında potansiyel ipuçları var.