Çözüm

Yapay zekanın ön yargılı olduğunu kanıtlayan Biyometrik Ayna deneyi

Yapay zekaya alışma sürecini çoktan atlatıp her şeyimizi emanet etmeye başladık bile. Fikir alışverişinde bulunduğumuz chatbot’lar, düşünce okuyan robotlar, katil olup olmadığımızı “tahmin eden” kameralar derken yapay zekayı içimize kadar soktuk. Ama bir şeyi unuttuk: Yapay zekanın da her zaman doğruyu söyleyemeyeceğini.

Örneğin Çin’de artık yapay zekaya dayalı bir izleme sistemi mevcut. Söz konusu sistem işverenlerin, çalışanların duygularını anlık olarak takip etmesini sağlıyor. İşçi şapkalarına veya kasklarına yerleştirilen hafif sensörler, kullanıcının beyin dalgası verilerini bir bilgisayara kablosuz olarak iletiyor. Ardından, yapay zeka algoritmaları, anksiyeteye ya da öfkeye işaret edebilecek “aykırı” durumları tarıyor.

Peki bu sistemleri geliştirenler kim? Biz insanlar. Yeni biriyle tanıştığında saniyeler içinde hüküm veren, o insanın yaşına, cinsiyetine, küpesine, tokasına bakarak kafasında çoktan bir şeyler canlandıran biz insanlar. Dolayısıyla geliştirdiğimiz teknolojinin de böyle olmadığını kim söyleyebilir?

Melbourne Üniversitesi’ndeki araştırmacılar da yapay zekanın bu “kusurlu” yanına dikkat çekiyor. Gerçekleştirdikleri Biyometrik Ayna deneyiyle yapay zeka etiğini sorguluyorlar.

Biyometrik Ayna, bir kişinin yüzünü analiz ederek yaş, ırk ve algılanan çekicilik seviyesi de dahil olmak üzere, bunlarla ilgili 14 karakter özelliği çıkaran bir yapay zeka algoritması olarak öne çıkıyor.

Araştırmacılar sisteme bunu öğretmek için gönüllülerden fotoğraflarına baktıkları insanların karakteri hakkında çıkarımlarda bulunmasını istediler. Onlarca gönüllü ve binlerce fotoğraftan sonra yapay zeka için bir referans noktası oluşturmuş oldular. Gönüllülerden gelen bilgiler öznel olduğu için, yapay zeka da doğal olarak öznel sonuçlar sergileyecekti. Örneğin gönüllülerin sakallı insanların daha güvenilmez olduğunu söylemesi Biyometrik Aynanın da sakallı insanları bu doğrultuda yargılayacaktı.

Nitekim sonuçlar beklendiği gibi oldu. Yapay zeka, sistemin önünde sadece birkaç saniye bekleyen gönüllüleri tarayarak karakter özelliklerini yansıttı. Daha sonra gönüllülere bu bilgileri başkalarıyla paylaştığında nasıl hissedeceğini sordu. Veya sırf “güvenilmez” sınıfına soktuğu için iş bulamadığında? Ya da “aşırı agresif” diye sınıflandırdığı için güvenlik güçleri tarafından takibe alındığında?

Biyometrik Ayna deneyiyle ilgili konuşan baş araştırmacı Niels Wouters, yapay zekanın sınırlarını sorgulamaya açmayı hedeflediklerini söyledi. “Mahremiyet ve kitlesel gözetleme konusundaki tartışmaları teşvik ederek, yapay zekanın ardında yatan etiğin daha iyi anlaşılmasına katkıda bulunmayı umuyoruz.”

Biyometrik Ayna gibi ön yargılı bir sistem, yapay zeka daha yaygın olarak kullanıldığında ve giderek daha önemli kararlar almaya başladığında daha büyük sonuçlar doğurabilir. Ve bu sadece gelecekte gerçekleşecek bir olasılık değil; Çin örneğinde bahsettiğimiz gibi bugünün sistemlerinde de örnekleri mevcut. Araştırmacılar gelecekteki sistemlerin aynı kusurları içermemesi için çalışmaysa devam ederken, toplumun da ön yargılı yapay zekaya karşı mesafeli ve sorgulayıcı yaklaşması gerekiyor. Biyometrik Ayna deneyi de tam olarak bunu amaçlıyor.

Paylaş

gelecek.tech

Teknolojinin dokunduğu her konuda ilham alabileceğiniz teknolojik yaşam platformu.

İlgili yazılar

Close