Microsoft’un uzun çabalar sonucu ürettiği ve Twitter’da kullanıcılarla İngilizce sohbet etmesini beklediği yapay zeka botu TAY, beklentilerin aksine insanlarla güzelce sohbet etmemiş ve sadece 24 saat içerisinde küfürlü ve ırkçı paylaşımları nedeniyle sonlandırılmak zorunda kalınmıştı.
Kullanıcılar üzerinde büyük bir şaşkınlığa neden olan bu cevaplardan bazılarında TAY, kadınlara ve Yahudilere hakaret etmiş, Meksika sınırına duvar örülmesi gerektiğini belirtmişti.
Algoritmaların gösterdiği ırkçı davranışların en bilinenlerinden bir diğeri de bir bilgisayar firmasının geliştirdiği kameranın çekimleri sırasında meydana gelmişti..
Aynı iş yerinde çalışan iki iş arkadaşı tarafından çekilen videoda kameradaki yüz tanıma sistemi beyaz tenli olan Wanda Zamen’in yüzünü tanıyıp takip ederken, siyah tenli Desi Cryer’ın yüzünü tanımamış ve hareketlerini de takip etmemişti.
Güzellik yarışması için geliştirilen “Beauty AI” ırkçı ön yargılar göstermiş ve daha çok beyaz tenli kişileri öncelemişti.
Avustralya ve Hong Kong merkezli bir şirket tarafından geliştirilen “Beauty AI” binlerce başvuru arasından sadece 6 siyahi başvuruyu kabul etmiş en çok tercihini ise beyaz tenli kişiler arasında kullanmıştı.
Yapay zekanın eğitiminde kullanılan verilen ırkçılık ve ayrımcılık konusunda önemli bir konumda bulunuyor.
Verilerini daha çok Kuzey Amerika bölgesinden alan ve büyük oranda beyaz Amerikalıların çalıştığı Silikon Vadisi’ndeki yapay zeka sistemleri, Asyalı ve Afrikalı insanlar üzerinde denendiğinde büyük ırkçı sorunlara neden olabiliyor.
Hukuk alanında da kullanılması planlanan yapay zeka aynı zamanda ön yargılı verilerle beslendiği takdirde siyahi insanları daha fazla suçlu bulması gibi durumlara da neden olabiliyor.
Uzmanlar bu sebeple yapay zeka algoritmasının taraflılığı ve ayrımcılık gibi durumların önüne geçmek için eğitim verilerinin, azınlıkları dezavantajlı duruma düşürmeyecek şekilde hazırlanması ve düzenlenmesi gerektiği konusunda uyarıyor.