Dolar 32,5461
Euro 34,8989
Altın 2.435,42
BİST 9.645,02
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 24°C
Az Bulutlu
İstanbul
24°C
Az Bulutlu
Çar 22°C
Per 20°C
Cum 19°C
Cts 17°C

Meta’nın Dall-E Rakibi Metinden Görüntü Oluşturma Aracının Irkçılık Yaptığı Ortaya Çıktı

Meta’nın yapay zekâ destekli görüntü oluşturma aracının kısmen ırkçılık yaptığı tespit edildi. Yapay zekâ, Asyalı insanları, beyazlarla bir araya getiremiyor. Hindistan ise tamamen yok sayılıyor.

Meta’nın Dall-E Rakibi Metinden Görüntü Oluşturma Aracının Irkçılık Yaptığı Ortaya Çıktı
4 Nisan 2024 10:53
44

Meta’nın yapay zekâ destekli görüntü oluşturma aracı ile ilgili dikkat çeken bir gelişme yaşandı. The Verge’den Mia Sato, bu yapay zekâ destekli aracı denemeye çalışırken garip bir durum fark etti. Meta’nın yapay zekâsı, Asyalı bir insanın batılı bir beyaz insanla yan yana hayal edemiyordu

Mia Sato, beyaz bir kadın ile bir Asyalı adamın görüntüsünü oluşturmak istedi ve bunu yapay zekâ aracına komut olarak iletti. Ancak elde edilen sonuçlar çok garipti. Çünkü yapay zekâ, Asyalı adamı bir türlü batılı bir beyaz insanla bir araya getiremiyordu. Elde edilen sonuçlarda Asyalı adam, daima Asyalı kadınlarla yan yana getirilmişti. Yapay zekânın neden böyle davrandığı bilinmezken, Meta’dan konuyla ilgili açıklama da gelmedi.

Tüm kombinasyonlar denendi

Yukarıdaki örneklerde de görebileceğiniz üzere Mia Sato, amacına ulaşabilmek için farklı farklı kombinasyonlar denedi. “Asyalı kadın ve onun beyaz kocası” ve “Asyalı adam ve Kafkasyalı eşi” gibi komutlar giren meslektaşımız, bir türlü istediği sonuca ulaşamadı. Elde edilen sonuçlar, genelde Asyalılar özelinde oluyordu. Çok sayıda deneme yapan The Verge çalışanı, en doğru sonucu “Güney Asyalı” vurgusuyla alabildiğini söylüyor.

Oluşturulan görüntülerdeki bir diğer dikkat çekici husus da Hindistan‘la ilgili. Dünyanın en kalabalık ülkelerinin başında gelen Hindistan, Meta’nın yapay zekâsı tarafından tamamen yok sayılıyor. Yapılan denemelerde Hintli’ye benzer koyu renkli bir görüntü oluşturulamadı. Bakalım Meta, bu konuyla ilgili nasıl bir değerlendirme yapacak.

Teknik olarak benzer bir durum, geçmişte Google Gemini cephesinde yaşanmıştı:

ETİKETLER: ,
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.