Yüz Tanıma Teknolojileri Neden Tehlikelidir?

mm
710 Görüntüleme
12 Dk Okuma Süresi

Teknoloji şirketleri, yüz tanıma teknolojilerinin sağlayacağı kolaylıklar üzerinde duruyorlar. Yüz tanıma; özellikle akıllı ev, akıllı fabrika, akıllı şehir, akıllı cezaevi vb hikayelerde önemli bir yere sahip. Otomatik yüz tanımlama ile insanlar istedikleri şeylere daha hızlı erişebilecekler ve kişiye özel hizmetler artacak. Bu teknoloji yardımıyla bir mağazaya girebilir, istediğimizi alabilir ve bunların hepsinin bizi tanıyan kameralar tarafından hesabımıza yansıtılmasını sağlayabiliriz. Artık parola girmeyeceğiz, metroda kart basmayacağız, yüzümüz sürücü ehliyetimizin yerine geçecek, bir yere girerken kimlik göstermeye gerek kalmayacak. Otomatik yüz tanıma insanlara kolaylık, verimlilik ve güvenlik vadediyor.

Ayrıca dijital altyapılar saldırıya uğradığında, pek çok teknoloji uzmanı ilk çözüm olarak sistemleri yüz tanıma gibi biyometrik doğrulama yöntemleriyle güçlendirmeyi öneriyor. Oysa yüz tanıma teknolojileri, çoğu zaman sunum ve demoların yarattığı masum görüntünün çok ötesinde riskler barındıran, son derece tehlikeli bir teknolojidir.

Yüz tanıma teknolojileri, görünmez bir teknolojidir. İngiliz filozof Jeremy Bentham’ın tasarladığı panoptikon adlı hapishane modeli gözetim üzerine kuruludur. Bu modelde, hapishane yetkilileri bir gözetleme kulesinden mahkumları izleyebilir. Ancak mahkumlar kulede gözetleyici olup olmadığını göremez. Bir diğer deyişle, gözetim görünmez ama daima mümkündür. Bu eşitsiz durum ve sürekli izlenme olasılığı mahkûmlarda öz denetim yaratır. Bu bağlamda CCTV kameralar (kapalı devre kamera sistemi), Bentham’ın panoptikonuna benzerler: Görünürler ama aktif olup olmadıkları bilinmez. Fakat yüz tanıma teknolojileri ile gözetim çoğunlukla tam tersini, görünmezliği ve insanları doğal hallerinde izlemeyi tercih eder. Örneğin, bir kameranın yüz tanıma özelliğiyle donatılmış olup olmadığını ona bakarak söylemek olanaksızdır. Yüz tanıma teknolojileri, iktidar ilişkilerini daha dolaylı ve görünmez biçimlerde yeniden üretir.

Yüz tanıma teknolojileri, insanların görünürlüğünü artıran bir teknolojidir. Yüz tanıma teknolojilerinin görünmezliği, insanların görünürlüğünü artırır. Yolda yürürken üzerimizde bir görünmezlik pelerini yoktur. Ama olağanüstü bir şey yapmadıkça veya giymedikçe kimse kafasını çevirip bakmaz. Yüz tanıma teknolojileri ise çalışanların, alışveriş yapanların, yayaların, spor taraftarlarının, eylemlere katılanların bulundukları yerlerdeki görünmezliklerini ortadan kaldırır. Ayrıca bazı yüz tanıma teknolojileri,  insanların yüz ifadelerini kendi bilgileri dışında sürekli izler, ruh halleri ve duygu durumları hakkında kestirimlerde bulunur. Artık kalabalıklar arasındaki sıradan bir insan, kendini izleyen gözlerden kaçamaz. Yüz tanıma teknolojileri, alışveriş yapan birinin yüzünün herhangi bir ürün karşısında duygu belirtisi gösterip göstermediğini analiz etmeye çalışabilir. Böylece gözetleme gücüne sahip olanın, gözetleneni etkileyebilme (davranışlarını sınırlayabilme, belirli doğrultuda hareket etmesi için dürtme, sınırlama gibi) kapasitesi artar.

Yüz tanıma uygulamaları teknolojik çözümcülüğe meyillidir. Andrejevic ve Selwyn (2022), yüz tanıma uygulamalarının çoğunun aslında belirgin verimliliklere veya iyileştirilmiş sonuçlara yol açtığına dair elimizde yeterli kanıt olmadığını savunuyor. Bugüne kadar yüz tanıma teknolojileri kullanılarak bir okul saldırısının önlendiğine dair bir örnek çıkmadı. Yüz tanıma sistemlerinin saldırganları önleme iddiası, sadece daha güvenli okullar görüntüsü sunan bir güvenlik tiyatrosundan öteye gitmez. Nitekim New York eyaleti, mahremiyet endişeleri, ırksal yanlılıklardan kaynaklı yanlışlıklar ve okul saldırganlarının çoğunun izleme listelerinde işaretlenmeyen mevcut öğrenciler olması gibi gerekçelerle 2023’te okullarda yüz tanıma sisteminin kullanımını yasakladı. Teknolojik çözümcülük, silah kontrol yasalarını yeniden düzenlemek yerine sorunu saldırganın tespitine indirgemişti. Benzer şekilde Moskovalı yetkililer, pandemi sürecini yüz tanıma teknolojileri aracılığıyla yönettiklerini iddia etseler de yüz tanıma teknolojileri daha çok politikacıların sosyal bir sorun karşısında ‘bir şeyler yapıyormuş’ gibi bir algı oluşturabilmelerine yardımcı olmaktadır.

Yüz tanıma teknolojilerinde işlev genişlemesine çok sık rastlanmaktadır. Belirli bir amaç için geliştirilmiş bir uygulama daha sonra başka amaçlar için yeniden yapılandırılabilir. Görünürde yararlı uygulamalar bile günlük kamusal ve özel alanlara otomatik izleme, takip etme, sıralama ve engelleme mantığı getirirler. Daha sonra hızla başka (ve başlangıçta öngörülemeyen) uygulamalara yol açma potansiyeli taşırlar. Örneğin, kumarhanelerde yüz tanıma teknolojileri sonuçlarına bağlı olarak sorunlu kumarbazları dışarıda bırakmayı daha sonra VIP misafirleri ve diğer kazançlı yüksek bahisçileri kapıda tanıma takip edebilir. Ama sonrasında yazılımın işlevleri, küçük miktarlarda para harcayan sürekli müşterileri caydıracak biçimlerde de genişletilebilir (Selwyn vd, 2024).

Örneğin İngiltere, savunmasız yaşlı yetişkinler için izleme cihazları geliştirme konusunda uzmanlaşmış bir teknoloji şirketiyle sözleşme imzaladı. Sözleşmeye göre suçla itham edilen göçmenlerin konumunu takip edebilmek için yüz tanıma saatleri üretilecekti. Fakat daha sonra bu teknoloji, göçmenlerin yüzlerini taramaları ve coğrafi konumlarını günde beş defa akıllı saat cihazına kaydetmeleri için kullanılmaya başlandı (age).

Biyometrik veriler, üçüncü kişilerin eline geçebilir. Günümüzde Avrupa ülkelerinin mahremiyet hakkında daha duyarlı olmalarının başlıca nedeni II. Dünya Savaşı deneyimleridir. II. Dünya Savaşı’ndan önce toplanmış nüfus verileri Naziler’in işini oldukça kolaylaştırmıştı. Yakın zamanda benzer bir durum Afganistan’da da yaşandı. ABD güçleri Afganistan’da maaş çeki dolandırıcılığıyla mücadele etmek için iris taramaları, parmak izleri ve yüz görüntülerinden oluşan veri setleri oluşturmuştu. 2021’de ABD Afganistan’dan çekildikten sonra Afgan polisi ve ordu personeline ait biyometrik veriler Taliban rejiminin eline geçti. Bu da Taliban’ın ABD ve diğer batılı güçleri desteklemek için çalışan Afganlar’ı tespit etme kapasitesini artırdı. Devlet kurumlarının topladığı verilerin yanında Clearview gibi şirketlerin sosyal medya sitelerinden ve diğer kaynaklardan topladıkları görüntüler de var. Bu görüntüler, düzenleyici ve kısıtlayıcı yasalar olmaksızın kullanılabiliyor ve el değiştirebiliyor.

Yanlış bir şekilde izlenmek, sadece izlenmekten daha kötüdür. Herhangi bir yanlış tanıma vakası, bu tanımlamaları yapan kurumlar için genellikle önemsiz ve sıradan bir durumdur. Fakat yanlış tanınmanın haksızlığa uğrayan bireyler için yıkıcı sonuçları olabilir. Örneğin, ABD genelinde sadece uygun kişilerin işsizlik yardımlarına erişimini sağlamak için %99,9 başarı oranına sahip bir yüz tanıma yazılımının kullanılması, yine de binlerce hak sahibinin haftalarca temel ödemelerden yoksun kalmasına ve dolayısıyla geçimlerini sağlamakta zorlanmalarına neden oldu (Andrejevic ve Selwyn, 2022).

Yüz tanıma teknolojileri, iddia edildiği gibi kusursuz bir şekilde çalışan bir teknoloji değildir. Yüz tanıma teknolojilerinin lanse edildiği gibi çalışmadığı hakkında çok fazla örnek var. Satıcılarının yapabildiğini iddia ettiklerinin aksine Yüz tanıma teknolojilerinin gerçekte ne yapabildiğini sorgulamak zorundayız. Şu anda kullanılmakta olan yüz tanıma teknolojilerinin doğru çalışmamasının sonuçlarına çok daha fazla dikkat etmemiz gerekiyor. Bu sistemler, olasılıksal kararlar veriyorlar. Diğer veri odaklı süreçlerde olduğu gibi hatalar olabiliyor. Yanlış pozitif ve yanlış negatifler ortaya çıkabiliyor. Yüz tanıma teknolojileri, sıradan bir Filistinli’nin Hamas savaşçısı olarak gözaltına alınmasına neden olabiliyor. Ayrıca bu teknolojilerin yanlış kararları insanların belirli yerlere ve kaynaklara erişimleri engellenebiliyor.

Bunun yanında bir yüz tanıma teknolojileri başarısız olduğunda veya hatalı kararlar verdiğinde, bilgisayarın kararının yanlışlığını kanıtlamak zahmetli ve zaman alıcı olabilmektedir. Ayrıca yüz tanıma teknolojileri, belirli insan gruplarını diğerlerinden daha sık yanlış tanıma eğilimindeler. Özellikle, beyaz olmayan kadınları tanımakta zorlanıyorlar. Ayrıca normalin dışına çıkıldığında (insanlar başörtüsü, peçe veya maske kullandıklarında veya yüzlerine dövme yaptırdıklarında) başarı oranları düşüyor (Selwyn vd, 2024).

Yüz tanıma teknolojilerinin doğruluk oranı koşullara ve eğitiminde kullanılan veri setine bağlı olarak değişir. En iyi senaryo, yüz maskeleri veya başka müdahaleler olmadan düz bir açıyı içeren görüntülerdir. Birçok havaalanındaki iyi aydınlatılmış kameralar ve eşleştirme için kullanılan pasaport fotoğrafları yüz tanıma için idealdir. Fakat asıl sorun ideal olmayan koşullarda da doğru ve güvenilir eşleşmeler yapabilmektir. Bazen yetersiz aydınlatma nedeniyle doğruluk oranları düşer. Bazen de insanların yüzlerini şapka, gözlük, burka veya yüz maskeleriyle kapattığı durumlar olabilir. Bir diğer karmaşıklık da görüntünün canlılığının tespitidir. Sistem, yeni edinilen görüntünün canlı kişiye mi, bir yüzün yüksek çözünürlüklü fotoğrafına mı veya gerçekçi bir lateks maske takan birine mi ait olduğunu tespit etmekte zorlanabilir. Bu tür durumlar, insanlar için zor olmayabilir, ancak hesaplama açısından ciddi zorluklara neden olabilir (Andrejevic ve Selwyn, 2022).

Belirli bir ırk veya yaş grubundan yeterli sayıda fotoğraf içermeyen bir fotoğraf yığını üzerinde eğitilen bir sistem, benzer özelliklere sahip kişileri tanımakta zorluk çekebilir. Bu nedenle, çeşitliliğin yüksek olduğu veri setlerine gerek var. Fakat buralarda farklı tartışmalar ortaya çıkmaktadır. Yüz tanıma modellerini ve algoritmalarını eğitmek ve test etmek için, sistem sonuçlarının karşılaştırılabileceği ve test edilebileceği etiketlere gereksinim vardır. Örneğin, FairFace algoritması bir bireyin siyah, beyaz ya da latin olup olmadığını ayırt edebileceğini iddia ediyor. Fakat latinliğin ırksal bir kategori olmamasının yanı sıra (Latin insanlar herhangi bir ırktan olabilir) bunun yüz hatlarından tespit edilmesi de çok zordur (age).

Yanlılık (bias) sadece istatistiksel bir sorun değildir. Yüz tanıma teknolojilerinin bazı ırkları tanımada yetersiz kaldığı bir sır değildir. Ama temel tartışma konularından biri yüz tanıma teknolojilerinin daha iyi veri uygulamaları ve teknik titizlikle düzeltilip düzeltilemeyeceğidir. Bu da algoritmaların ve yapay zekâ modellerinin kendi başlarına yanlı olmadıkları varsayımına dayanır. Daha iyi veri setleri ile yanlılık sorununun çözülebileceği savunulur. Ama yanlılık sadece veriden kaynaklanmaz. Algoritmik sistemler geliştirilirken verilen çeşitli kararlar da çeşitli yanlılıklar yaratabilir.

Daha önemlisi, bilgisayar bilimcilerin ve sosyal bilimcilerin yanlılıktan söz ederken aslında farklı konulardan söz etmeleridir. Bilgisayar bilimcilere göre yanlılık doğru algoritmalar ve yapay öğrenme modelleri geliştirirken en aza indirmesi gereken veri sorunlarından biridir. Sosyal bilimciler ise algoritmik yanlılığı basit bir veri sorunu olarak görmezler. Bunun hem insan ilişkilerinden hem de bu ilişkileri temsil etmeye ve düzenlemeye çalışan insan-veri ilişkilerinden oluşan sosyoteknik bir sorun olduğunu savunurlar. Bu nedenle sosyal bilimciler için yanlılık, düzeltilebilecek bir şey değildir. Veri odaklı araçlar, kaçınılmaz olarak onları yapan ve kullanan insanların dünya görüşleri kadar kusurlu olacaktır. Sözkonusu araçlar, özellikle daha kapsayıcı sonuçlar ve pozitif ayrımcılık yönünde yanlı olacak şekilde tasarlanmadıkça, mevcut farklılıkları ve adaletsizlikleri artıracaklardır. Bu nedenle, gerekli önlemler alınmazsa yüz tanıma teknolojileri yanlılıkları yeniden üretmekle kalmayacak onları daha da güçlendirecektir (Selwyn vd, 2024).

***

Cin şişeden çıktı. Yüz tanıma teknolojilerini tekrar şişeye hapsetmek çok zor. Ama yüz tanıma teknolojilerinin kullanımını sınırları çizilmiş hesap verebilirlik mekanizmalarıyla düzenlemek ya da bazı yerlerde kullanımını tamamen yasaklamak hâlâ mümkün.

Kaynaklar

Andrejevic, M., & Selwyn, N. (2022). Facial recognition. John Wiley & Sons.

Selwyn, N., Andrejevic, M., O’Neill, C., Gu, X., & Smith, G. (2024). Facial recognition technology: Key issues and emerging concerns. In The cambridge handbook of facial recognition in the modern state (pp. 11-28). Cambridge University Press.

Bu Makaleyi Paylaşın