Merve Hickok, “Yapay zeka sistemleri, yüz tanıma sistemleri koyu tenli insanlar için halen büyük hatalar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor. Kontrollü ve güvenli olmadan kullanılan yapay zeka sistemleri hasta tedavilerinde ciddi tanı farklarına yol açabiliyor" dedi.

ABD merkezli Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, TBMM Yapay Zeka Araştırma Komisyonu toplantısında sunum yaptı. Hickok, yapay zeka sistemlerinin insan hayatının her alanına dokunduğunu ve sistemlerin kanuni çerçeveye uymaları gerektiğini söyledi. Hickok, "Yapay zekanın vaatlerinden hepimiz yararlanmak istiyoruz; ama bunun için sistemi doğru anlamamız gerekiyor. Bunun neden önemli olduğunu göstermek için son birkaç senedir öne çıkan manşetleri bir araya getirdim. Mesela yapay zeka sistemleri; kadınlara, yaşlılara, engellilere, etnik ve dini azınlıklara karşı daha ön yargılı ve negatif kararlar veriyor. Yapay zeka sistemleri, yüz tanıma sistemleri koyu tenli insanlar için halen büyük hatalar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor. Kontrollü ve güvenli olmadan kullanılan yapay zeka sistemleri hasta tedavilerinde ciddi tanı farklarına yol açabiliyor. Devletlerin kullandığı bazı yapay zeka sistemleri insanların hayatlarını altüst edebiliyor. Bunun bir örneği Hollanda'da yaşandı. Hollanda Vergi Kurumu tarafından kullanılan bir algoritma binlerce insanı, ağırlıkla göçmenleri yanlışlıkla vergi kaçakçısı olarak işaretledi. Binlerce insan bu nedenle iflas etti, aileleri parçalandı ve bu skandal sonunda Hollanda Hükümetinin de istifasına kadar gitti. Benzer skandalları ABD, Avustralya, İsveç ve Fransa'nın kamu kurumlarında da görüyoruz" diye konuştu.

'YAPAY ZEKA BİLİNCİNİN OLMAYACAĞINI DÜŞÜNÜYORUM'

Hickok, üretken yapay zeka sistemlerine bakmak gerektiğini söyleyerek, "Mesela ChatGPT kullanıyorsanız ve bir soru soruyorsunuz, size verdiği cevap aslında sorunuzu anladığı için değil ya da verdiği cevabın sorumluluğunu, nüansını, konunun genel anlamını anladığı için değil; aslında arka planda verdiği cevap, bir sonraki kelimeyi nasıl tahmin ederim. Cümleyi çok hızlı bir şekilde oluşturuyor; ama arka planda yaptığı, o cümleyi oluşturacak kelimelere karar vermek. Örneğin, 'Bugün hava güzel' dediğinde, 'Bugün' kelimesini kullandıktan sonra, 'Hava' kelimesini, sonra, 'Güzel' kelimesini tek tek tahmin ederek yapıyor. Sistem verdiği cevabın anlamını, sonuçlarını ya da konunun genel anlamını biz insanlar gibi anlayabilecek bir noktada değil. Halihazırdaki en gelişmiş yapay zeka mimarisi; OpenAl, DeepSeek, Claude tüm bunların hepsi benzer teknolojileri kullanıyor ve bir sonraki kelimeyi tahmin ediyorlar. O yüzden bilinçleri yok; ama çok hızlı bir şekilde cevap verdikleri için ve büyük veri setlerini kullandıkları için anlıyormuş gibi cevap veriyorlar. Çok ciddi kapasiteye sahipler; ama ben şahsen yapay zekanın, şu andaki mimariyle, teknik yaklaşımlarıyla bilincinin olmayacağını düşünüyorum" değerlendirmesinde bulundu.

SpaceX, 4 astronotu Uluslararası Uzay İstasyonu'na gönderdi SpaceX, 4 astronotu Uluslararası Uzay İstasyonu'na gönderdi

'BU SİSTEMLER YASAKLANSIN'

Bazı yapay zeka sistemlerinin yasaklanması gerektiğini aktaran Hickok, bu sistemlerin; insanların yüz, göz, parmak, yürüyüş şekli veya politik, sosyoekonomik, dini ya da kimlikleri ile ilgili kararlar verebildiğini kaydetti. Hickok, "Bunun en bilinen uygulaması Çin'in Uygur vatandaşları üzerinde kullandığı, 'Biometric categorisation' sistemleri. Yüz ve hareket verilerine bakarak, 'Uygur mudur değil midir', 'Tehlikeli midir değil midir', 'Çin'e karşı mıdır değil midir', 'Politik düşüncesi nedir' gibi, bu tarz kararlar veren sistemler var. Biz bunun yasaklanması gereken bir sistem olduğunu düşünüyoruz. Benzer şekilde, 'Emotion analysis' dediğimiz; yüz ve fiziksel verilerinize bakarak sinirli misiniz, agresif misiniz, mutlu musunuz, aklınıza gelebilecek herhangi bir duyguyu analiz etmeye çalışan sistemler var. Her iki sistem, bilimsel bazlı olmayan sistemler. Tamamen şirketlerin ya da devletlerin kötü niyetle kullanılabileceği, insanları baskı altında tutmak için kullanabileceği sistemler. Mesela biz senelerdir, 'Bu sistemler yasaklansın' diyoruz. Avrupa Birliği, bu iki sistemi yasakladı ve ciddi şekilde engelledi. Benzer şekilde, Birleşmiş Milletler Eğitim, Bilim ve Kültür Teşkilatı (UNESCO) tavsiyelerine baktığımızda aynı yasaklar öne plana çıkıyor. Eğer 4-5 sene önce bize, 'Yasaklar hakkında uluslararası bir konsensüs olacak mı?' diye sorsaydınız, 'Hayır' derdik; ama insanlar yapay zeka sistemlerinin negatif etkilerini, şirketlerin ve bazı ülkelerin bunları nasıl kötü amaçlı kullanabileceğini görüyor. O yüzden, şimdi bu yasaklarla ilgili daha fazla ortak anlayış var" diye konuştu. (DHA)

Kaynak: DHA