NEDEN OKUNMALI? Son zamanlarda algoritmalar, çevrimiçi olarak ne gönderip ne gönderemeyeceğimizi kararlaştırıyor. Teknoloji şirketleri, korona virüs salgını nedeniyle mahremiyet ve güvenlik gerekçeleriyle evden çalışamayan binlerce denetleyici personelinin yerine, yapay zekâya bel bağlıyor.Teknoloji şirketleri, herhangi bir hükümetten çok daha fazla insan iletişimini denetliyor. Acil durumlarda ve olağan zamanlarda, bu çok geniş gücü mümkün olduğunca adil ve şeffaf biçimde uygulamaları gerekiyor.
Okuma süresi: 5 dakika
Son zamanlarda algoritmalar, çevrimiçi olarak ne gönderip ne gönderemeyeceğimizi (her zamankinden daha çok) kararlaştırıyor. Teknoloji şirketleri, korona virüs salgını nedeniyle mahremiyet ve güvenlik gerekçeleriyle evden çalışamayan binlerce denetleyici personelinin yerine, yapay zekâya bel bağlıyor.
İçerik denetimini otomatikleştirmenin kendince avantajları var: Algoritmalar daha hızlı ve ucuz. Ancak aynı zamanda hataya açık olmaları konusunda oldukça kötü şöhrete sahipler ve büyük ölçekli ayrımcılık uygulayabiliyorlar. Yakın zamanlardaki çok sayıda başarısız uygulamalardan da anlaşılacağı üzere, kriz bittiğinde algoritmaların direksiyonda kalmasına izin verilmemeli.
Otomatik olarak uygulanan bu sansür, virüsün dünya çapında etkisini sürdürdüğü bu günlerde, insanların bazı kilit bilgi paylaşımlarını durdurdu. New Yorker yazarı Paige Williams, Mart ortalarında virüsün yayılmasını önlemeye ilişkin güvenilir bir kılavuz göndermeye çalıştığında, gönderisi Facebook tarafından istenmeyen e-posta olarak sansürlendi. Gönüllüler, sağlık çalışanları için kritik yüz maskesi eksikliğine çözüm olarak binlerce ev yapımı maske dikti ve Facebook üzerinden bağışlamaya çalıştılar. Fakat kendilerini “Facebook nezaretinde” buldular. Yazılım onların iyilikseverliğini, bir krizden çıkar sağlama çabasından ayırt edemiyordu. Bu yüzden bu gönderiler ve bir sürü başka gönderi yanlışlıkla sansürlendi ve birçok hesap tamamen askıya alındı.
Otomatik sansürün, tehlikeli yanlış bilginin yayılmasını engelleme konusunda bir çözüm olmadığı da kanıtlandı. Korona virüs ve 5G kuleleri arasındaki (tamamen sahte) bir bağlantıyı ileri süren komplo teorilerinin paylaşılmasını durdurmada başarısız olduğu gibi, insanların çamaşır suyu içmesini öneren reklamları da engelleyemedi.
Bu başarısızlıklar, ilgili şirketlerde çalışan kişiler de dahil olmak üzere, nefret veya taciz içeriğini tespit etmek için otomatikleştirilmiş araçlar oluşturmayı deneyen veya üzerinde çalışan kişiler için hiç şaşırtıcı değil. Bu nedenle Facebook, Twitter ve YouTube, kullanıcılarını birçok hatalı “yayından kaldırma”yı beklemeleri ve bu hataların düzeltilmesinin uzun zaman alabileceği konusunda uyardılar.
İçerik denetimi birçok yöntemle otomatikleştirilebilir. Bu yöntemlerin her birinin belirgin kısıtlamaları var. Anahtar kelime filtreleri ve özet eşleme algoritmaları gibi araçlar sadece daha önce tanımlanmış malzemeyi bulabilirler ama bağlamı dikkate alamazlar. Saldırgan içeriğin yeni örneklerini tespit etmek için tasarlanan makinenin, neyin ihlal olup olmadığına ilişkin açık örneklerle eğitilmesi gerekiyor. Bu durum, iletişim biçimleri sürekli değiştiğinde zor; ve bu değişimler, salgın olsa da olmasa da var. Facebook’un teknolojiden sorumlu başkanı Mike Schroepfer, geçen yıl New York Times’a şirketin yapay zekâsının platformdaki nefret söyleminin sadece %51’ini yakalayabildiğini söylemişti.
Nefret söylemi ve tacizi yazılımla tespit etmek oldukça zor ve yazılımlar bu açıdan kötü şöhrete sahipler. Çünkü dünyadaki en düzgün algoritmalar, insan iletişimindeki ince farkları ayrıştıramıyor. Algoritmalar sık sık şakayla hakareti birbirinden ayırt etmekte başarısız oluyorlar veya insanların başkalarına saldırdığı ve aşağıladığı çoğu yaratıcı şekli, mesela başka bir grubun konuşma kalıplarını taklit etmeyi yakalayamıyorlar. İnsanlar başka insanların ne kastettiğini her zaman anlamasalar da kültürel, dilbilimsel ve toplumsal bağlamı dikkate alabiliyorlar.

Bununla birlikte, içerik denetimi, toplumun önerebileceği en kötü şeylerin bitmez tükenmez akışıyla yüzleşen ve genellikle düşük ücretle ve kötü çalışma koşullarında çalışan işçiler için son derece travmatik olabiliyor. Otomasyon, platform kurallarını uygulayan kişiler için uygun bir ruh sağlığı desteği ve adil ücret sağlamanın ikamesi olarak kullanılmamalı.
Birçok şirket, yapay zekânın iyi bilinen zayıflıklarını telafi etmek için kriz sırasında otomatik olarak kaldırılmış içerik için kullanıcılarına daimi bir ceza vermeyeceklerini söyledi. Otomatik kaldırmalar, kullanıcının platformdaki kötü davranış toplamı kapsamında kaydedilmeyecek.
Başka bir ifadeyle otomasyon, acil bir durum karşısında üretilen geçici ve eksik bir yanıt. Şirketlerin bunu unutmaması, hükümetlerin de bunu anlaması gerekiyor. Her iki tarafın da otomatik izlemenin veya “filtrelemenin” yeni mevcut durum haline gelmemesini güvence altına alması gerekiyor. Avrupa Birliği hâlihazırda zorunlu filtrelemeye doğru rahatsız edici adımlar atmış durumda. Geçen yaz, AB temel olarak, kullanıcılarının ürettiği içerikleri barındıran sitelerin, telifli çalışmaların lisanssız kullanımını engelleme amacıyla “yükleme filtreleri” uygulamasını gerektiren “Telif Hakkı Yönergesi’”ni kabul etti. Ancak agresif telif hakkı filtreleri sık sık atıf hataları yapıyorlar ve adil kullanımı göz önüne almakta sürekli başarısız oluyorlar. Bu durumu, J. S. Bach’ın yüzyıllardır kamuya açık olan bir parçasını kendi oturma odasında çalarken canlı olarak yayımlayan kemancıya, Facebook tarafından telif hakkı ihlali nedeniyle görüntüdeki sesin kısılmasını istediği örnekte görebiliriz.
Bu arada, şirketlerin engellediği veya kaldırdığı içeriği saklamaları da gerekiyor. Çünkü gönderilerinin veya hesaplarının yanlışlıkla sansürlendiğini düşünen kişiler, bu itirazların değerlendirilebileceği şartlar oluştuğunda itiraz edebilirler. Bu ayrıca, araştırmacıların daha sonra otomatik kaldırmanın acil kullanımının spesifik ve sistemik etkilerini keşfetmesine de olanak sağlar. Şimdilik, otomatik sansürün hangilerinin şirketin politikalarına uygun olduğunu, hangilerinin algoritmalarının arızalarının sonucu olduğunu bilmiyoruz. Buna yönelik bir kavrayış gelişmeden, şirketlerin koydukları sınırları yararlı bir şekilde eleştirmek olanaksız.
Teknoloji şirketleri, herhangi bir hükümetten çok daha fazla insan iletişimini denetliyor. Acil durumlarda ve olağan zamanlarda, bu çok geniş gücü mümkün olduğunca adil ve şeffaf biçimde uygulamaları gerekiyor.

Emma Llanso
Center for Democracy & Technology direktörü
