NEDEN OKUNMALI? Kasım 2022’de kullanıma sunulan yapay zekâ tabanlı diyalog programı ChatGPT, hemen her soruya verecek bir yanıt bulabiliyor ve bu yanıtları doğal ve akıcı bir dille formüle edebiliyor. Bu yolla üretilen metinlerin, insanların yazdığı metinlerle yarışıp yarışamayacağı ve rekabetin hangi tür metinlerde yaşanacağı tartışması gündemdeki yerini koruyor.
Okuma süresi: 6 dakika
İnsana Her Zamankinden Daha Fazla İhtiyaç Var
ChatGPT’ye gözü kapalı güvenmemek gerekir, diye uyarıyor Hollanda’dan NRC Handelsblad: “İşbirliği devam etmeli. İnsanın muhakeme gücü, yaratıcılığı ve ahlaki yargıları, bu yeni teknolojiyle birlikte daha da önem kazanıyor. İçerik, uygulamanın kimin denetiminde ve mülkiyetinde olduğu, muhtemel toplumsal ve ekonomik sonuçları gibi sorunlara eleştirel yaklaşmak gerekiyor: Uygulamayı kullanan herkes gibi yasa koyucularla denetleme makamlarının da sosyal medyanın ortaya çıktığı zamanlardakinden daha dikkatli olması gerekiyor. Programın verdiği yanıtlar öylesine etkileyici ki insanın ona gözü kapalı güvenmesi riski doğuyor.”
Fırsatları Doğru Değerlendirin
Slovenya’dan sol liberal Delo gazetesi, Avrupa’nın korkuya kapılmaması gerektiğini söylüyor: “Yapay zekânın gerçekten ekonominin lokomotifi olarak kabul görmesi için, işleyiş biçimine dair güven inşa edilmesi gerekiyor. (…) Yapay zekâ kullanımı, çok çeşitli alanlarda ilerleme sağlayabilir: iklim değişikliğiyle mücadelede, endüstriyel süreçlerin optimizasyonunda, kaynakların daha etkin kullanılmasında, sağlık hizmetlerinde, altyapıda, yaşlı bakım hizmetlerinde. Bu nedenle, düzenlemelerde Avrupa’nın izleyeceği politikalara yol gösteren ilke korku değil, temel haklara saygı duyarken ortaya çıkan fırsatları da değerlendirmek olmalıdır.”
AB Düzenlemesi Yetersiz
Avrupa Komisyonu’nun planladığı yapay zekâ düzenlemesinin, ChatGPT gibi diyalog programlarının doğurduğu risklerle başa çıkamayacağı konusunda, bilişim güvenliği uzmanları Le Monde‘da uyarıyor: “ChatGPT ancak ‘sınırlı risk’ olarak tanımlanan son riskli yapay zekâ kategorisine dahil ediliyor: İnsanlarla etkileşime giren yapay zekâ. Düzenlemeye göre, bu insanlara daha detaylı açıklamalar sunmaktan ziyade, yalnızca yapay zekânın bu türünün kullanımına karşı uyarılarda bulunmak gerekiyor. Bilgiye erişmenin yeni bir yoluna karşı eleştirel bir tutum geliştirmeye yeter mi peki bu?”
Yazının Sonu
İngiliz The Spectator, büyük bir meslek grubunun varoluş krizine girmesinden endişe ediyor: “Sonunda oldu. Kalemi, kâğıdı ve şık iPad’leri bir kenara koymanın vakti geldi: Bilgisayarlar yakında her şeyi daha iyi yapacak. (…) Önce, hiç de şaşırtmayan bir şekilde şimdiden kolaylıkla üretilebilen akademik çalışmaların, makalelerin, doktora tezlerinin ve sıkıcı ders kitaplarının yerini makineler alacak. Hayran kurgularıyla yazarların bizzat yayımladığı romanlar yok olup gidecek. Ardından sıra önce basit gazetecilik işlerine, sonra da kaliteli gazeteciliğe, edebiyata, tarihe, biyografilere ve senaryolara gelecek. (…) Beş bin yıllık yazın tarihi ve insanların yazıyla, hayat, kariyer ve hatta şöhret kazandıkları beş yüz yıllık geçmiş ansızın sona erecek.”
Okullar İçin Bir Dönüm Noktası
Irish Examiner, ChatGPT’nin özellikle öğretmenler açısından büyük bir sorun yaratacağı kanısında: “Bu yeni araç, minimum insan katkısıyla güvenilir ve yüksek kaliteli içerikler üretme potansiyeline sahip olduğundan, Birleşik Krallık’ta şimdiden öğretmenlerden öğrencilerin bilgilerini sınama yöntemlerini gözden geçirmeleri istendi. (…) Öğretmenlerin, bu teknolojiyi donanmak, kullanmak ve başarıyı değerlendirmek için yeni yollar keşfetmek ya da vakitlerini kural ihlallerini tespit etmeye harcamak arasında bir tercihte bulunması gerekiyor. Ancak kimse böyle şeyler yapmak için öğretmen olmamıştı.”
Tek Çözümü Sözlü Sınavlar
El País, okullarda yapay zekâyla başa çıkılması için şu öneride bulunuyor: “Artık her öğretmen, bir öğrencinin ödevinin yalnızca ‘kes-yapıştır’dan ibaret olup olmadığını anlayabiliyor. İntihali tespit etmek için Google’da bir aramak yapmak yetiyor. (…) Tüm bunlar bilgiye erişimi kolaylaştırırken, öğretmeyi ve öğrenmeyi zorlaştırıyor. Yapay zekâ eninde sonunda derslere sızacak, bizim yapmamız gerekense, onu nasıl kullanacağımızı öğrenmek. Muhtemelen ve paradoksal olarak, bu yenilik bizi günün sonunda yeniden sözlü geleneğine geri döndürecek. Ölçme ve değerlendirmenin tek yolu bu. Öğrenciler bilgiyi aramak için ellerindeki tüm araçları kullanmalı ancak buldukları sonucu da açıklayabilmeli. Bizzat ve kendi sözleriyle.”
İnsan Hâlâ Bir Makine Değil
“Sorun yapay zekâda değil, onun etrafında yürüyen tartışmada,” diyor filozof Thomas Robert Le Temps’ta: “Artık mesele, yapay zekâ savunucularının anlattığı hikâyede kontrolü geri alabilmek. Asıl tehlike, bizi zekânın bilgi birikiminden başka bir şey olmadığına ya da yaratıcılığın en muhtemel yanıta indirgendiğine ikna etmeleri. Başka bir deyişle: En büyük tehlike, yapay zekâdaki ilerleme değil, insana dair onu hor gören bir tanımlamada bulunan söylemdir. Geçen üç yüzyılın ardından, Silikon Vadisi programcıları insan-makine teorisini yeniden tecrübe ediyor. Buna yenik düşüp düşmemek bizim elimizde.”
Uluslararası İlkeler Geliştirilmeli
Ekonomist Inês Domingos, Portekiz’den Observador’da etik kuralların önemli ancak uygulanmalarının zor olduğuna dikkat çekiyor: “Makinelerin eleştirel düşünememesi, yapay zekâ geliştiricilerini programlarına etik sınırları da dahil etmeye zorluyor. Bu da özellikle dünyanın farklı bölgelerinde benimsenmiş etik değerler arasındaki uyumsuzluklar yüzünden, kamu politikaları açısından giderek artan bir endişe doğuruyor. Avrupa Birliği 2018’de, yapay zekânın etik kullanımına ilişkin bir dizi genel kural geliştirdi, Çin de bir benzerini 2019’da hayata geçirdi. Ancak en başta mahremiyetin korunması bakımından, her iki bölgedeki uygulamalar da değerler de birbirinden oldukça farklı.”