Yapay zekâ her alanda kendine büyük bir yer edinmiş görece yeni bir teknolojidir. Bugün, sağlık, ekonomi, ticaret, askeri, güvenlik ve robotik gibi alanlar başta olmak üzere hemen hemen her alanda etkin şekilde kullanılmaktadır. Bu kavramın temelleri ilk olarak 1940 ile 1950’li yıllarda bir grup bilim adamı tarafından “yapay beyin” yapma olasılığını araştırmak üzere başlatılan çalışmalarla ortaya çıktığını söyleyebiliriz. Devamında 1956 yılında, uluslararası düzlemde ilk olarak Dortmund Konferansı’nda John McCarthy ve arkadaşları tarafından resmi olarak akademide dile getirilmiştir (Arslan, 2020). Türkiye’de ise 1958 yılında Cahit Arf tarafından Erzurum’da düzenlenen bir konferansta “Makine Düşünebilir mi ve nasıl düşünebilir?” adlı bir makalede el alınmıştır (Arf, 1958).
Yapay zekaya ilişkin tehditlerden önce “yapay zeka nedir?” sorusunun kısa olsa da cevaplanması önemlidir. Zira bu konu her yeni teknolojide olduğu gibi tam olarak açık değildir. Bunu nedenini kısaca şöyle ifade etmek mümkündür. Bir körün fili tanımlarken onun dokunduğu yerini dikkate alarak onu anlatması gibi, yapay zeka alanında çalışan herkes ona dokunduğu nokta bağlamında tanımlamaya çalışmıştır. Bu oldukça çeşitli tanımların ortaya çıkmasına neden olmuştur. Ancak hemen hemen her yapay zekâ tanımında yer alan bir cümle, “yeni durumlar karşında tepkiler veren”, yapay zekayı tanımlarken temel olarak kullanılabilir (Nabiyev, 2012). Yapay zekayı diğer bütün işlem yapabilen, karmaşık problemleri çözen, büyük verilerden anlamlı çıktılar üretebilen program ya da makinelerden ayıran tek şey onun yeni durumlara göre önceden belirlenmemiş yeni tepkiler vermesidir. Bu da onu “insan benzeri” ya da “sezgisel” yapmıştır.
Bu çalışmada yapay zekâya yönelik olan ve olası tehditler genel çerçevede çok detaylandırılmadan konu edilecektir. Ancak şunu baştan belirletmekte fayda var. Her alana özgü yapay zekâ ile ilgili tehdit veya fırsatlar konusunda farklı çalışmalar bulmak mümkündür. Örneğin, Yıldız ve Taşhan (2023) Tekstil sektörü üzerine, Bécue ve Diğerleri (2021) endistüri 4.0 üzerine, Salau ve Diğ., (2022) pazarlama üzerine, Leyer ve Schneider (2021) yöneticiler üzerine, ve Humble ve Mozelius (2019) eğitim üzerine odaklanarak bu fırsat ve tehditleri incelemeye çalışmıştır. Ayrıca Pesapane ve Diğ., (2018) tıbbı alanda en başından beri yer alan yapay zekayı biraz daha spesifik bir alan olan görüntüleme bağlamında değerlendirmiş, fırsat ve tehditlere bu doğrultuda yer vermiştir. Yine tıp alanında, Recht ve Bryan (2017) radyologlar için yapay zekanın sunduğu hizmetleri “tehdit mi nimet mi?” sorusu ile değerlendirmiştir. Ve son olarak, Bozkurt ve Gürsoy (2023) tarafından yapay zeka “insanlık için fırsat mı tehdit mi?” sorusuyla araştırılmıştır.
Bu çalışmaları burada raporlamamın sebebi bu konuda daha fazla bilgi almak ya da daha spesifik alan da yapay zekanın özellikle tehditler bağlamında ne şekilde değiştiğini görmek isteyen okuyucular için bir kaynakça oluşturmaktır. Şimdi gelin, eğitimde yapay zeka kullanımının oluşturabileceği tehditleri genel başlıklarıyla görmeye çalışalım.
Tehditler
Yapay zekanın eğitimde kullanılması en başta erişilebilirlik-kapsayıcılık ve bireyselleştirme gibi eğitimin şu an belki de en çok ihtiyacı olan iki önemli katkı sunma potansiyeline rağmen, beraberinde çok karmaşık ve belki de gizli tehlikeleri de barındırıyor. Bu nedenle kullanımı konusunda, bence, oldukça temkinli ama aynı zamanda iyimser olmamız gerekiyor. Bu yüzden, yapay zekanın önce okullarda daha da önemlisi sınıflarda sınırsız ve kontrolsüz kullanımından önce oluşabilecek ya da olan riskler konusunda temel bir çerçeve oluşturmak, bu alanın bütün paydaşları için faydalı olabilir. Olan ya da oluşabilecek riskleri göz önüne almak ve bu araçlarını kullanmadan önce bu risklerin büyük ölçüde giderildiğinden emin olmak oldukça önemlidir.
Bilişsel kapasitelerde düşüş
Aslında burada tirajı komik bir durum söz konusudur. Temelde insana yardımcı olmak ve insanın zekâsını ya da yapma gücünü artırmaya çalışmak için geliştirilmiş ya da geliştirilmesi planlanan yapay zeka, insanların daha özelde öğrencilerin bilişsel kapasitesini hızlı bir şekilde düşürebilir. Bu bir hayal gibi görünmesine karşın bugün derin öğrenme sistemleri (Goodfellow, 2020) yeterli örnek, işlem gücü ve zaman sağlandığında insan benzeri hatta insanlar tarafından verilenlerden daha sağlıklı ve iyi kararlar verebilen yapay zeka sistemlerine bir örnektir. Şu bilinen bir durumdur: “kullanılmayan her beceri zamanla kaybolur”. Eğitimde, giderek daha fazla ve kontrolsüz yapay zekayı kullanmak ya da bu benzeri araçlara bağımlı hale gelmek, tüm görevleri öyle ya da böyle ona devretmek, o olmadan çaresiz olmayı ve artık yapılan işleri yürütecek gerekli bilgi ve beceriye sahip olmamayı beraberinde getirebilir.
Veri Gizliliği ve Güvenliğinin sağlanamaması
Yapay zekayı “zeka” yapan şey veridir. Büyük veri olmadan bir yapay zekadan söz etmek mümkün değildir. Bugün eğitime yapay zekayı dahil etmek, beraberinde öğrenci performanslarını, davranışlarını ve diğer tüm kişisel ve akademik verilerini bu sistemlere açmak anlamına gelir, aksi taktirde eğitimde yapay zekanın sunduğu en önemli avantajlardan biri olan “kişiselleştirilmiş öğrenme deneyimi” (Ma & Matsumoto, 2020) yaratma potansiyeli mümkün olmaz. Bu da verilerin kötü niyetli insan ya da sistemlerin eline geçmesi veya yetkisiz erişim durumlarının oluşmasına neden olabilir (Regan ve Jesse, 2019). Aslında biz benzer bir durumu bugün sosyal medya platformları aracılığı ile yaşıyoruz. Bu sistemler temelde yapay zeka kullanmak için geliştirilmeseler de veri toplama ve kullanma bağlamında benzer bir politika yürütmektedirler. Buna göre, uygulamayı yüklemeden önce “rızaya dayalı” “gizlilik sözleşmeleri” adı altında, verilerimizin işlenmesini onaylamamızı, okuması çok uzun ve anlaşılması zor hukuki dille yazılmış metinler yoluyla yapmamızı istiyorlar. Hemen hemen hepimiz biliyoruz ki bu metinler asla okunmuyor ya da detaylıca incelenmiyor. Buna benzer bir durum yapay zekaya dayalı uygulamalar içinde meydana gelebilir ve “Facebook–Cambridge Analytica veri skandalı” gibi bir durum oluşabilir. Ki bu yapay zekanın olası veri gizliğini sağlayamaması durumunda ortaya çıkacak kaosa göre oldukça küçük bir örnek sayılabilir.
Dijital Eşitsizliklerin Derinleşmesi
Dijital eşitsizlikler sadece bugünün ve yapay zekanın konusu değildir. Teknolojiye erişim ve sahip olma konusunda dünyanın genelinde ve ülkeler özelinde çeşitli eşitsizlikler söz konusudur. Diğer taraftan yapay zeka ile dijital eşitsizlik arasındaki ilişki, yapay zekâya dayalı uygulamaların eğitimde daha fazla yer almasıyla ve daha yaygın hale gelmesiyle var olan eşitsizliğin derinleşmesi ve büyümesidir (Lutz, 2019). Bu durum daha çok yüksek maliyetli cihazlar, daha geniş bantlı internet bağlantısı, yapay zekaya dayalı sistemlerin tüm fonksiyonlarıyla kullanabilmek için ücretli üyelikler gibi gereksinimler, gelir seviyesi düşük ülkeler, toplumlar ve bireyler için sınırlılıklar doğurmaktadır. Lutz’a (2019) göre yapay zeka, dijital eşitsizlikleri üç düzeyde derinleştirmektedir. Birinci düzey, erişim esşitsizliği, yukarıda sıraladığımız şekilde ekonomik olarak grupların avantajlı ya da dezavantajlı olmasıyla ilişkilidir. İkinci düzey, beceriler ve kullanım eşitsizliğidir. Bunu şu şekilde açıklamak mümkündür. Bu sistemlerin etkin şekilde kullanılabilmesi için belli dijital becerilere ihtiyaç vardır. Dijital becerileri düşük olan bireyler, yapay zekanın sunduğu avantajların birçoğundan tam anlamıyla faydalanamayabilir. Üçüncü düzey, sonuç eşitsizliğidir. Lutz’un ifade ettiği şekilde, üçüncü düzey “dijital uçurum”, teknolojiyi kullanan bireylerin elde ettiği sonuçlar arasındaki farklılıkları ifade eder. Yapay zeka, doğası gereği veri odaklı karar alma süreçlerinde rol oynadığında, algoritmik yanlılık ve veri tabanlı ayrımcılık riskleri de artar. Bu durum, özellikle dezavantajlı grupların daha da marjinalleşmesine yol açabilir.
Öğretmen-Öğrenci Etkileşiminin Azalması
Öğrenme ya da eğitimin öznesi olan insan, eğitimde iyileşme veya daha iyi öğrenme pahasına doğasının dışına çıkarılmamalı ve bu özelliği devre dışı bırakılmamalıdır. İnsan sosyal bir varlıktır ve öğrenme sosyal olarak gerçekleşir. Sınıf ise öğrenme ve öğretme için en temel ortamdır ve öğrencilere çok unsurlu, iç içe geçmiş, karmaşık ve gerçek durumlar sağlar. Bu bağlamda, sosyal öğrenme kuramının babası kabul edilen Bandura (1977), öğrenmenin sosyal bir ortamda gerçekleştiğini ve öğrencilerin en önemli öğrenme deneyimlerini kendi sosyal çevreleri ve sınıflarında olan etkileşimlerinden ve gözlemlerinden doğduğunu veya oluştuğunu savunur. Yapay zekâ bu kuram bağlamında geri bildirim, rol model basamakları altında farklı faydalar sağlaması mümkün iken genel olarak dezavantajlarının daha fazla olduğu kabul edilebilir. Yapay zekanın farklı uygulamalarla birlikte eğitimde yoğun bir şekilde kullanılması, öğretmen-öğrenci arasındaki insani etkileşimlerin azalmasına yol açabilir. Öğrencilerin sosyal ve duygusal gelişimi için öğretmenlerle kurdukları bire bir ilişkilerin önemi dikkate alındığında, rutin görevlerde faydalı olsa da, öğretmenlerin yerini tamamen alması durumunda bu insani etkileşimlerin kaybolmasına neden olabilir (Turkle, 2015).
Algoritmik Önyargı ve Adaletsizlik
“Bilgisayar insanlardan nasıl ayrımcılık yapacağını öğrendi ve bu işi nefes kesici bir verimlilikle gerçekleştirdi” (O’neil, 2017, s. 116)
Önyargı, belirli kişi, grup veya toplum hakkında önceden edinilmiş olumlu veya olumsuz deneyimlere bağlı olarak geliştirilen düşünce olarak tanımlanabilir. Yapay zeka temel olarak üç şekilde önyargı ve adaletsizlik gösterebilir. Bunlardan birincisi, yapay zeka geliştirme süreçlerinde algoritmaların geliştirilmesinde kullanılan verilerdeki önyargılar yani veri kaynaklı önyargıdır. Yapay zeka büyük veriye dayanır ve bu veri seti ile eğitilir. Ancak bu veriler, toplumsal önyargılar, eksiklikler veya hatalar içerebilir. Bu durum modelin önyargılı kararlar almasına neden olabilir. Bir diğeri ise yapay zekanın öğrence sürecinde nasıl tasarlandığı, hangi özelliklerin seçildiği ve nasıl optimize edildiği ile ilgili oluşan önyargı ve adaletsizliklerdir. Buna algoritmik tasarım hataları da denir. Son olarak, bu algoritmaları yazan ve geliştirenlerden kaynaklı insan önyargı ve adaletsizliğidir. Bu sistemler, insanlar tarafından tasarlanan ve geliştirilen algoritmalar üzerine kuruludur. Algoritma geliştiricilerinin bilinçli veya bilinçsiz önyargıları, sistemin karar alma süreçlerine de yansıyabilir. Sonuçta, bu sistemler adaletsiz ve önyargılı sonuç ve çıktılar verebilir bu da bunların adil ve kapsayıcı şekilde kullanılmasının önündeki en büyük engellerden biri olabilir. Öğrenciler bağlamında ise, aralarında haksız muameleye ve eşitsizliğe neden olabilir. Örneğin, geçmiş verilere dayalı olarak oluşturulan yapay zeka modelleri, belirli öğrenci gruplarını yanlış değerlendirerek, onları dezavantajlı duruma düşürebilir (O’Neil, 2016).
Sonuç
Son söz olarak yapay zeka farklı alanlarda insan hayatını kolaylaştırdığı, yeni ufuklar açtığı, rutin işlerde büyük başarılar gösterdiği, uzman sistemler ile etkileyici görevlerini yerine getirdiği, görüntü ve ses işlemede inanılmaz işler yaptığı bir gerçektir ve etkileyici sonuçlarından sadece bir kaçıdır. Diğer taraftan, eğitim bence bu bağlamda oldukça özel bir alandır ve bu alana yapay zekayı sorgusuz ve kontrolsüz bir şekilde dahil etmek ya da etmeye çalışmak beraberinde oldukça büyük riskleri getirebilir. Üstelik bu risklerin bazıları sadece uzun vadede görülebilir. Bu bağlamda, yapay zekanın eğitimde kullanılması konusunda oldukça dikkatli olmalı ve en ufak şüpheyi dikkate almalıyız.
Kaynakça
Arslan, K. (2020). Eğitimde yapay zekâ ve uygulamaları. Batı Anadolu Eğitim Bilimleri Dergisi, 11(1), 71-88.
Arf, C. (1959). Makine Düşünebilir mi ve Nasıl Düşünebilir? Atatürk Üniversitesi 1958-1959 Öğretim Yılı Halk Konferansları (1), 91-103.
McCarthy, J. (2004). What is artificial intelligence?. Erişim adresi (11 Ocak 2019): http://www.formal.stanford.edu/jmc/whatisai/
Nabiyev, V. V. (2012). Yapay zeka: insan-bilgisayar etkileşimi. Ankara: Seçkin Yayıncılık
Yıldız, İ., & Taşhan, A. (2023). Yapay Zekâ: bir tehdit mi? bir yardımcı mı? Tekstil sektöründe nitel bir araştırma. Igdir University Journal of Faculty of Economics and Administrative Sciences, (9), 1-14.
Bécue, A., Praça, I., & Gama, J. (2021). Artificial intelligence, cyber-threats and Industry 4.0: Challenges and opportunities. Artificial Intelligence Review, 54(5), 3849-3886.
Pesapane, F., Codari, M., & Sardanelli, F. (2018). Artificial intelligence in medical imaging: threat or opportunity? Radiologists again at the forefront of innovation in medicine. European radiology experimental, 2, 1-10.
Recht, M., & Bryan, R. N. (2017). Artificial intelligence: threat or boon to radiologists?. Journal of the American College of Radiology, 14(11), 1476-1480.
Salau, A. O., Demilie, W. B., Akindadelo, A. T., & Eneh, J. N. (2022). Artificial Intelligence Technologies: Applications, Threats, and Future Opportunities. In ACI@ ISIC (pp. 265-273).
Humble, N., & Mozelius, P. (2019, October). Artificial intelligence in education—A promise, a threat or a hype. In Proceedings of the european conference on the impact of artificial intelligence and robotics (pp. 149-156).
Leyer, M., & Schneider, S. (2021). Decision augmentation and automation with artificial intelligence: Threat or opportunity for managers?. Business Horizons, 64(5), 711-724.
Goodfellow, I. (2016). Deep learning (Vol. 196). MIT press.
Regan, P. M., & Jesse, J. (2019). Ethics, Privacy, and Bias in AI Systems. Computer Law & Security Review, 35(5), 105342.
Ma, W., & Matsumoto, M. (2020). Adaptive Learning and Educational Technology. Educational Technology Research and Development, 68(4), 1841-1860.
Lutz, C. (2019). Digital inequalities in the age of artificial intelligence and big data. Human Behavior and Emerging Technologies, 1(2), 141-148.
Turkle, S. (2015). Reclaiming Conversation: The Power of Talk in a Digital Age. Penguin Press.
O’neil, C. (2017). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.