GÜVENLİK POLİTİKALARI VE YAPAY ZEKÂ

1984 yılında James Cameron tarafından yönetilen bilim kurgu aksiyon filmi olan Terminatör, 2029 yılında Skynet adlı yapay zekâ sisteminin dünyayı ele geçirmesiyle başlar. Film boyunca yapay zekâ veya akıllı makineler bir tehdit nesnesine dönüşür.

Popüler kültürde genellikle distopik, karamsar ve kötücül özellikleri öne çıkarılan yapay zekâ, insanların akıl yürütme, öğrenme ve eylemde bulunma yeteneğine benzer şekilde, makinelerin görevleri yerine getirme yeteneğidir. Yapay zekâ, makinelerin öğrenebilmesi, akıl yürütebilmesi ve kendi başlarına karar verebilmesini sağlayan algoritmaya dayalı bir dizi teknikten oluşurken kullanıcının istek ve ihtiyaçlarına göre değişebilen oldukça dinamik bir yapıya da sahiptir. 

Bir ülkenin doğal ve insan kaynaklarını korumak için tasarlanan her tür plan ve eylemi ifade eden güvenlik politikaları, çoğunlukla olası tehditleri belirleme ve kriz durumu oluşmadan tehdide yönelik önlem almayı ifade eder. Dış tehditlere karşı ülke sınırlarının korunması, ülke içinde oluşabilecek kargaşa durumlarının önlenmesi veya ihtilaflı durumların adil şekilde çözümlenmesinde yapay zekâ uygulamaları, oldukça elverişli araçlardır. Örneğin kaçak sınır geçişlerini azaltmada yapay zekâ destekli dronların kullanılması, uzun sınır hatları boyunca gözetleyici istihdam edilmesinin önüne geçer. Ayrıca kışın soğukta ve yazın sıcakta aynı performansı sunabilen gözetleme aygıtlarıyla kaçak geçişler önlenebilir. Bununla birlikte son dönem uzun menzilli silah ve füze sistemlerinin içine yerleştirilen yapay zekâ destekli hedef belirleyicilerle insan yetisi aşılmış, duygulardan arındırılmış algoritmalarla daha net ve keskin karar alınmaya başlanmıştır. Bu noktada yapay zekâ destekli gözetleme makinelerinin önemli bir avantaj sağladığı söylenebilir.

Sınır güvenliğinde önemli bir konu olan kara mayınları veya el yapımı tuzaklar da yapay zekâ destekli silahlarla tespit edilebilmektedir. Hatta ısıya, harekete veya çevreden ayrışan malzemeye duyarlı yapay zekâ destekli silahlarla daha caydırıcı bir güvenlik hizmeti sunulabilmektedir. Burada yapay zekânın veriye duyarlı doğasına vurgu yapmak gerekir. Yapay zekâ, büyük miktarda veriyi hızlı ve verimli bir şekilde analiz etme, karmaşık kalıpları tespit etme ve olası tehditleri tahmin etme yeteneğine sahiptir. Bu yetenekler, güvenlik politika ve stratejilerinin daha etkin ve verimli bir şekilde belirlenmesine yardımcı olabilir. Çünkü güvenlik verileri bir insanın analiz gücünü aşacak denli kapsamlıdır.

Yapay zekâ, güvenlik risklerini tespit etmek için geçmiş verileri ve mevcut tehdit istihbaratını analiz edebilir. Bu bilgiler, güvenlik politika ve stratejilerinin riskleri azaltmak için nasıl tasarlanması gerektiğini belirlemek için kullanılabilir. Örneğin Amerika Birleşik Devletleri sınırlarına doğru yönelen Güney Amerikalı sığınmacıların sayısı, cinsiyeti, silah taşıma durumu gibi temel verilerden hareketle bu grubun ülke içine geçmesi durumunda oluşturacağı tehdit durumu analiz edilmiştir. Bununla birlikte görsel ve işitsel tanılama algoritmalarının desteklediği yapay zekâ uygulamaları, kanun kaçaklarının yakalanmasında etkin rol üstlenmektedir. Hemen her güvenlik kamerasına bağlı olan izleme algoritmaları kullanılarak arana şahısların görsel ayraçları bir yapay zeka aracılığıyla belirlenmeye çalışılır. Doğru ve yeterli sayıda toplanan bir veri havuzunu kullanan bir yapay zekâ, delillerden hareketle suçu, suçluyu ve muhtemel ceza miktarını belirleyebilir. Ayrıca yapay zekâ, gelecekteki güvenlik tehditlerini tahmin etmek için geçmiş saldırıları ve trendleri analiz edebilir. Bu bilgiler, güvenlik politika ve stratejilerinin bu tehditlere karşı nasıl hazırlanması gerektiğini belirlemek için de kullanılabilir. Belirli bir desende gerçekleşen güvenlik ihlallerini belirleyebilen yapay zekâ uygulamaları, kriz durumu oluşmadan önlem alınmasını sağlayabilir. Yapay zekâ, güvenlik kaynaklarının verimli bir şekilde kullanılmasını sağlamak için güvenlik risklerini ve tehditleri sürekli izleyip veri toplar ve bu verileri optimal şekilde değerlendirebilir. Bu bilgiler, güvenlik politika ve stratejilerinin kaynak tahsisini optimize etmek için veya bu stratejilerin nasıl tasarlanması gerektiğini belirlemek için kullanılabilir.

Yapay zekâ, güvenlik politika ve stratejilerini belirlerken verimlilik artışı sağlayabilir. Riskleri ve tehditleri analiz etmek için insan gücüne olan ihtiyacı azaltan yapay zekâ, bu güvenlik politika ve stratejilerinin daha hızlı ve verimli bir şekilde belirlenmesine yardımcı olabilir. Duygulardan arınmış ve yalnızca veriye dayalı mantıksal karar verme mekanizmalarını işe koşan yapay zekâ, güvenlik risklerini ve tehditleri insanlara göre daha doğru bir şekilde analiz etme yeteneğine de sahiptir. Bu, daha tutarlı güvenlik politika ve stratejilerinin belirlenmesine yardımcı olabilir. Riskli alanları sürekli takip edip veri depolayan yapay zekâ, yeni güvenlik politika ve stratejilerinin geliştirilmesine yardımcı olabilir. Örneğin, yapay zekâ, otonom silah sistemleri ve yapay zekâ destekli güvenlik analistleri gibi yeni güvenlik teknolojileri için kullanılabilir.

Ancak, yapay zekânın güvenlik politika ve stratejilerini belirlerken kullanılmasıyla ilgili bazı riskler de vardır. Bu noktada yapay zekâ, yanlış veya yanıltıcı bilgilere dayalı kararlar verebilir. Bu, güvenlik politika ve stratejilerinin etkinliğini azaltırken yapay zekâya karşı önyargı oluşturabilir. Dahası yapay zekâ algoritmaları, veri setlerindeki önyargıları yansıtabilir. Bu, güvenlik politika ve stratejilerinin belirli gruplara karşı ayrımcı olabileceği anlamına gelebilir. Örneğin Müslümanlar hakkında bilgi vermesi istenen bir yapay zekânın internetteki baskın veri setinde yer alan İslamofobik öğeleri analiz ederek önyargılı bilgiler verdiği bilinmektedir. Ayrıca yapay zekâ, güvenlik risklerini ve tehditleri analiz etmek için büyük miktarda kişisel veriye ihtiyaç duyabilir. Bu durum, kişisel verilerin korunması, veri ihlali veya mahremiyet endişelerine yol açabilir. 

Yapay zekâ özellikle savaş senaryoları üretme veya olası askeri imkanları optimal şekilde kullanma noktasında kullanışlıdır. Günümüzde pek çok insansız hava aracı (İHA) sensörlerinden aldıkları bilgileri özellikle yapay zekâ temelli görüntü işleme teknikleriyle işleyerek hedef tespit ve teşhis süreçlerini hızlandırabilmektedir. Ukrayna ile Rusya arasındaki savaşta kullanılan askeri dronlardan bazıları yapay zekâ destekli hedef tespiti yapmakta; bazı suikast dronları ise belirli bir görselden hareketle kalabalık içinde belirledikleri hedefleri kusursuz şekilde vurabilmektedir. Özetle yapay zekâ, yakın gelecekte özellikle askeri alanda önemli bir potansiyele sahiptir.

Güvenlik politikaları yalnızca askeri stratejilerden oluşmaz; ülke kaynaklarının akılcı yönetimi, iklim değişimi ve kuraklık, nüfus gelişmesi, tarımsal üretim gibi stratejik konularda sağlanacak verileri de analiz ederek önemli politika önerileri yapabilir. Örneğin giderek ısınan ve kuraklaşan bir dünyada, iklim kaynaklı göçlerin olması muhtemeldir. Bu tür bir göç dalgası ise ülkeler için varoluşsal tehdit yaratabilir. Ayrıca salgın hastalık gibi durumlarda yapay zekâ destekli tanılama kameraları kullanarak hastalığın yayılması önlenmeye çalışılmıştır. Benzer bir girişim sınırlardan yasa dışı olarak geçirilmeye çalışılan uyarıcı madde veya diğer kaçak eşyanın belirlenmesinde de kullanılabilir. Havaalanı veya terminallerde hareket ve davranışlarıyla dikkat çeken yolcuların tespiti veya şüpheli davranış sergileyenlerin kamusal alanda belirlenmesi de yapay zekâ kontrolüne bırakılabilir.

Yapay zekâ teknolojileri gündelik yaşam içinde yaygın şekilde kullanılır. Akıllı ev sistemleri, cep telefonları veya internete bağlanabilen elektrikli otomobillerin çoğunda belirli düzeylerde yapay zekâ uygulaması kullanılmaktadır. Trafiği, şehrin su ve elektrik şebekesini kontrol eden yapay zekâlar olduğu gibi, okul ve hastane gibi kamusal alanlardaki ısı ve hava kalitesini düzenleyen yapay zekâlar da vardır. Tüm bunların olası bir hacker saldırısıyla bir anda işlevsizleşmesi önemli bir güvenlik krizine neden olur. Örneğin 2010 yılında İran’ın nükleer programını hedef alan bir siber saldırı olmuş ve İran’ın nükleer tesislerinde kullanılan bilgisayar sistemleri oldukça sofistike bir yapay zekâ algoritması tarafından sabote edilmiştir. Benzer bir girişim 2015 yılında Türkiye’de ülke çapında büyük bir elektrik kesintisi yaşanmasına neden olmuştur. Özetle yapay zekânın kötü amaçlı kullanımı, ülkeler için kriz oluşturma potansiyelinde olup dijital tehditlere karşı güvenlik politikası geliştirilmesini zorunlu kılmıştır. Dijital güvenlik politikaları, kişisel ve kurumsal bilgilerin güvende olmasını ve kötü niyetli kişilerin, siber saldırıların veya veri ihlallerinin neden olduğu risklerin en aza indirilmesini sağlar. Bu politikalar; teknik önlemler, prosedürler ve eğitimler aracılığıyla da veri güvenliği sağlanması ile sanal tehditlere karşı koyacak insangücünün yaratılması gibi bir dizi önlemi kapsamaktadır. Sanal tehditler, kötü amaçlı yazılımlar, kimlik avı saldırıları, fidye yazılımları ve siber casusluk gibi çeşitli şekillerde olabilir.

Yapay zekâ teknolojisinin kötüye kullanımı, sahte bilgilerin ve dezinformasyonun yayılmasını kolaylaştırabilir. Örneğin, derin sahte teknolojisi (deepfake), kişilerin görüntülerini ve seslerini manipüle ederek sahte ses kayıtları ve videolar oluşturabilir. Bir eğlence öğesi olarak deepfake keyifli görünse de herhangi bir kişinin yalnızca tek bir resminden yola çıkarak video oluşturulması, bu kişinin ses kayıtları kullanılarak istenilen her cümlenin sesli olarak oluşturulabilmesi gibi durumlar deepfake kullanılarak sahte haber yapmanın ne derece kolaylaştığını göstermektedir. Deepfake teknolojisi, görsel ve işitsel medyanın manipüle edici gücüyle birleştiğinde kitleleri harekete geçirme potansiyeli de yükselir. Yalan haber olduğunu bilmeksizin galeyana gelen kitlelerin ülke güvenliği için tehdit oluşturması olasıdır. Bu açıdan yapay zekâ destekli deepfake vb. uygulamaların bir güvenlik tehdidi olarak değerlendirilmesi gereklidir.

Yapay zekâ uygulamaları çeşitli ülkelerdeki demokratik seçimlerin manipüle edilmesinde de kullanılmıştır. Örneğin 2014 yılında Cambridge Analytica adlı bir veri analiz şirketi, Facebook kullanıcılarının kişisel verilerini izinsiz olarak toplayarak bu verileri siyasi kampanyalarda kullanmıştır.

Cambridge Analytica, bu verileri kullanarak, ABD’de Donald Trump’ın başkan seçilmesi ve İngiltere’nin Avrupa Birliği’nden ayrılması (Brexit) gibi siyasi kampanyalara müdahale etti. Şirket, bu kampanyalarda, seçmenleri psikolojik profillerine göre hedefleyerek, onların duygularını manipüle etmeye çalıştı. Cambridge Analytica olayı, büyük veri ve sosyal medyanın politik kampanyalarda kullanılmasının tehlikelerini ortaya çıkardı. Olay, Facebook’un veri gizliliği konusundaki uygulamalarına yönelik eleştirileri artırdı ve şirketin veri paylaşım politikalarını değiştirmesine yol açtı. Bu olay büyük veriye dayalı yapay zekâ uygulamalarını destekleyen sosyal medya platformlarının politik kampanyalarda kullanılmasının tehlikelerine karşı önemli bir uyarı niteliğindedir. Ayrıca yapay zekâ teknolojilerin sorumlu bir şekilde kullanılmasının önemini göstermektedir.

Yapay zekânın tehlike algısına karşı eğitilmesi durumunda muhtemel bir tehdit durumu belirlenebilir. Örneğin çocuk istismarının veya teröre destek veren kişilerin belirlenip bunların tehdit oluşturmadan önlenmesi amacıyla geliştirilen bir yapay zekâ, bireylerin bu yöndeki eylem ve eğilimlerini izleyerek onların cep telefonu mesajları, internet gezinme veya satın alma geçmişlerini analiz ederek tehdit oluşturma derecelerini belirleyebilir. Ayrıca derin tarama motorlarını kullanan yapay zekâ algoritmaları, yıllar önce yapılan sosyal medya yazışmalarından karakter analizi yapabilmekte; kimlerin toplum için tehdit oluşturabileceğini asgari hatayla belirleyebilmektedir.

Güvenliğe karşı özgürlüğünden feragat etmiş modern insan için yapay zekâ tarafından izlenmek sorun oluşturmaz. Çünkü bireyselliği iliklerine kadar yaşayan bu tür insan sosyal medyada korkusuzca resim ve videolarını paylaşmakta, sesini tüm dünyaya daha güçlü duyurmak için hemen her konuda canlı yayınlar yapmaktadır. Oysa izleme algoritmaları sinsi bir şekilde kullanıcı verilerini takip ederek onun bir dijital ikizini yaratır. Dijital ikiz, sizin sosyal medyada paylaştığınız her şeyden izler taşırken, satın alma veya oy verme potansiyelinizi de asgari şekilde etkileyebilir. Cep telefonundaki izleme sensörlerinden toplanan verilerle ayakkabınızın eskidiği bilgisi ayakkabı üreticileriyle paylaşılır ve kullandığınız sosyal medya platformundan sadece size yönelik reklamlar gösterilmeye başlanır. Bu detaylı özelleştirme o denli derin bir veri akışına dayalıdır ki bunun kontrol edilip engellenmesi mümkün değildir. Bu tür bir izleme pratiği ciddi bir güvenlik krizinin varlığını belirler. 

Özgürlük ve güvenlik, insan toplumlarının karşı karşıya kaldığı iki temel değerdir. Özgürlük, bireylerin kendi seçimlerini yapma ve kendi yaşamlarını yaşama hakkıdır. Güvenlik ise bireylerin zarar görme, tehdit edilme veya tehlike altında hissetme korkusu olmadan yaşayabilme hakkıdır. Bu iki değer genellikle birbirine zıt olarak görülür. Örneğin, güvenlik önlemleri genellikle özgürlüklerin kısıtlanmasına yol açabilir. Paradoksal olarak, terör saldırılarını önlemek için sınır kontrolleri artırıldığında, bireylerin seyahat özgürlükleri kısıtlanmış olur. Ancak, özgürlük ve güvenlik arasındaki ilişki her zaman bu kadar basit değildir. Bazı durumlarda, özgürlük ve güvenlik birbirini destekleyebilir. Örneğin, eğitim ve sağlık hizmetlerine erişimin artırılması, bireylerin özgürleşmelerine ve kendi hayatlarını yönetmelerine yardımcı olabilir. Özgürlük ve güvenlik arasında seçim yapmak, her zaman kolay bir karar değildir. Bu karar, bireyin ve toplumun değerlerine bağlı olarak değişebilse de son dönem teknik gelişmeler karar verici mekanizmasına yapay zekânın geçmeye başladığını belirlemektedir. Bu noktada yapay zekâ, büyük veriye dayalı analiz algoritmalarını kullanarak ülkenin iç ve dış güvenliğinde etkin bir konuma gelebilir. Yapay zekâ bunu görsel veri ve doğal dil işleme ile makine ve derin öğrenme algoritmalarını kullanarak yapar. Böylelikle herhangi bir görsel veya ses kaydı birey veya toplum için bir güvenlik riskine dönüşebilir. Özellikle deepfake gibi yeni nesil görsel işleme algoritmaları kullanarak toplumu infiale sürükleyebilecek manipülatif etkileşimler veya sahte haberler üretilebilir. Bu açıdan güvenlik politikalarının belirlenmesinde yapay zekâ uygulamaları önemli bir tehdit gibi algılansa da doğru kullanıldığı durumlarda ayrıcalıklı bir politika üretme aygıtına dönüşebilir.


img

Doç. Dr.
Ali Baltacı