YAPAY ZEKANIN SİLAHLI ÇATIŞMALARDA KULLANILMASI VE DOĞURDUĞU ETİK VE HUKUKİ SORUNLAR

Ülke içi ayaklanmalar ve devletlere yapılan dış müdahaleler, dünyamızın bölgesel savaşlarla ve yeni kutuplarla dünya savaşına giden bir yol üzerinde olduğunu göstermektedir. Yeni gelişen bölgesel çatışmalarda tarafların çeşitli askeri konularda yapay zeka araçlarını kullandığı gözlemlenmektedir.

Yapay zekanın insanlar tarafından denetlenebilir bir şekilde kullanılması, kullanan tarafa önemli avantajlar sağlamaktadır. Ancak, yeni analizler yapay zekanın kullanımının çeşitli sorunlara yol açabileceğini ortaya koymaktadır. Sorunun temelinde, yapay zekanın kendi öğrenme kapasitesini artırarak (otonomlaşarak) insan denetimi dışında kararlar alması ve harekete geçmesi bulunmaktadır.

Makinaların öğrenme teknolojileriyle donatılması, devrim niteliğinde bir fırsat sunmakla birlikte derin etik sorunlara yol açmaya başlamıştır. Galatasaray Üniversitesi Hukuk Fakültesi Dergisi’nde yayımlanacak olan ve benim de hakemlik yaptığım Dr. Bleda Kurtdarcan’ın “Yapay Zekanın Silahlı Çatışmalarda Kullanımı ve İsrail’in Lavender ve Gaspel Programlarının Yarattığı Kamuoyu Tepkisi Işığında Kısa Bir İnceleme” başlıklı makalesi, İsrail’in yapay zekalı karar verme sistemlerini kullanarak Gazze ve Lübnan’da bombalama yapılacak alanları hedeflemesini ele almaktadır. Makale, Gazze çatışmalarında sivil halka verilen zararı değerlendirmekte ve insancıl hukukun bu konuda sessiz kaldığını, dolayısıyla yeni kuralların geliştirilmesinin zorunlu olduğunu vurgulamaktadır.

Yapay zekanın silahlı çatışmalarda kullanılması, savaşın yönetimini köklü bir şekilde değiştirmektedir. Hassas hedefleme ve güçlendirilmiş karar alma kapasitesine olanak tanımakla birlikte, etik ve yasal sorunları da beraberinde getirmektedir. Özellikle insani denetim eksikliği, hesap verebilirlik sorunları ve insancıl hukukun temel ilkeleri olan orantılılık ve ayrım ilkelerinin ihlali gibi riskler ön plana çıkmaktadır.

Bu incelemede, yapay zekanın savaşlarda kullanım alanlarını ve insancıl hukuk ile insanlık adına doğurduğu sorunları ele almaya çalışacağız. Uluslararası toplum, büyük felaketlerle karşılaşmadıkça ve uluslararası hukuku şekillendiren büyük güçler bu felaketlerden doğrudan etkilenmedikçe, yeni kuralların oluşturulmasına destek vermemektedir. Büyük bir çatışma durumunda, makinaların yol açabileceği felaketler, maalesef gelecek nesiller için – özellikle askeri çatışmalarda – önemli bir sorun olarak karşımıza çıkacaktır.

1. Yapay Zekanın Askeri Alanda Kullanımları

Yapay zeka, savaş sistemlerinde, stratejik karar verme süreçlerinde, veri geliştirme ve analizinde, çatışma simülasyonlarında, hedef tanımlama, tehdit izleme, İHA (İnsansız Hava Aracı) ve SİHA (Silahlı İnsansız Hava Aracı) sürü yönetimi, lojistik taşıma, savaşta yaralıların bakımı ve tahliyesi gibi pek çok alanda kullanılmaktadır. Yapay zekanın bu alanlarda kullanılması, operasyonel süreçlerde insan hatalarının önlenmesine ve zayıf verilere dayalı kararların engellenmesine olanak tanımaktadır. Aşağıda, yapay zekanın önemli kullanım alanları detaylı şekilde ele alınacaktır.

a. İHA ve SİHA Sürü Yönetimi

Son yıllarda yapay zekanın askeri alandaki en dikkat çekici uygulamalarından biri, İHA ve SİHA sürü yönetimidir. Bu teknolojiler, askeri istihbarat süreçlerine önemli katkılar sağlamaktadır. Sürü şeklinde kullanılan SİHA'lar, tek başına kullanılanlara göre birçok üstünlük taşımaktadır. Örneğin, sürüdeki bir SİHA yeni bir bilgi edindiğinde, bu bilgiyi sürüdeki diğer araçlara hızla iletebilmektedir. Bu sürüler, simülasyonlarda ve eğitim operasyonlarında kullanılmakta ve çeşitli durumlara adapte olabilen karar verme yeteneği göstermektedir.

Yapay zeka ile kontrol edilen bu sürüler, doğadaki böcek kolonileri gibi davranış sergilemektedir. Örneğin, bir arı kovanındaki bir arı, diğerlerine yararlı bir kaynağı detaylı bir şekilde iletebilme kapasitesine sahiptir. Benzer şekilde, SİHA sürüleri uzaktan haberleşme, hedef tespiti, yönlendirme, saldırı planlama ve tehdit bildirme gibi görevleri üstlenmektedir. Bu sürüler, güçlü bir kolektif zeka sergileyerek askeri hedeflere yönlendirilmektedir.

b. Stratejik Karar Verme

Yapay zeka, stratejik karar verme süreçlerinde önemli bir yardımcı araç olarak kullanılmaktadır. Yapay zekanın kullandığı çözüm yolları, tasarlama gücü ve verileri farklı kaynaklardan toparlama yeteneği, yüksek gerilimli durumlarda etkili kararlar alınmasını sağlamaktadır. Yapay zeka sistemleri, durumu hızlı ve etkin bir şekilde analiz etmekte, önyargılardan ve tereddütlerden arınmış bir biçimde kritik durumlarda en uygun kararı alabilmektedir.

Ancak, yapay zekanın etik meseleler hakkında bilgi sahibi olmaması ve bazen hatalı veya eksik veri setlerinden öğrenim yapması, ciddi sorunlara yol açabilmektedir. İnsanların etik anlayışları ile yapay zekanın hızlı karar verme kapasitesinin birleşmesi durumunda, yapay zeka destekli karar süreçleri daha hızlı ve olumlu sonuçlar üretebilir. Özellikle üretken (otonom) yapay zeka, askeri konularda karar verme süreçlerini hızlandırabilir. Bu tür modeller, gelişmeler arasındaki bağlantıları, örüntüleri ve potansiyel sonuçları analiz ederek stratejik bir yol haritası sunabilir.

Yapay zeka, elde edilen bilgileri yazılı ya da sözlü bir şekilde askeri karar vericilere iletebilir, yeni senaryolar ve stratejiler önerme kapasitesine sahiptir. Ancak nihai karar sürecinde, insanların etik anlayışları, ulusal güvenlik çıkarları ve duruma özgü faktörleri dikkate alarak yapay zekanın çıktılarıyla uyumlu bir değerlendirme yapması gerekmektedir.

Üretken yapay zekanın, insan denetimi altında kullanılması, askeri liderlerin karar alma gücünü artırabilir. Ancak insanların tamamen devre dışı bırakılarak yapay zekanın bağımsız karar alıcı olarak hareket etmesi, bazen telafisi güç zararlar doğurabilir.

c. Çatışma Simülasyonu ve Eğitim

Amerikan ordusu uzun yıllardır askeri eğitimde simülasyon yazılımlarını kullanmaktadır. Bu yazılımlar, sistem mühendisliği, yazılım mühendisliği ve bilgisayar teknolojilerini kullanarak askerleri operasyonlara ve çatışma durumlarına hazırlamayı amaçlamaktadır. Askeri eğitim simülasyonları, askerler için görsel bir savaş oyunu işlevi görmektedir.

Bu yazılımlar, matematiksel modeller kullanarak yalnızca savaş dışı çevreyi değil, stratejik senaryoları da taklit edebilmektedir. Bu tür görselleştirme yöntemleri, askerleri gerçek durumlara kıyasla savaşa daha etkili bir şekilde hazırlamaktadır. Ancak, askeri eğitmenler gibi insan etkisi, bu süreçte tamamen dışlanmamalıdır. Olası yanlışlıkları ve sapmaları önlemek adına, askeri liderlerin yapay zekanın ürettiği materyalleri daima gözden geçirmesi gerekmektedir.

Yapay zekanın askeri eğitimlerde kullanılması, gerçek silahlarla yapılan eğitimlerde meydana gelebilecek kaza ve yaralanmaların önlenmesinde de önemli bir rol oynamaktadır. Böylece hem eğitim süreçlerinin güvenliği artırılmakta hem de askeri personelin savaşa hazırlanma kapasitesi güçlendirilmektedir.

ç. Hedef Tanımlama

Yapay zeka, çatışma ortamında hedef tanımlama süreçlerini daha kesin ve etkin bir şekilde gerçekleştirebilmektedir. Raporlar, evraklar, haberler ve diğer bilgi türlerini inceleyerek farklı kaynaklardan gelen verileri hızla analiz eder. Bu süreçte, yapay zeka insanlardan çok daha hızlı bir şekilde bulguları değerlendirebilir. Ayrıca, yapay zeka ile konuşabilme teknolojisinin gelişimi sayesinde, askeri karar vericiler verilen bilgiler üzerine sesli veya yazılı şekilde yapay zeka ile etkileşime geçerek konuyu tartışma olanağına sahip olurlar.

Yapay zeka, düşmanın davranışlarını öngörme, askeri birliğin eksik yönlerini belirleme, hava durumu ve çevresel koşulları değerlendirme yeteneklerine sahiptir. İnsanlar ve yapay zeka arasındaki iş birliği, zaman, insan kaynakları ve askeri hedefler konusundaki bilgi düzeyini artırabilir. Ancak, nihai kararların her zaman insanlar tarafından alınması gerektiği unutulmamalıdır.

d. Tehdit İzleme

Tehdit izleme ve durum farkındalığı süreçlerinde yapay zeka, gelen bilgileri analiz ederek savunma personelinin etkinliğini artırmaktadır. SİHA’lar ve İHA’lar gibi sistemlerde kullanılan yapay zeka, özellikle sınır bölgelerinde devriye görevlerinde ve askeri üslerin güvenliğini sağlama süreçlerinde etkili bir rol üstlenmektedir. Bu teknolojiler, tehditlerin tespit edilmesi ve askerlerin korunmasına yönelik önemli katkılar sunmaktadır.

e. Siber Güvenlik

Askeri sistemler, güvenlik açısından siber saldırılara açık hale gelebilmektedir. Yapay zeka, askeri üsleri ve karargâhları siber saldırılara karşı koruma konusunda önemli bir yardımcıdır. Siber saldırılarda genellikle gizli bilgiler hedef alınmakta ve sistemlerin bütünlüğü zarar görebilmektedir.

Yapay zeka, programları, verileri, ağları ve bilgisayar sistemlerini yetkisiz erişimden koruyarak güvenliği sağlamaktadır. Bununla birlikte, yapay zekanın gelişmiş özellikleri siber güvenlik üzerinde karmaşık etkiler yaratabilir. Düşman tarafın, yapay zeka teknolojisini virüs geliştirme gibi saldırgan amaçlarla kullanma ihtimali göz önüne alındığında, bu tehditleri tespit ve bertaraf edebilen savunma sistemleri geliştirilmiştir. Askeri güvenlik, yapay zekayı rakip yapay zeka tabanlı saldırılara karşı da bir savunma aracı olarak kullanmaktadır.

f. Taşıma

Yapay zeka, cephane, malzeme, silah ve askeri personelin taşınmasında önemli bir rol oynamaktadır. Lojistik operasyonların başarısı için hayati öneme sahip bu süreçlerde, yapay zeka hem maliyetleri düşürmekte hem de insan gücüne duyulan ihtiyacı azaltmaktadır.

Yapay zeka, askeri malzemelerin taşınması için en etkin yolları belirleyerek operasyonların etkinliğini artırır. Ayrıca, askeri filolar için olası sorunları önceden tespit edebilir ve sürücüsüz araçların ticari ve askeri alanlarda kullanılmasını mümkün kılar.

g. Yaralı Bakımı ve Tahliye

Savaş alanlarında askerler ve sıhhi personel, yüksek stres altında hızlı ve etkili kararlar almak durumundadır. Yapay zeka, sıhhiyecilerin ihtiyaç duyduğu durumlarda çevreyi analiz ederek en uygun eylem planını sunabilir. Böylece, stresin ve korkunun getirdiği karar verme zorluklarının üstesinden gelinmesine yardımcı olur.

Yapay zeka, geniş tıbbi veri tabanlarını kullanarak savaş sırasında travma teşhisi, yaşamsal belirti takibi, ilaç kullanımı, bakım süreçleri ve olası sonuçlar hakkında bilgi sağlar. Bu bilgiler doğrultusunda, sıhhi personel yeni tedavi yöntemlerine dair öneriler alabilir ve daha etkili müdahaleler gerçekleştirebilir.

Ancak, yapay zeka her ne kadar rasyonel öneriler sunsa da insanların etik ve insani değerlere dayalı kararlar alma sorumluluğu devam etmektedir. Özellikle askerlerin arkadaşlarını kurtarma amacıyla aldıkları fedakârlık içeren duygusal kararlar, bu süreçte yapay zeka ile insan etkileşiminin önemini bir kez daha göstermektedir.




2. Uluslararası Kızılhaç Komitesi ve Birleşmiş Milletler Silahsızlanma Komitesine Göre Yapay Zeka’nın Askeri Kullanımlarının Doğurduğu Sorunlar

Uluslararası Kızılhaç Komitesi (ICRC), yapay zekanın askeri kullanımında üç temel sorunlu alan belirlemiştir. Bu alanlar, insani hukuk ve etik ilkeler açısından ciddi tartışmalar doğurmaktadır..[1]

           Bu sorunlar şöyle sıralanmaktadır;

           İ-Özellikle otonom (kendi kendine karar verebilen) silah sistemlerinin entegrasyonu,

           İİ-Siber ve Enformasyon operasyonlar

           İİİ-Askeri karar alma destek sistemlerini geliştirmek.

Otonom silah sistemleri, günümüzde en dikkat çeken konular arasında yer almaktadır. Özellikle yapay zekanın, doğrudan askeri araçlara ve bireylere ateş edecek şekilde yönlendirilmesi önemli bir tartışma konusudur. Uluslararası Kızılhaç Komitesi, bazı otonom silahların kullanımının yasaklanması ve diğerlerinin kullanımının sınırlandırılması gerektiğini savunmuştur. Özellikle tamamen yapay zeka tarafından yönetilen otonom silah sistemlerinin yol açabileceği insani sorunlara dikkat çekilmektedir.

Yapay zekanın siber alanda ve enformasyon operasyonlarında kullanımı, aynı zamanda karar alma süreçlerine entegre edilmesinin doğurabileceği risklere gereken önemin verilmediği gözlemlenmektedir. Bu bağlamda, devletlerin otonom makineler üzerinde etkin insan denetimi ve yargısını devre dışı bırakmaktan kaçınmaları büyük önem taşımaktadır. Soğuk savaş sırasında başlayan devletlerin nükleer silah elde etme çabaları ve üretmeleri yarışı yerini günümüzde otonom silah sistemlerine bırakacak gibi gözükmektedir([2]) Uluslararası Kızılhaç Komitesi'nin mesajı, çatışmalarda insan merkezli yaklaşımların, özellikle yapay zekanın kullanıldığı alanlarda dikkatle ele alınması gerektiğidir. İnsanların sorumlulukları ve uyması gereken kuralların geliştirilmesi, kullanılan yeni teknolojilerin yalnızca uluslararası hukuka uygun olmasını değil, aynı zamanda toplumsal ve etik değerlere de riayet etmesini sağlamalıdır. Birleşmiş Milletler Silahsızlanma ve Uluslararası Güvenlik Komitesi, 2023 yılında gerçekleştirdiği toplantıda, yapay zekanın silahlı çatışmalarda kullanılması konusunda gelecek dönem için bir proje ortaya koymuştur.[3] Ancak, yeni insancıl hukuk kurallarının oluşturulması konusunda devletler kesin bir karar alabilmiş değillerdir. Beklenen durum, bu hazırlık metninde belirlenen kuralların, özellikle otonom yapay zeka kullanılan silahlar üzerindeki kısıtlamaların yer aldığı anlaşma maddelerinin, zaman içinde bir uygulama pratiği oluşturarak devletler tarafından hayata geçirilmesidir. Bir yazara göre, uluslararası hukukun yapay zekanın silahlı çatışmalarda kullanımı üzerine henüz uluslararası metinlere sahip olmamasına rağmen, uluslararası insancıl hukuk, uluslararası silahlı çatışmalarda önceden yaratılan hukuk düzenine karşı oluşan olayları önlemek için gerekli ilkelere ve otonom metotlara sahip olduğu ileri sürülmüştür.[4]

Başta Amerika olmak üzere Batılı devletlerin, yapay zekanın otonom sistemlerinin kullanılmasına karşı olmalarının nedeni, bu sistemlerin gittikçe artan tehlikeleridir. Amerikan Dışişleri Bakanlığı, "Silahların Denetimi, Caydırıcılık ve İstikrar Bürosu" tarafından, "Otonom Yapay Zekanın Askeri Kullanımındaki Sorunlarla" ilgili bir bildiri hazırlanmıştır. Elli civarında ülke, bu hazırlık metnini desteklemiştir. Bildiri, yapay zekanın kullanıldığı çatışmalarda uluslararası insancıl hukuk kurallarına uyulması gerektiğini vurgulamaktadır. Ayrıca, bildiri, bu tür çatışmalarda sivillerin mutlaka korunması gerektiğine dikkat çekmektedir.[5] Tespit edilen uygulamalarda, siviller ve sivil yapılanmalar, siber operasyonlar ve enformasyon savaşlarında en büyük zarara maruz kalmaktadır. Örneğin, Çin, "askeri algılama" adı altında düşman olarak gördüğü sivil toplumlara karşı bir algı savaşı yürütmektedir. Aynı askeri doktrin NATO'da da bulunmaktadır; diğer savaş araçlarıyla birlikte, karşı tarafın algılarını yönlendirmeye yönelik stratejiler uygulanarak avantaj sağlanmaya çalışılmaktadır. "Askeri algılama", psikolojik savaştan ve yanıltıcı enformasyon yaymaktan daha farklı bir müdahale biçimi olarak ortaya çıkmaktadır.

Öte yandan, İsrail, iki çeşit yapay zeka kullanarak Gazze'deki bombalayacağı alanları tespit etmekte ve otomatik olarak bu alanların ateş altında kalmasını sağlamaktadır. Otonom kapasiteye sahip yapay zeka kullanılan silah sistemi, teröristlerin bulunduğu yer olarak saptadığı alanları, herhangi bir sivil ve savaşçı ayrımı yapmadan yok etmektedir.

           Otonom silah sistemleri üç kategoride ele alınmaktadır: Yarı otomatik, denetlenen ve tam otomatik sistemler. Yukarıda bahsedilen sorunlar, genel olarak tam otomatik olarak çalışan silah sistemleriyle ilgilidir.[6] Bu hususta insan hakları hukuku da konuya girmiş bulunmaktadır. Birleşmiş Milletler İnsan Hakları Yüksek Komiserliği, yapay zekanın geliştirilmeye ve kullanıma devamının insan haklarına saygılı bir biçimde olmasını önermiştir.[7] Bu bildirilere uygun olarak, yapay zeka kullanan askeri görevlilerin, uygulama sonucu ortaya çıkan sorunlarda sorumlu olmaları gerektiği savunulmaktadır. Birçok yazar, Cenevre Sözleşmeleri'ne ek protokolün 35/1 ve 36. paragrafına dikkat çekerek, silahlı çatışmalarda silahların seçiminin sınırlandırılmadığını, bu tür silahları seçenlerin, silahın nasıl işleyeceğini ve hangi etkileri doğuracağını bildikleri için sorumlu olacaklarını ileri sürmektedir.[8] Aslında, kimin sorumlu olduğu konusu açık bir biçimde ele alınmamıştır. Bu konunun zaman içinde gelişme göstermesi beklenmektedir. İlerleyen dönemlerde, Birleşmiş Milletler Uluslararası Hukuk Komisyonu, bu husustaki gelişmeleri kodlandırarak uluslararası toplumun önüne getirebilecektir.


 

Sonuç

Rusya Devlet Başkanı Vladimir Putin, yapay zeka konusunda başat rol oynayan devletin, dünyanın yöneticisi olacağını ifade etmiştir.[9] Yapay zekanın modern savaşlarda kullanılmasının, Çin, Rusya ve Amerika gibi büyük güçler arasındaki rekabeti tamamen değiştireceği öngörülmektedir. Bu nedenle, yapay zeka yatırımlarının askeri pazardaki payı, yalnızca Amerika'da 14.39 milyar dolar civarındadır. Bu pazarın 2023-2024 yılları arasında %11.9 oranında büyüyeceği hesap edilmektedir.[10]

Yapay zeka ile birlikte çip setleri pazarı da büyümektedir. Dünya genelinde çip yapımında Amerika önde gelmektedir; Amerika'nın en gelişmiş çiplerinin üretildiği ülke ise Tayvan'dır. Amerika, Çin'in gelişmiş yapay zeka ve çip teknolojilerine erişimini engellemeye çalışmaktadır. Bu nedenle, Çin, yapay zeka teknolojisinde lider olmak için yakın zamanda 150 milyar dolar ayırmıştır. Rusya ise 180 milyon dolar ayırmış, buna karşın Amerika yalnızca 2019 yılında yapay zeka teknolojisine 4.6 milyar dolar yatırım yapmıştır. Bu konudaki bilgilere, İngilizce askeri teknoloji dergilerinde geniş ölçüde yer verilmektedir.

İHA ve SİHA'ları en çok kullanan devletler Amerika, İngiltere ve İsrail'dir. Suriye'deki çatışmalarda, 2014-2018 yılları arasında İngiltere, Reaper SİHA'larını 2400 kez stratejik görevlerde kullanmıştır.[i] İsrail, SİHA'ları Gazze çatışmalarında yoğun olarak kullanmış ve kullanmaya devam etmektedir. Son beş yılda Türkiye ve Pakistan da otonom SİHA sistemlerini kullanmaya başlamıştır. Hatta, devlet dışı güçler de İHA ve SİHA kullanmaya başlamışlardır. Ukrayna, otonom SİHA sistemleri kullanarak Rusya'daki petrol rafinerilerine saldırmış, karşılığında Rusya ise iki katı yoğunlukta SİHA saldırılarıyla yanıt vermiştir.

İnsan denetimi olmadan otomatik silah sistemlerinin kullanılması, karşı etik ve ahlaki sorunlara yol açmakla birlikte, henüz bu sorunları çözmeye yönelik gerçek bir girişimin olmadığı görülmektedir. Uluslararası Kızılhaç Komitesi Başkanı Mirjana Spoljaric, 2024 yılında yapılan Viyana Otonom Silah Sistemleri Konferansı'ndaki bildirisinde: "Savaş dağınık, karmaşık ve daima dehşet vericidir. Otomatik silahlar, bütün öngörülemezlikleriyle siviller ve savaşanlar için yeni tehditler eklemektedir. Bu silahlar, kendi sensörlerinden aldıkları verilere dayanarak kendi başlarına ateş açmaktadırlar," şeklinde ifade etmiştir.[11] Gerçekte, Komite Başkanı'nın değindiği yeni tehditler, silahların kendisinden ziyade, onları kullananların uyması gereken kuralların henüz oluşturulmaması nedeniyle ortaya çıkmaktadır. Asıl sorun, sürekli yeni gelişmelerin yaşandığı bu teknoloji çağında, uluslararası hukukun insanları koruma konusunda gerekli kuralları oluşturup oluşturamayacağıdır. Rahmetli hocam Prof. Seha Meray'ın dediği gibi: "Maalesef teknoloji bir kuş gibi yükselip hızla uçarken, hukuk bir yılan gibi yerde sürünerek gelişmeleri takip etmektedir."

            




[1] İnternational Committee Of Red Cross,http://www.icrc.org/en/document/what-you -need-know-about-artificial -intelligence-armed-conflict.

[2] Kristian Humble,’War,Artificial intelligence,and The Future of Conflict’,Georgetown Journal of İnternational Affairs,12 Temmuz 2024,

[3] Birleşmiş Milletler, Declaration sur l'adoption de la Resolution (2023), https://press.un.org/2023/gadis3731.doc.htm. Oya sunulan hazırlık metni maddeleri için 164 devlet temsilcisi oy kullanmış, Belarus, Rusya, Hindistan, Mali ve Nijer olumsuz oy vermiştir. Çin, Kuzey Kore, İran, İsrail, Suudi Arabistan, Suriye, Türkiye ve Birleşik Arap Emirlikleri ise çekimser kalmışlardır. Mısır delegesi, kullanılan silah tipine bakılmaksızın, herhangi bir ölümcül güç kullanımı durumunda insani sorumluluk ve hesap verebilirliğin muhafaza edilmesi gerektiğini ifade etmiştir.

[4] Iaana-Alexandra Smarandescu et Nina -Maria Varzaru,Les Nouveaux Moyens de Faire La guerre.L’intelligence artificielle dans le Domaine du Droit international humanitaire,30 Haziran2024,Romanian Journal of İnternational Law,Universite de Bucarest.:https://rrdi.ro/2024/18/les-nouveaux-moyens-de-faire-la-guerre-lint…eans-of-waging-war-waging-war-artificial-intelligence-in-the-field-of-international/

[5] Political Declaration on Responsible Military Use of Artificial İntelligence and Autonomy,Bureau of Arms Control,Deterrence and Stability: https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial intelligence-and autonomy,Öğrenme kapasitesi olan makinaların yapay zeka ile birlikte kullanımında silah otomatik olarak düşmanın zayıf tarafını saptamakta kendi zayıflıklarını da belirlemektedir.Bir saldırı durumunda yapay zekaya bağlı silah otomatik olarak cevap vermektedir.

[6] Mehmet Akif Uzer,’The İntegration of Aİ in Modern Warfare:Ethical,Legal and Practical implicatıons40https://www.cyis.org/ post /the-integration -of-ai-in -modern-warfar…

[7] Discour Du Haut Commissaire aux Droit de L’Homme,12 Temmuz 2023.:Https://www.ohchr.org/fr/statements/2023/07/artificial-intelligence-must-be-grounded-says-high-commissioner.

[8] Bk.:Mehmet Akif Uzer,idem. ve İonna-Alexandra-Smarandescu et al,idem,.

[9] https:/www.the verge.com/2017/9/4/162551226/russia-ai-putin-rule-the-world.

[10] ‘Artificial İntellingence (A.İ) in Military Market Overview:https://www. marketresearchfuture.com/reports /ai-in-military-ma…6108182xhsa-kw=xhsa.

[11] Statement by ICRC President Mirjina Spoljeric to the Vienna Conference on Autonomous Weapon Systems 2024:Humanity at the Crossroads:https://www.icrc.org/en/ document/statetement-icrc-president-mirjana-spoljaric-vienna -conferance-autonomous-weapon-systems-2024.


[i] Drone war:https://www.the guardian.com/news/2019/nov/18/killer-drones-how-many-uav-predator-reaper.

img

İstanbul Kültür Üniversitesi Öğretim Üyesi

Prof. Dr.
HASAN KÖNİ