Kılıç ve Algoritma: Savaşta Yapay Zeka Etiği Neden Gerekli?

Suzan

New member
Ukrayna'daki savaş, iki nedenden dolayı savunmanın dijitalleşmesine güçlü bir ivme kazandırdı. Ticari veya sivil amaçlarla toplanan verilerin savunma operasyonları için büyük potansiyele sahip olduğu tespit edildi. Örneğin vatandaşlar tarafından sosyal ağlarda paylaşılan fotoğraflar gibi veriler, askeri teçhizat kayıplarının takibi veya savaş suçlarının belgelenmesi açısından önemlidir. Bu durum, sektördeki orta ve büyük şirketleri, dijitalin savunma amaçlı kullanım kapsamını genişleten yeni teknolojiler ve hizmetler (çoğunlukla doğrudan Ukrayna'da test edilmiştir) geliştirmeye itmiştir. Yapay zeka (AI) bu dönüşümün baş kahramanıdır. Yapay zeka, istihbarattan siber operasyonlara ve kinetik (savaş) operasyonlara kadar savunma karar alma ve operasyonel süreçlerinin tüm yelpazesini değiştiriyor. Savunmada ayırt edici bir faktör, bir anahtar yetenekbu olmadan rakibe karşı avantajı sürdürmek zordur.

Savunma açısından yararlı olsa da yapay zeka endişe verici kullanımlara da elverişlidir. Rusya-Ukrayna savaşında her iki cephe de otonom silahlar kullandı ve kullanıyor, ancak bunların meşruiyeti henüz kesinlik kazanmadı. Endişeler aynı zamanda karar almayı destekleyen kullanımları da kapsamaktadır. Bu, İsrail tarafından Gazze Şeridi'ndeki hedefleri belirlemek için kullanılan ve yeterli kontrol süreçleri olmayan ve yüksek bir yanlış pozitif eşiğine sahip olmasına rağmen (%10, toplam en az 3700 hatalı tanımlanmış) kullanılan iki yapay zeka sistemi olan Gospel ve Levender için de geçerlidir. .


AI savaşta

Şu anda İsrail ordusunun en tehlikeli silahı yapay zeka



Düzenleyen: Pier Luigi Pisa

30 Aralık 2024



Savunma yüksek riskli bir sektör: Yapay zeka burada büyük faydalar sağlayabilir ancak aynı zamanda insanların temel haklarını ve toplumlarımızın kurucu değerlerini de ihlal edebilir. Bu nedenle savunmada yapay zekanın benimsenmesini çevreleyen düzenleyici boşluk özellikle dikkat çekicidir. Liberal demokrasilerde yapay zeka yönetişimi yalnızca ilk adımlarını atıyor. Şimdilik yürürlükte olan tek düzenleme Avrupa Yapay Zeka Yasasıdır; ancak bu yasa, yapay zekanın savunma amaçlı kullanımının bu yasanın kapsamına girmediğini belirtir (Madde 3).

Hükümleri yapay zeka konusunda da geçerli olan uluslararası insancıl kanunlar mevcuttur ancak bunların doğrudan uygulanması zordur. Örneğin savaş suçlarının bireysel sorumluluğunun atfedilmesi çok önemlidir. Nürnberg duruşmalarının belgeleri de şunu tekrarlıyor: “Uluslararası hukuka karşı suçlar, [esseri umani]Soyut varlıklar tarafından değil, ancak bu tür suçları işleyen kişilerin cezalandırılmasıyla uluslararası hukuk hükümlerinin uygulanması mümkün olabilir.”


Yapay Zeka Eylem Zirvesi

Yapay zekanın büyümesi için bir otoyola ihtiyacı var



Yazan: Barbara Caputo*

31 Aralık 2024



Yapay zeka örneğinde otonom silahlarda kullanıldığında sorumluluğun atfedilmesi oldukça sorunludur. Kısmen bu makinelerin dağıtılmış bir şekilde üretilmesi nedeniyle, tasarım ve kullanımdaki seçimleri belirlemek zordur ve bu da daha sonra cezai işlemlere yol açar. Ancak asıl sorun, bu makinelerin, tasarımcıların ve kullanıcıların öngörmediği veya amaçlamadığı istenmeyen eylemleri gerçekleştirebilmesidir. En azından etik açısından, niyet ile sonuç arasındaki bağlantı koptuğunda sorumluluk yüklemek zordur.

Otonom silahlar durumu bize, yapay zekanın savunmada kullanımını düzenlemenin gerekli olduğunu ancak bu kullanımların gerektirdiği değişiklikleri anlamak, fırsatları ve riskleri belirlemek ve meşru çıkarları dengelemek için kavramsal analiz gerektirdiğini gösteriyor. Bu analiz, liberal demokrasilerin temelindeki değerler ve haklarla uyumlu çözümlerin tanımlanması açısından büyük önem taşıyor. Bunun alternatifi ise savunmanın dijitalleşmesinin demokrasilerimizin kendilerini mağlup etme fırsatına dönüşmesidir, çünkü demokrasiler onları oluşturan değerleri ve hakları ihlal ederek kendilerini savunurlar.

Ancak savunmada yapay zeka etiği konusu hâlâ kamuoyundaki tartışmanın kenarlarında kalıyor. Bu, savunmayı ve savaşı nasıl algıladığımızın bir sonucudur. Örneğin pasifistler savunmada yapay zeka etiğinin gereksiz olduğunu düşünüyor: savaşın kendisi kabul edilemez. Bu sonuca ulaştığınızda, işin içinde yapay zeka olsun ya da olmasın, daha fazla etik analize gerek yok. Daha alaycı olanlar için, hadi realpolitikSavunmada yapay zekanın etiği bir engel olmasa da önemsizdir çünkü büyük stratejik ve taktiksel etkiye sahip bir teknolojinin kullanımını sınırlandırmaktadır. Dolayısıyla rakiplerimize göre bizi dezavantajlı duruma düşürebilir.

Her iki pozisyonun da yanlış olduğuna inanıyorum. Pasifistlere katılıyorum, savaş kaçınılması gereken bir kötülüktür. Ancak savaşın meşru biçimleri de var, savunma biçimleri de. Haklı savaşların daha önce bahsettiğim değerlere ve haklara uygun olarak yapılması gerekiyor. Etik, onları tanımlamaya ve savaş gibi zor bağlamlarda onlara saygı göstermenin yolunu göstermeye hizmet eder.


Güzel Zihinler

Manolo Luppichini: Gazze'nin dünyayla bağlantısını sağlayan “Ağ ağaçları” onunkiler



kaydeden Eleonora Chioda

03 Ağustos 2024



Yapay zekanın savunmada kullanılması üzerine düşünürken, Odysseia'dan bir pasaj aklıma geliyor; Ulysses, Telemachus'a kılıçları taliplerin geleceği odadan çıkarmasını emrediyor, “çünkü demir [le spade] kendisi insanı çeker” – silahlar insanı şiddete teşvik eder. Yapay zekanın bu suiistimalleri teşvik mi ettiğini yoksa sadece bir araç mı olduğunu merak ettim; yani öldüren ister silahlardır, ister onları kullanan insanlardır. Teknoloji etiğiyle ilgilenenler için eski bir sorun, savunmada yapay zeka yönetimini geliştirmek ve bu suiistimallerin tekrar yaşanmasını önlemek için çözülmesi gereken çok önemli bir konu. Kılıç şiddeti teşvik ediyorsa bunun nedeni, şiddet getirmek için tasarlanmış, geliştirilmiş ve kullanılmış olmasıdır. Aynı şey yapay zeka için de geçerli: Savunmada bu teknolojinin kötüye kullanılması kötü tasarım, geliştirme ve uygulamanın sonucudur. Haklı savaşların adaletsiz, vahim sonuçlara yol açmaması için tüm bu adımlarda etik gereklidir.

Kötümserler bile hata yapar. Etik açıdan bakıldığında, rakiplerimiz gibi olmak istemediğimiz sürece teröristlerle terör yöntemleriyle, diktatörlüklerle diktatörlük yöntemleriyle savaşmıyoruz. Pragmatik açıdan bakıldığında, etik ilkeler doğrultusunda yapılan savaşlar daha kalıcı bir barışa, daha istikrarlı dengelere yol açar.


Röportaj

Cory Doctorow ve boktanlaştırma teorisi: teknoloji neden daha da kötüye gidebilir?



kaydeden Bruno Ruffilli

23 Nisan 2024



Savunmada yapay zeka etiğinin gerekli bir adım olduğu göz önüne alındığında, geriye hangi etiğin gerekli olduğunu anlamak kalıyor. Yapay zekanın yaygın şekilde benimsenmesi tıp gibi diğer sektörlere göre daha geç gerçekleşti. Bu iyi bir haber çünkü bu alanlardan öğrenebiliriz. Örneğin son yıllarda Amerikan, İngiliz, Fransız savunma kuvvetleri ve NATO, şeffaflık, kontrol ve bu teknolojinin sağlamlığı gibi sivil alanlarda tartışılan konuları dikkate alarak hazırlanmış yapay zeka için etik ilkeler oluşturmuştur. .

Bu önemli bir adımdır ancak iki nedenden dolayı yetersizdir. Birincisi, şu ana kadar benimsenen ilkelerin yapay zeka etiğine ilişkin tartışmanın konularına odaklandığı ancak savunma konularıyla ilgili olarak bulanık olduğudur. Buradaki temel soru, yapay zekanın bazen güç kullanımını gerektiren zorlayıcı eylemleri nasıl etkilediğidir. Bu kombinasyon (yapay zeka ve zorlama) şu ana kadar üretilen etik ilkelerin merkezinde yer almıyor. Bu odaklanma olmadan, bu ilkelerin yangını söndürmek için bir bardak su kadar yararlı olma riski vardır. İkinci sebep ise ilkelerin yorumlanması, birbirleriyle dengelenmesi ve uygulamaya dönüştürülmesi gerektiğidir. Bu süreç karmaşıktır ve meşru olabilmesi için ilgili tüm kategorilerin temsilcilerinin sürece dahil olmasını gerektirir (paydaşlar): siviller, teknoloji sağlayıcıları, savunma güçleri. İncelenebilmesi ve geliştirilebilmesi için bağımsız ve şeffaf olması da gerekir.


Yapay zeka

ChatGpt kullanan İran dezenformasyon kampanyası



kaydeden Pier Luigi Pisa

20 Ağustos 2024



Kendilerine etik ilkeler koymuş olan savunma güçleri artık bu uygulamaya geçişle karşı karşıyadır. Ancak ilkelerin yorumlanması çoğunlukla açık bir metodoloji olmadan veya doğru muhatapların katılımı olmadan gerçekleşir. Bu çok sorunludur, çünkü düzenleyici boşluk göz önüne alındığında, ilkelerden türetilen uygulamalar, yeterli süreçler olmadan, bu teknolojiyi kullanacak aynı kişiler tarafından dahili olarak tanımlanan kurallara dönüşme riski taşır. Bir paradoks: Bundan kaçınmak için savunma güçlerinin şeffaflığa ve ilgili uzmanların ve paydaşların katılımına yönelik büyük bir kararlılığa ihtiyacı var.

Savunmanın kamusal tartışmada daha az tenha bir konuma getirilmesinin de gerekli olduğuna inanıyorum. Savunmada yapay zeka etiğine ilişkin tartışma da bu amaç için faydalı olabilir. Geçtiğimiz on yıllarda dijitalin dönüştürücü bir güç olduğunu öğrendik. Bugün dediğimiz çevreyle, toplumlarımızla etkileşim şeklimizi değiştirdi. dijital. Savunma, özellikle de savaş aynı zamanda dönüştürücü bir güçtür. İkisi bir araya geldiğinde, bu güçlerin açık, demokratik, adil ve çoğulcu toplumlara yol açmasını (ya da en azından gelişimini engellememesini) sağlamak için etik gereklidir; umarım stabildir. Etik olmadan teknoloji ve savunma, bizi en iyi ihtimalle ticari ve jeopolitik çıkarların gerektirdiği yere götüren kör dürtülerdir.

*Dijital Etik ve Savunma Teknolojileri Profesörü, Oxford İnternet Enstitüsü, Oxford Üniversitesi. Yazarı Savunmada Yapay Zekanın EtiğiOxford University Press, Raffaello Cortina tarafından İtalya'da yayınlanacak.