Ordu, yapay zekânın (AI) savaşta insan karar alma düzeneğine müdahale etmesini istiyor. Savaş periyodu üzere kriz anlarında hangi hastalara öncelik verileceği, kimin bekleyebileceği konusunda yapay zekânın devreye girmesi için çalışmalar başladı.
Geçen yıl ağustos ayında bir intihar bombacısı Kabil Memleketler arası Havalimanı’na saldırdı. 13 ABD askeri de dahil olmak üzere 183 kişi öldü. Bu tip bir şiddet, bilhassa saha çalışanları için son derece sıkıntı. Yüzlerce insanın bakıma muhtaçlığı var, yakınlardaki hastanelerde hudutlu yer var ve kimin evvel bakım alacağına ve kimin bekleyebileceğine dair kararların süratli bir formda alınması gerekiyor. Üstelik birden fazla vakit karşılık hem net değil hem de herkes tarafından kabul edilebilir değil.
ABD ordusunun inovasyon kolu olan Savunma İleri Araştırma Projeleri Ajansı (DARPA), karar verme sürecini yapay zekâ ile atlatmayı hedefliyor. “In the Moment” isimli yeni bir program üzerinde çalışan araştırmacılar, lansmanda insan önyargılarını ortadan kaldırmanın hayat kurtarabileceğini savunarak, algoritmalar ve datalar kullanarak gerilimli durumlarda süratli kararlar verecek bir teknoloji geliştirmek istediklerini açıkladılar.
ASKERÎ ALANDA DA KULLANILACAK
1958 yılında Lider Dwight D. Eisenhower tarafından kurulan DARPA, internet, GPS, hava durumu uyduları ve daha yakın vakitte Moderna’nın corona virüsü aşısı dahil olmak üzere çok sayıda yenilikte rol oynayan projeleri ortaya çıkaran teknoloji araştırmalarında en tesirli kuruluşlar ortasında yer alıyor.
Fakat ajansın AI ile geçmişi başka alanlarda olduğu kadar eski değil. 1960’larda ajans, doğal lisan işlemede ve bilgisayarların satranç üzere oyunlar oynamasını sağlamada ilerlemeler kaydetti. 1970’lerde ve 1980’lerde, bilhassa bilgi süreç gücündeki sınırlamalar nedeniyle ilerleme durdu.
BİR ARAÇ DEĞİL, MESLEKTAŞ OLACAKLAR
2000’li yıllardan bu yana, grafik kartları geliştikçe, bilgi süreç gücü ucuzladıkça ve bulut bilişim patlamasıyla birlikte, ajans askeri uygulamalar için yapay zekâ kullanımında bir canlanma gördü. 2018’de, AI Next isimli bir program aracılığıyla, AI’yi 60’tan fazla savunma projesine dahil etmek için 2 milyar dolar ayırdı ve bilimin gelecekteki savaşçılar için ne kadar merkezi olabileceğini gösterdi.
Ajans, AI Next programını duyururken, “DARPA, makinelerin yalnızca araçlardan daha fazlası olduğu bir gelecek öngörüyor. DARPA’nın öngördüğü makineler, araçlardan çok meslektaşlar olarak fonksiyon görecek” dedi.
İNSANLARIN BULAMAYACAĞI TAHLİLLER BULACAKLAR
DARPA’da program yöneticisi olarak vazife alan Matt Turek, algoritmaların tekliflerinin, son derece muteber insanları modelleyeceğini söyledi. Lakin, tecrübeli uzmanların bile şaşıracağı durumlarda akla yatkın kararlar almak için bilgilere erişebilecekler. Örneğin, AI’nin yakındaki bir hastanenin sahip olduğu tüm kaynakları belirlemeye yardımcı olabileceğini söyledi.
Turek, “Bilgisayar algoritmaları, insanların bulamayacağı tahlilleri bulabilir” dedi.
Fakat yapay zekâya kuşkulu yaklaşanlar da var. New School’da bir AI filozofu olan Peter Asaro, askeri yetkililerin, karar verme sürecinde algoritmaya ne kadar sorumluluk verildiğine karar vermeleri gerektiğini söyledi. Başkanların, etik durumların nasıl ele alınacağını da anlamaları gerekeceğini kelamlarına ekledi. Örneğin, büyük bir patlama olursa ve ziyan görenler ortasında siviller de olsa ağır yaralansalar bile daha az öncelik alırlar mı diye sordu.
AYRIMCILIK TEHLİKESİ
Bu ortada, AI etiğine odaklanan bir antropolog olan Sally Applin de program şekillenirken, DARPA’nın algoritmasının, önyargılı karar vermeyi sürdürüp sürdürmeyeceğinin değerli olacağını söyledi. Örneğin bakım için beyaz hastalar siyahlara tercih edilebilir:
“Yapay zekâda önyargı olduğunu biliyoruz; programcıların her durumu öngöremediklerini biliyoruz; AI’nın toplumsal olmadığını biliyoruz; AI’nın kültürel olmadığını biliyoruz.”
Sözcü