Cambridge Üniversitesi'nde büyük veri ve yapay zekada etik üzerine araştırmalar yapan Melike Tanberk, insan faktörünü merkezde tutmak kaydıyla yapay zeka teknolojilerine adaptasyonun önemini AA Analiz için kaleme aldı.
***
Soğuk Savaş döneminde bir Sovyet subayı olan Stanislav Petrov, 26 Eylül 1983'te Sovyetler Birliği'nin erken uyarı sistemini denetlemekle görevli komuta odasında oturuyordu. Bir alarm Amerika Birleşik Devletleri'nden (ABD) bir füze fırlatıldığını gösterdiğinde Petrov'un görevi derhal misilleme yapmaktı. Ancak, bu tür eylemlerin vahim sonuçlarının, potansiyel olarak 3. Dünya Savaşı'nı başlatabileceğinin ve aynı zamanda dünyadaki yaşamı sona erdirebileceğinin farkında olarak tereddüt etti. Bunun yanlış bir alarm olduğuna inanan Petrov, alarmı bildirmemeyi ya da "FIRLATMA" düğmesine basmamayı tercih etti. Bir ömür gibi gelen bu kritik saniyeler, özellikle küresel felaket olasılığıyla karşı karşıya kalındığında, insan muhakemesi ile otomatik sistemler arasındaki hassas dengeyi vurguluyor. Nihayetinde, sistemin bulutların üzerindeki güneş ışınlarını füze fırlatılmasıyla karıştırdığı anlaşıldı ve yalnızca otomatik teknolojilere güvenmenin potansiyel tehlikeleri vurgulandı.
Savaşta yapay zekanın stratejik etkileri
Petrov'un önemli kararından bu yana teknoloji önemli ölçüde gelişti, ancak silahlanma yarışı kavramı sabit kaldı. Artık ülkeler, sağlık, endüstri ve en önemlisi otonom silah sistemleri de dahil olmak üzere çeşitli sektörlerdeki dönüştürücü potansiyelini kabul ederek yapay zeka teknolojilerine büyük yatırımlar yapıyor.
Bununla birlikte yapay zekanın savaştaki etik ve stratejik sonuçları hakkındaki, özellikle karar verme yetkisinin insan operatörlere karşı otomatik sistemlere devredilmesiyle ilgili tartışmalar şiddetlenmeye devam ediyor. Devam eden bu tartışma, teknolojinin gücüne saygı duyarken insan muhakemesinin önemine de değer veren dengeli bir yapay zeka geliştirme yaklaşımına ihtiyaç duyulduğunu ortaya koyuyor.
Ülkelerin ulusal yapay zeka programlarını sürdürüp sürdürmemesi gerektiği sorusu, teknolojik egemenliğin daha geniş etkilerine göz atmayı gerektiriyor. Tıpkı İspanyol fatihlerin üstün silahlarının 16. yüzyılda Amerika kıtasının güç dinamiklerini yeniden şekillendirmesi gibi, gelişmiş yapay zeka teknolojileri de modern çağda jeopolitik rekabetleri ve ulusal güvenlik stratejilerini etkileme potansiyeline sahiptir. Yapay zeka yeteneklerine sahip olmayan uluslar, egemenliklerinden ödün verme ve fethe yol açan teknolojik eşitsizliklerin tarihsel örneklerine benzer şekilde sömürü veya sömürgeleştirmeye karşı savunmasız hale gelme riskiyle karşı karşıya. Bu durum, ulusal güvenlik çıkarlarını korumak için yapay zeka araştırma ve geliştirmeye yatırım yapmak gerektiğini gösteriyor.
Soğuk Savaş'ın yapay zeka boyutu
Büyük güçler gözetleme, karar verme ve stratejik avantaj için yapay zeka yeteneklerinden yararlandıkça, birçok yönden Soğuk Savaş'ın yapay zeka boyutuna zaten tanık oluyoruz. Dünyanın geri kalanı için bu yeni çağın gerçeklerine uyum sağlamak, geride kalmaktan ve korkunç sonuçlarla karşılaşmaktan kaçınmak için zorunludur. Bu adaptasyonun merkezinde yer alan en önemli husus, yapay zeka algoritmalarının can damarı olan verilerin etkin bir şekilde kullanılması ve kontrol edilmesidir. Büyük veriye öncelik veren ve yapay zeka araştırma ve geliştirmesine yatırım yapan ulusların, infosferdeki ulusal sınırlarını koruma şansı daha yüksektir.
Petrov'un kararına dönecek olursak, bu karar yapay zeka çağında insan muhakemesinin önemine dair dokunaklı bir hatırlatma işlevi görüyor. Teknoloji gelişse de, ulus olmanın özü coğrafi sınırlardan daha fazlasını kapsar; paylaşılan değerleri, kültürel mirası ve kolektif bilinci içerir. Bu nedenle, bir Soğuk Savaş senaryosunda yapay zekanın karmaşıklıklarının üstesinden gelirken, olası felaketleri önlemek için insan karar verme mekanizması her şeyden önemli olmaya devam etmelidir. Petrov'un bir keresinde belirttiği gibi, "Biz makinelerden daha zekiyiz çünkü onları biz yarattık."
Mütercim: Hatice Karahan
[Melike Tanberk, 5 çocuk annesi, Oxford Üniversitesi'nden mezun oldu ve şu anda Cambridge Üniversitesi'nde Büyük Veri ve Yapay Zeka'da etik üzerine araştırmalar yapıyor.]
*Makalelerdeki fikirler yazarına aittir ve Anadolu Ajansının editöryal politikasını yansıtmayabilir.