Silahlanma yarışında yapay zeka temelli tehlikeli evre, Ostim’de üretilen İHA ile başlamış olabilir

BM raporunda, Libya’da yaşanan çatışmalarda Türkiye menşeili KARGU-2 İHA’nın bir düşman askerini kendi kararıyla vurmuş olabileceği iddiası, yapay zeka odaklı silahlanma konusunda yeni bir çağın açılmış olabileceğini gösteriyor.

Silahlanma yarışında yapay zeka temelli tehlikeli evre, Ostim'de üretilen İHA ile başlamış olabilir

DIŞ HABERLER SERVİSİ

Birleşik Milletlerin Mart 2021 tarihli, Libya iç savaşındaki kural ihlallerini saptayan raporunda bulunan güya ilk olarak bir İHA yapay zekanın kendi kararı sonucu bir düşmanı saptama edip öldürdü.Merkezi Ostim’de bulunan STM adlı şirkete ait KARGU-2 isimli Türk İHA modelinin yaptığı bahis edilen saldırı, suni akıl temelli tabanca teknolojisinde bir ilk. Konuya ilişkin birçok bilim insanı endişeli.

ÇEKİLEN BİR ASKERİ ÖLDÜRDÜ

KARGU-2 isimli İHA modelinin, sahiden bir hedefi kendi kararıyla bularak öldürdüğüne ilişkin belirlenmiş bir kanıt demin bulunmuyor. Buna karşın bu teknoloji, herhangi bir insan kullanıcı kadar veri almadan, kendi algoritması ile düşman tespit edip öldürme kararı verecek şekilde tasarlandı. Standart İHA’lardan farklı olarak, bombardıman gerçekleştirmek yerine üzerindeki patlayıcılarla hedefe çarparak patlayan drone BM raporundaki iddialara tarafından bir düşman askerini kendi algoritmasıyla saptama ederek öldürdü. Raporda, savaş alanından çekilmekte olan Hafter askerlerinden birini niyet aldığı belirtilmiş Drone, suni zekaya ilişkin yeni tartışmalar da doğurdu.

Raporun yayınlanmasının ardındaki birçok askeri bilirkişi ve bilim insanı, yeni bir silahlanma yarışını başlatabileceği endişesini dile getirdi. Şu asıl değin herhangi bir manuel komut almaksızın düşman tespiti ve öldürme kararı bölge, aktif olarak İsrail’in HARPY ve Türkiye’nin KARGU-2 İHA’ları bulunuyor.

KARARI YAPAY ZEKAYA BIRAKMAK TEHLİKELİ

Algoritma ile kendi başına öldürme kararı verebilen suni akıl teknolojili silahların yaratacağı güvenlik riski de vesvese doğuruyor. Askeri güvenlik uzmanı Zachary Kallenborg’un yazısını Evrimagaci.org için uyarlayan Çağrı Mert Bakırcı, konuya ilişkin yazıda algoritma temelli kasıt tespiti ve öldürme kararının yaratabileceği tehditleri şu şekilde açıklıyor: “Otonom silahlarla ilgili endişe, suni zeka algoritmalarının ta kendisidir. Bu cihazlar otobüs, kamyon, tır, tank gibi öbür cihazlara ait görseller ve videolar kullanarak eğitiliyorlar. Bilgi seti yanlış, yetkisiz ya da beklenmedik içeriğe sahipse, bu silahlar da hiç hesapta olmayan, yanlış şeyleri öğrenebilirler.

İŞ İŞTEN GEÇMİŞ OLABİLİR

Makina öğrenmesi algoritmaları büyük oranda kara kutu algoritmalardır. Bir taraftan veri girer, dahası bir sonuç çıkar; lakin arada ne olup bittiğini anlayamayız ya da anlaması fazla güçtür, çünkü sistem çok karmaşıktır. bu nedenle hatalı bir karar alınacak olursa, bu sorunun niçin kaynaklandığını çözemeyebiliriz ve hata olduktan sonradan zaten meslek işten geçmiş olabilir. Otonom silah geliştiricilerinin, makina öğrenme sistemlerinin hatalı şeyler öğrenmesine niçin olan tüm olasılıkları öngörmeleri gerekir – ancak bu, şu anki teknoloji ile imkansızdır.”

BİLİM İNSANLARI ENDİŞELİ

Yapay akıl silahlanmasına yönelik endişe, şu ana değin 4500 bilim insanının imzası olan bir mektupla dile getirildi. Elon Musk, Stephen Hawking gibi isimlerin de dahil olduğu imzacılar, İnsansız Hava Arabulucu gibi teknolojilerle birlikte vefat kalım gibi yaşamsal konuların yapay zekaya bırakılmak için demin erken olduğunu belirtiyorlar.

Yorum yapın

Geçici Mail yks pdf indir instagram takipçi satın al tiktok takipçi satın al