15/06/2024

Athens News

Yunanistan'dan Türkçe haberler

Yapay zeka Gazze Şeridi'ndeki bombalama hedeflerini belirledi


İsrail ordusunun Gazze'deki bombalama kampanyasındaki hedefleri belirlemek için test edilmemiş ve bilinmeyen bir yapay zeka veri tabanı kullandığına dair bir rapor, bunun “savaş suçu” anlamına gelebileceğini söyleyen insan hakları ve teknoloji uzmanlarını alarma geçirdi.

İsrail-Filistin yayını +972 Dergisi ve Yahudi medya kuruluşu Local Call yakın zamanda İsrail ordusunun Lavender adlı yapay zeka hedefleme sistemini kullanarak binlerce Filistinliyi potansiyel bombalama hedefi olarak tanımlıyor.

“Bu veritabanı 37.000'e kadar hedef için ölüm listelerinin derlenmesinden sorumludur.”– İsrail'de yasaklanan El Cezire TV kanalının muhabiri Rory Chalandz, Perşembe günü işgal altındaki Doğu Kudüs'ten haber yaptığını söyledi.

Medyaya konuşan ismi açıklanmayan İsrail istihbarat yetkilileri, Lavender'ın hata payının yüzde 10 civarında olduğunu söyledi. “Ancak bu, İsraillilerin bunu Gazze'deki düşük rütbeli Hamas üyelerinin kimliklerini tespit etme sürecini hızlandırmak ve onları bombalamak için kullanmasını engellemedi.” – dedi Challands.

Açıkça görülüyor ki, İsrail ordusu “Sivillerin yaşamı ve ölümü hakkında kararlar almak için denenmemiş yapay zeka sistemlerini kullanmak, Hamid Bin Khalifa Üniversitesi Orta Doğu Çalışmaları ve Dijital Beşeri Bilimler doçenti Mark Owen Jones, Al Jazeera'ye şunları söyledi: – Açık olalım: Bu yapay zeka destekli bir soykırımdır ve şimdi yapay zekanın savaşta kullanımına ilişkin bir moratoryum çağrısında bulunmalıyız.”

İsrail medyası bu yöntemin binlerce Gazzeli sivilin çoğunun ölümüne yol açtığını bildirdi. Perşembe günü Gazze sağlık bakanlığı, 7 Ekim'den itibaren İsrail'in bir sonucu olarak saldırılar en azından öldü 33.037 Filistinli ve 75.668 yaralı.

Yapay zekanın kullanımı insani hukuku “ihlal ediyor”. “Yapay zeka veritabanıyla etkileşime giren insanlar genellikle sadece birer damgaydı. Bir hava saldırısına izin verilip verilmeyeceğine karar vermeden önce bu ölüm listesini 20 saniye boyunca inceliyorlardı.”dedi Challands.

Genişletilmiş eleştirilere yanıt olarak İsrail ordusu, analistlerinin inceleme yapması gerektiğini söyledi. “bağımsız kontroller” belirlenen hedeflerin uluslararası hukuk kapsamındaki ilgili tanımlara ve kendi kuvvetleri tarafından uygulanan ek kısıtlamalara uygun olmasını sağlamak. Teknolojinin olduğu fikrini çürüttüler “sistem” “sadece amacı terör örgütlerinin askeri görevlileri hakkında güncel bilgi katmanları elde etmek amacıyla istihbarat kaynaklarını çapraz eşleştirmek olan bir veri tabanı.”

Ancak amaçlanan hedef olan her Filistinli savaşçının, “beş ila on arasında sivil ölümü varsayıldı” nedenini gösterir Gazze'de çok sayıda sivil öldü. diyor Challands.

Sidney'deki New South Wales Üniversitesi'nde yapay zeka uzmanı olan Profesör Toby Walsh, hukuk uzmanlarının hedefleme için yapay zekanın kullanılmasının uluslararası insancıl hukuku ihlal ettiğini iddia etmelerinin muhtemel olduğunu söylüyor. “Teknik açıdan bakıldığında, bu son haber, savaşı korkunç ve trajik bir şekilde körükleyen yapay zeka sistemlerinin anlamlı gözetimini sağlarken insan unsurunu korumanın ne kadar zor olduğunu gösteriyor.” – El Cezire ile yaptığı röportajda söyledi.

Ordunun böyle bir hataya sahip potansiyel hedefleri belirlemek için yapay zekayı kullanmasının muhtemelen %100 haklı olacağını belirtmekte fayda var. Beyaz Saray sözcüsü John Kirby'ye göre kayıt yapmadılar TEK BİR OLAY DEĞİLİsrail'in ihlal edeceği yer uluslararası insancıl hukuk! Bu, Gazze'deki savaş sırasında yaşanan her şeyin yanı sıra Suriye'deki İran büyükelçiliğine yapılan saldırının da ABD açısından kesinlikle yasal olduğu anlamına geliyor.

Şunu söylemelerine şaşmamalı: Eğer bir beyefendi kurallara göre kazanamaz, onları değiştirir”.



Source link

Verified by MonsterInsights