Srijeda, 18 lipnja, 2025
NaslovnicaVijestiUmjetna inteligencija odlučuje o životu i smrti u Gazi

Umjetna inteligencija odlučuje o životu i smrti u Gazi

Zapratite nas na Telegramu: https://t.me/provjeri_net i YouTube: https://www.youtube.com/@provjeri_net

Poligon za etičku katastrofu

U Gazi, usred razornog sukoba, odvija se neviđeni vojni eksperiment: izraelska vojska koristi umjetnu inteligenciju (AI) za donošenje odluka o životu i smrti, pretvarajući okupirani teritorij u globalni poligon za testiranje novih tehnologija. Ova praksa, razvijena u suradnji s američkim tehnološkim divovima, otkriva mračnu stranu AI ratovanja i postavlja hitna etička pitanja o odgovornosti, transparentnosti i vrijednosti ljudskog života.

AI kao oružje: Od prepoznavanja lica do automatiziranog ubijanja

Prema izvješću New York Timesa, Izrael je posljednjih 18 mjeseci integrirao AI u sve faze vojnog odlučivanja, uključujući prepoznavanje lica, analizu govora na arapskom jeziku i autonomni odabir ciljeva. Primjer je ciljano ubojstvo zapovjednika Hamasa Ibrahima Biarija krajem 2023., gdje je AI-potpomognuti audio sustav odigrao ključnu ulogu. Međutim, akcija je rezultirala smrću više od 125 civila, što pokazuje razorne posljedice takvih tehnologija.

Izraelska Jedinica 8200, uz podršku rezervista iz tvrtki poput Googlea, Microsofta i Mete, razvila je sustave u inovacijskom centru zvanom „Studio“. Ovi sustavi ne samo da identificiraju potencijalne mete, već i automatiziraju procese koji često dovode do pogrešnih identifikacija, proizvoljnih uhićenja i civilnih žrtava.

Gaza: Laboratorij za AI ratovanje

Stručnjaci iz Europe i SAD-a slažu se da nijedna druga vojska ne testira AI u stvarnim borbenim uvjetima tako agresivno kao Izrael. Gaza je postala jedinstveni poligon gdje se tehnologije primjenjuju bez značajnih političkih ili pravnih ograničenja. Na graničnim prijelazima, kamere visoke rezolucije povezane s AI sustavima za prepoznavanje lica često pogrešno identificiraju Palestince, što dovodi do uhićenja nevinih ljudi. Flota dronova, nadograđena AI sustavima, autonomno prati i napada ciljeve, dok modeli za analizu govora na arapskom jeziku ocjenjuju razgovore za odabir meta.

Najkontroverzniji element je baza podataka „Lavender“, koja sadrži 37.000 potencijalnih meta povezanih s palestinskim otporom. Prema obavještajnim izvorima, ova baza dopušta ubojstva civila kao kolateralnu štetu, posebno u ranim fazama bombardiranja. Jedan izraelski obavještajni časnik opisao je proces kao „hladnokrvni“, ističući da su odluke prepustili algoritmima, dok su ljudi bili tek „trkači“ koji potvrđuju automatske odluke.

Etička katastrofa: Algoritmi nad ljudskim životima

Iako Izrael tvrdi da AI sustavi štite civile, stvarnost je suprotna. Kombinacija automatiziranog odlučivanja, nedostatka ljudskog nadzora i netransparentnosti rezultira sustavom u kojem algoritmi odlučuju tko će živjeti, a tko umrijeti. Prema Human Rights Watchu, ova praksa krši međunarodno humanitarno pravo jer povećava civilne žrtve umjesto da ih smanjuje. Ciljano ubijanje tisuća ljudi na temelju statističkih korelacija i automatskih identifikatora nije samo pogreška – to je sustavski problem.

Izraelski stručnjak Hadas Lorber upozorava da nedostatak kontrole i odgovornosti u korištenju ovih tehnologija predstavlja ozbiljnu prijetnju. „Kada stroj odlučuje, tko je odgovoran za pogreške?“ pita se Lorber, ukazujući na etički vakuum u kojem se odvija ovo ratovanje.

Gaza kao presedan za budućnost

Ono što se događa u Gazi nije samo lokalni problem – to je upozorenje za budućnost ratovanja. Korištenje AI tehnologija bez adekvatnog nadzora i etičkih smjernica postavlja presedan za sukobe diljem svijeta. Ako algoritmi mogu hladnokrvno odlučivati o životima u Gazi, što sprječava njihovu primjenu u drugim sukobima, gdje će posljedice biti jednako razorne?

Izraelski novinar Yuval Abraham, čiji su radovi objavljeni u +972 Magazine i Local Call, dokumentirao je svjedočanstva vojnika koji opisuju dehumanizirajuću prirodu ovog procesa. „Nisam imao dodanu vrijednost kao čovjek“, rekao je jedan vojnik, naglašavajući kako AI sustavi zamjenjuju ljudski sud i empatiju.

Kamo vodi AI ratovanje?

Gaza nije samo bojno polje – ona je ogledalo koje pokazuje kamo vodi nekontrolirana primjena umjetne inteligencije u ratu. Kada tehnološka učinkovitost zamijeni etičku odgovornost, ljudski životi postaju samo brojke u algoritmu. Ovaj eksperiment u Gazi zahtijeva hitnu globalnu raspravu o granicama AI tehnologija, potrebi za ljudskim nadzorom i poštivanju međunarodnog prava. Jer ako dopustimo da strojevi odlučuju o životu i smrti, pitanje nije hoće li biti pogrešaka – već koliko će nas one koštati.

Provjeri/english.almayadeen.net

Foto naslovnice: web screenshot

Svidio vam se članak? Trebamo i vašu pomoć da nastavimo iznositi istinu!
VEZANO

najnovije