Dirbtinio intelekto konvergencija su nacionalinio saugumo darbotvarkėmis atsirado kaip lemiamas pasaulinės galios dinamikos pokyčiai. Dirbtinio intelekto militarizavimas nebėra futuristinė sąvoka. Tai yra šių dienų realybė, atsiskleidžianti gynybos, stebėjimo ir technologijos ryšys. Kai mašinų mokymosi galimybės tampa sudėtingesnės ir integruotos į kritines sistemas, karinis-pramoninis kompleksas rado derlingą pagrindą Silicio slėnio naujovėse. Tai, kas kadaise buvo eksperimentinė, dabar veikia, o linija tarp civilių ir karinių AI pradėjo neramiai.

Aš, kaip teisinis profesionalas, esu išmokęs sekti atskaitomybės grandinę, kuri veikė, kuris nusprendė, kuris prisiima atsakomybę. Teisme kiekviena pasekmė turi pavadinimą. Tačiau suskaitmenintu mūšio lauku, kurį valdo algoritmai, ta grandinė užfiksuoja. Nėra liudytojo kryžminio egzamino, nėra jokio klausimo, nė vienas operatorius, kuris paskambino galutiniam skambučiui. Kas nutinka, kai karas vykdo sistemas, kurios negali pagrįsti, negali būti dvejojančios ir negali būti laikoma atsiskaityti?

Šiame straipsnyje aprašoma AI trajektorija kariniame naudojime, nagrinėjamos etinės savarankiškų ginklų spąstai ir tiriama platesnę patikėjimo karo padarinius algoritmams.

AI atsiradimas šiuolaikiniame kare

2018 m. „Google“ paskelbė antraštes, kuriomis atsisakė atnaujinti savo dalyvavimą projekte „Maven“ – JAV Gynybos departamento iniciatyvoje, kuri pritaikė dirbtinį intelektą, kad analizuotų dronų filmuotą medžiagą. Vykdydama vidinius protestus ir visuomenės patikrinimo bangą, bendrovė pasižadėjo vengti AI plėtros „ginklams ar kitoms technologijoms, kurių pagrindinis tikslas ar įgyvendinimas yra sukelti ar tiesiogiai palengvinti sužeidimą žmonėms“.

Greitai į priekį iki 2023 m., O dabar „Google“ yra vienas iš kelių technologijų milžinų, prisidedančių prie Pentagono AI ambicijų pagal sutartis pagal bendrą „Warfight Cloud“ galimybių (JWCC) projektą. Šis poslinkis atskleidžia ryškią evoliuciją ne tik įmonių politikoje, bet ir pačiame vaidmenyje AI pradeda žaisti šiuolaikiniame kare.

Dirbtinis intelektas, kadaise naudojamas tik karinei logistikai ar gerybiniams modeliavimams, dabar yra tiesiogiai integruotas į sprendimų priėmimo procesus, mūšio lauko vertinimus ir autonomines ginklų sistemas. Kadangi tokios kompanijos kaip „Google“, „Microsoft“, „Amazon“ ir „Palantir“ gilina savo bendradarbiavimą su gynybos agentūromis, atsiranda sudėtinga etinė ir strateginė dilema: kas kontroliuoja karo ateitį ir ką reiškia atiduoti mirtiną autoritetą mašinoms? AI militarizavimas kelia precedento neturinčių klausimų apie žmonių agentūrą, moralinę atskaitomybę ir pasaulinį saugumą. Vyriausybėms skubant plėtoti naujos kartos karo galimybes, ribos tarp inovacijų ir naikinimo tampa pavojingai neryškios.

Nuo palaikymo iki mūšio lauko: trumpa istorija

Dirbtinio intelekto integracija į karinę infrastruktūrą prasidėjo ne nuo dronų ar žudymo sąrašų. Ankstyvomis dienomis AI buvo modeliavimu pagrįstų mokymo, duomenų rūšiavimo ir logistikos optimizavimo priemonė. Ši technologija buvo naudojama prognozuojant įrangos gedimus, valdyti tiekimo grandines ir padėti atlikti žvalgybos analizę. Mokant mašinų mokymasis vystėsi, taip pat ir jo naudingumas gynybos sektoriui.

2010 m. Padidėjo Pentagono investicijos į technologijų partnerystę. Vienas ryškiausių bendradarbiavimo buvo „Project Maven“, kuris panaudojo AI siekiant pagerinti stebėjimo filmuotos medžiagos analizę. „Google“ vaidmuo projekte sukėlė vidinį maištą: tūkstančiai darbuotojų pasirašė peticiją, reikalaujančią, kad įmonė pasitrauktų iš „karo verslo“. Protestas veikė laikinai. Tačiau laikui bėgant sustiprėjo AI kariuomenės apetitas. Gynybos departamentas 2018 m. Įsteigė Jungtinį dirbtinio žvalgybos centrą (JAIC), signalizuodamas gilesnį įsipareigojimą integruoti AI visose ginkluotųjų pajėgų šakose. Tuo pačiu metu Silicio slėnio skepticizmas karinių projektų atžvilgiu ėmė minkšti, kuriai įtakos turėjo geopolitinė įtampa, nauja vadovybė ir pelningas gynybos sutarčių patrauklumas.

„Google“ pakeitimas

Po projekto „Maven“ „Google“ peržiūrėjo savo PG principus, paskelbdama, kad ginkluotų programų atsargas. Tačiau ši pozicija pasirodė esanti kalia. Iki 2023 m. Bendrovė užsitikrino poziciją JWCC-9 milijardų dolerių iniciatyvoje, skirtoje AI-paremtos debesų infrastruktūrai tiekti kariniam naudojimui.

„Google“ nebebuvo vienišas disidentas tarp technologijų milžinų. „Microsoft“, „Amazon“ ir „Oracle“ taip pat buvo projekto dalis, kiekviena prisidedančių įrankiai, skirti pagerinti kariuomenės skaičiavimo galią, duomenų analizę ir eksploatavimo efektyvumą. Nors nė viena iš šių įrankių nėra aiškiai pažymėti „ginklais“, jie neabejotinai tarnauja kovos funkcijoms – nuo kariuomenės diegimo optimizavimo iki taikinio palaikymo.

Kas paaiškina šią pasukimą? Pirma, pasikeitė geopolitinis kraštovaizdis. Didėjanti įtampa su Kinija ir Rusija atnaujino raginimus dėl technologinio pranašumo. Viduje šių firmų lyderystės pokyčiai taip pat įvedė pragmatiškesnę, į pelną orientuotą politiką. Kadangi linija tarp komercinių inovacijų ir gynybos naudingumo stulbina, etinėms riboms tampa sunkiau apibrėžti ir lengviau ignoruoti. Autonominių ginklų ir algoritminio karo kilimas.

Ko gero, labiausiai susijęs su karinės AI vystymuisi yra mirtinų autonominių ginklų sistemų (įstatymų) atsiradimas. Skirtingai nuo tradicinių dronų, kuriems reikia žmonių operatorių, įstatymai gali nustatyti, pasirinkti ir įsitraukti į taikinius be tiesioginio žmogaus indėlio. Šios sistemos naudoja mašinų mokymąsi prisitaikyti prie naujos aplinkos ir mokytis iš ankstesnių sužadėtuvių, padidindama bauginančią mašinų perspektyvą, kuria vystysis savo kovos taisykles.

Tokios šalys kaip Izraelis jau dislokavo AI-padidintos sistemos konfliktų zonose, o Rusija ir Kinija, kaip pranešama, daug investuoja į autonomines mūšio lauko technologijas. Vykstančio karo metu Ukrainoje AI buvo naudojama siekiant optimizuoti dronų streikus, numatyti priešo judėjimą ir netgi komunikacijos signalus. Šios sistemos ne tik palaiko žmonių kareivius, bet ir jas pakeičia.

Algoritminio karo įrankių diegimas kelia daugybę rizikų. PG gali būti suklaidinta manipuliuojamų duomenų arba nenuspėjamai veikti nepažįstamoje aplinkoje. Tai negali aiškinti ketinimo, vykdyti moralinį sprendimą ar suprasti žmogaus klaidų kainos. Kai tokios sistemos žlunga, sunku rasti atskaitomybę.

Etiški minų laukai: kas prisiima atsakomybę?

Lethal Lethal autoriteto delegavimo etika algoritmams išlieka viena ginčytiniausių karinių AI plėtros klausimų. Kritikai teigia, kad pašalinus žmonių priežiūrą iš gyvenimo ir mirties sprendimų, pažeidžia tarptautinę humanitarinę teisę. Kiti nurodo šališkumo pavojų. AI sistemos, apmokytos ydingų ar neišsamių duomenų, gali duoti katastrofiškų rezultatų, ypač įvairiose, didelėse aplinkose.

Taip pat yra psichologinio nuokrypio problema. Kai karas sumažėja iki kodo ir ekrano sąsajų, mažėja emocinis ir moralinis žudymo svoris. Kareiviai, veikiantys žudikų dronai, niekada negali pamatyti savo taikinių; Autonominės sistemos pašalina žmogaus buvimo poreikį. Šis atsiribojimas rizikuoja, kad normos, kurios karą paverčia reguliuojamu, nors ir žiauriu, institucija.

Tarptautinės įstaigos, tokios kaip Jungtinės Tautos ir „Human Rights Watch“, paragino draudimus ar griežtą autonominių ginklų reguliavimą. Vis dėlto ginklų varžybos išlieka. Už kiekvieną atsargų balsą kiti pasisako už greitą strateginio pranašumo diegimą. AI vystymuisi greičiau nei politikos reforma, etinės apsaugos priemonės stengiasi neatsilikti nuo tempo.

Pasaulinė saugumo rizika: AI ir naujos ginklų varžybos

AI sukėlė ne tik technologinę revoliuciją, bet ir geopolitinę. Lenktynės dėl AI viršenybės dabar yra kertinis pasaulinės strategijos akmuo, kai kaltinimą vadovauja JAV, Kinija ir Rusija. Kiekviena tauta bijo atsilikti domene, kuri galėtų iš naujo apibrėžti karinę galią.

Tačiau greitis kainuoja. PG pagreitina sprendimų priėmimo terminus, sumažindamas diplomatijos langą ar žmogaus sprendimą konfliktų metu. PG sistema gali klaidingai interpretuoti radaro trūkumą kaip ataką, paskatindama atsakomąjį smūgį, kad bet kuris žmogus galėtų įsikišti. Ši rizika sustiprėja, kai viena prieš kitą yra naudojamos kelios AI varomos sistemos, sukuriant nepastovią, automatizuotą grįžtamojo ryšio kilpą.

Pasaulinės sutarties nebuvimas AI ginkluose dar labiau pablogina problemą. Skirtingai nuo branduolinių ginklų, kurie yra reguliuojami pagal paktus, tokius kaip neplatinimo sutartis, nėra jokių įpareigojančių susitarimų, reglamentuojančių AI vartojimą kare. Rezultatas yra laukiniai vakarai nuo technologinio eksperimento su didelėmis statymais ir minimalia priežiūra.

Visuomenės nuomonė ir įmonės atsakomybė

Visuomenės atsakas į militarizuotą AI buvo nevienareikšmis. Atlikus projektą „Maven“ parodė, kad piliečiai ir technologijų darbuotojai gali paveikti įmonių elgesį. Tačiau nuo to laiko technologijų pramonė patikslino savo pranešimus. Šiandien karinė AI dažnai formuojama kaip „gynybinė naujovė“ arba „tikslumo ir efektyvumo“ įrankis, o ne sunaikinimas. Dabar įmonės skelbia etikos gaires ir sudaro AI etikos tarybas, nors kritikai teigia, kad tai labiau susiję su optika, o ne dėl esmės. Taip pat sustiprėjo lobizmo pastangos, kai įmonės reikalauja palankių taisyklių, išplėsdamos savo gynybos portfelius. Atotrūkis tarp visuomenės suvokimo ir įmonės realybės išsiplėtė, todėl daugelis nežinojo, kaip giliai įsitvirtinusios civilių technologijų platformos tapo kariniais tikslais.

Galų gale klausimas yra atsakingas. Ar korporacijos turėtų nustatyti savo moralines ribas, ar vyriausybės turėtų jas primesti? Ar technologijų darbuotojai bendrininkauja, kai jų kodas įgauna raketų streiką? Kai AI įsitraukia į karo mechaniką, šie klausimai taps sudėtingesni ir skubesni.

Išvada

Dirbtinio intelekto militarizacija nėra horizonte. Tai čia. Tai, kas prasidėjo kaip „Backend Logistics“, persikėlė į „Kill“ grandinę, ir mes leidome tai įvykti su vos su pauze.

Technikos kompanijos kalba apie etiką, pasirašydamos milijardų dolerių gynybos sutartis. Vyriausybės persekioja greičiau, protingesnius ginklus. O kažkur viduryje mes sukūrėme ramybę su mintimi, kad mašina gali patraukti gaiduką ir niekas neturi į tai atsakyti.

Tai ne apie nesąžiningus robotus. Kalbama apie sąmoningus dizaino pasirinkimus. Apie tai, kas nusprendžia, kaip atrodo „priimtina rizika“, kai tikslai yra tikri žmonės, o logika yra palaidota kode. Mes ne tik automatizuojame karą. Mes pašaliname viską, kas kadaise padarė žmogišką dvejonių, atsakomybę, gailestį.

Ir kai tik dings, liko tik vykdymas.

Marc-Roger Gagné Mapp

@otlegalrebels

Nuoroda į informacijos šaltinį