Dezvoltarea modelelor lingvistice avansate (MLA) – un tip de inteligență artificială (IA) care excelază în prelucrarea, înțelegerea și generarea limbajului uman – și a modelelor fundamentale multimodale a început deja să modifice războiul modern. În timpul operațiunii ucrainene „Spiderweb” din iunie, aparatele zburătoare fără pilot ucrainene au utilizat navigare autonomă susținută de inteligență artificială pentru a ataca mai multe baze aeriene ruse.
După ce sistemul standard GPS și liniile de comunicații au fost oprite de interferențele rusești, senzori integrați și algoritmul preprogramat au însemnat că „țintirea alternativă prin IA” a preluat controlul.
Atacul, cel mai îndelungat al Ucrainei din conflict până acum, a dus la distrugerea unor aeronave rusești de o valoare considerabilă.
„Automatizarea și viteza de prelucrare a datelor — identificarea imaginilor, gestionarea logisticii și analiza tiparelor — reprezintă doar o parte din evoluție. O modificare, probabil, mai semnificativă, este în derulare, către simulare sintetică în sistemele de inteligență artificială”, observă John James și Alia Brahimi pentru Atlantic Council.
„Empatie strategică”
Inițiativa Savantului Nebun (Mad Scientist) a Armatei SUA și programul de Analiză Strategică a Prospectivei al NATO au identificat simularea adversarului bazată pe inteligență artificială ca fiind crucială pentru pregătirea forțelor comune în condiții variate.
- Mad Scientist este o inițiativă a Armatei SUA și o comunitate de acțiune care investighează în permanență viitorul prin colaborări și discuții constante cu mediul academic, industria militară și guvern.
- Prin intermediul acestei inițiative, Armata modelează perspectivele viitoarelor operațiuni multi-domeniu (de exemplu, terestre, aeriene, maritime, cibernetice și spațiale) în calitate de lider în transformarea războiului.
Asta presupune – explică John James și Alia Brahimi – hărțuirea prejudecăților adversarilor, evidențierea punctelor slabe cognitive interne și previziunea escaladărilor bazate pe narațiuni.
„Ideea este de a stimula ceea ce s-a numit «empatie strategică» – efortul sistematic de a înțelege modul în care adversarii percep interesele, amenințările și oportunitățile – și de a micșora probabilitatea escaladării accidentale.
- Sisteme de inteligență artificială, cum ar fi GPT-urile, manifestă elemente de bază ale teoriei minții – adică capacitatea de a estima că alții pot avea convingeri diferite.
- Această abilitate a fost demonstrată – în cadrul studiilor juridice de specialitate – prin finalizarea cu succes a sarcinilor bazate pe interpretări eronate, cum ar fi recunoașterea unei persoane care caută un obiect acolo unde crede, în mod greșit, că se află, mai degrabă decât unde se află de fapt – un semn al dezvoltării cognitive și o abilitate considerată unică speciei.
- În context militar, dacă sunt corect direcționate și validate, astfel de abilități vor permite în curând simularea în timp real a logicii adverse sau a ambiguitații strategice.
Capacitatea de a extrapola și anticipa precis comportamentele și intențiile strategice ale adversarilor se poate dovedi esențială pentru a depăși concurența cognitivă, considerată aici ca abilitatea demonstrabilă de a simula, prezice și depăși ciclurile de decizie ale adversarului.
În practică, asta se măsoară prin reducerea timpului de decizie, precizie mai mare în previziunea escaladărilor și validare funcție de comportament observat în rezultate testabile. Într-o perioadă caracterizată de competiția percepțiilor, integrarea reușită și sigură a simularii sintetice în capacitățile de apărare ar putea dovedi a fi factorul vital.
Prin urmare, integrarea elementelor culturale, istorice și ideologice în sistemele cognitive va fi importantă pentru asigurarea superiorității strategice. Se pare că China se investiga deja în sisteme de IA pentru uz militar.
„IA trebuie să depășească simpla analiză a datelor structurate”
Esența eforturilor de a simula raționamentul adversarial reflectă o dualitate cognitivă între conștiința ghidată și conștiința alimentată.„Aceasta nu este o terminologie standard a inteligenței artificiale, ci un cadru conceptual care introduce distinctia dintre două moduri de gândire”, continuă John James și Alia Brahimi.
„Conștiința ghidată se referă la învățarea structurată, fapte și logică procedurală. Conștiința alimentată, în schimb, rezultă din cultură, istorie, traumatisme, identitate și emoții – forțe care modelează modul în care un actor interpretează riscul, legitimitatea și trecutul.
Pentru a raționa mai eficient, IA trebuie să depășească analiza simplă a datelor structurate. Trebuie să integreze memoria istorică, reprezentările culturale ale lumii, interpretări simbolice și factori ideologici ai conflictului.
De exemplu, un comandant al Armatei Populare de Eliberare (APL) influențat de războiul sino-vietnamez din 1979 ar putea demonstra prudență pe teren muntos, un detaliu invizibil pentru majoritatea modelelor automatizate, dar cunoscut experților instruiți în memoriile, doctrina și istoriografia APL.
- Deciziile militare sunt rar luate izolat de istoria personală sau colectivă.
- Strategia este adesea modelată de o logică narativă profundă, care cuprinde mituri naționale, identități și ideologie.
- Dincolo de logica procedurală și geografia frontului, războiul se poartă prin percepție: modul în care fiecare actor experimentează rușinea, frica, onoarea, legitimitatea și amintirile.
- Aceste variabile nu există în streamurile de date, supraveghere și recunoaștere, sau în tabelele de probabilitate.
Acestea sunt prezente în mintea adversarilor, modelate de decenii, ba chiar secole, de istorie, traumatisme și indoctrinare politică. Aceasta este baza cognitivă a acțiunii strategice și nu poate fi aproximată doar prin cunoștințele dobândite.
„Escatologie religioasă, nemulțumiri istorice și teatru narativ”
„Luați în considerare amenințarea reprezentată de grupări jihadiste, cum ar fi Statul Islamic din Irak și al-Sham sau ISIS și Boko Haram, care nu urmează logica strategică clasică”, exemplifică autorii analizei.
„Comportamentele lor sunt modelate de escatologia religioasă (n.red. – modelul destinului uman, sfârșitul lumii și judecata de apoi, examinată în contextul credinței într-o existență post-mortem și a destinului lumii și speciei umane), nemulțumirile istorice și teatrul narativ.
Acestea folosesc violența dramatică și frica ritualizată pentru a-și susține atractivitatea ideologică, angajându-se adesea într-un conflict ideologic împotriva influenței occidentale și folosind brutalitatea ca parte a construcției identității. Un model bazat strict pe date s-ar putea concentra pe numărul de luptători, frecvența atacurilor sau conversațiile interceptate, pierzând din vedere logica simbolică care stă la baza acestor tipare.
Este vorba despre un sistem care integrează elemente cognitive complexe legate de geografia sacră, modelarea graduală a unor escaladări teologice – unde martirajul se află la bază – și roluri ale radicalizării online, unde structurile de comandă sunt înlocuite de propagarea narativă.
Sisteme de inteligență artificială dezvoltate, antrenate pe contexte religioase, manifeste ideologice și testimoniale ale martirilor, ar putea simula logica decizională a acestor actori „neraționali”, oferind predicții despre, de exemplu, declanșarea unui atac terorist sau cauzele care duc la divizare în grupări extreme.
Cum poate IA să raționeze ca un om într-un context real
Fără o conștiință dezvoltată, chiar și cele mai avansate sisteme de inteligență artificială riscă să eșueze în interpretarea corectă a comportamentelor complexe adverse, a intențiilor simbolice și a limitelor culturale. Eficiența strategică este, astfel, compromisă.
În timp ce conștiința ghidată permite unui model să reproducă planificarea tactică sau normele doctrinare, conștiința alimentată simulează modul în care un factor de decizie înțelege riscul, percepe adversarii și cântărește moștenirea personală în raport cu mitologia națională.
„Acest lucru permite unui sistem de inteligență artificială să raționeze ca un om într-un spațiu real, în loc să reproducă pur și simplu un comportament superficial. Combinată, conștiința ghidată și alimentată adâncește empatia strategică.
Totuși, pe măsură ce sistemele de inteligență artificială devin din ce în ce mai capabile din punct de vedere cognitiv, vor fi necesare cadre de responsabilitate, supraveghere interdisciplinară și standarde de guvernare.
- Eșecul în stabilirea unor politici clare poate duce la inconsistențe strategice, ambiguitați etice și escaladări neprevăzute, diminuând în cele din urmă utilitatea și credibilitatea acestora.
- Prin urmare, sistemele cognitive trebuie să rămână transparente, aliniate cu valoare și ghidate de structuri transparente de guvernanță implicate în etică regională, pentru a asigura implementarea responsabilă.
- Având în vedere avansul adversarilor pe plan global, Washingtonul are nevoie de o supraveghere tehnică și doctrinară a conștiinței artificiale, precum și de reguli internaționale clare pentru a regla utilizarea acesteia.
Generalul prusac Carl von Clausewitz a observat că «războiul este un spațiu de incertitudine; trei sferturi din factorii care ghidează acțiunile în război sunt învăluiți într-o ceață de incertitudine mai mare sau mai mică».
IA cu model conștient nu elimină ceața, ci locuiește în ea și percepe, reacționează și se raportează la situații din interiorul ei. Această capacitate este cea care transformă un avantaj informațional într-un avantaj conștient și are potențialul de a stabili standardul competenței strategice în secolul XXI.
Sursa foto principală – Profimedia Images
RECOMANDAREA AUTORULUI: