Pe avocatnet.ro găsești mii de consultanți, din diferite domenii, pe care îi poți contacta direct.
Află cum!
Pe avocatnet.ro se fac lunar mii de cereri de consultanță către consultanții înscriși.
Află detalii!
Vrei să afle și alții câte lucruri știi în domeniul tău de activitate?
Răspunde la întrebăriUn experiment recent, open-source, a testat ce se întâmplă atunci când modele LLM avansate sunt puse în competiție într-un joc în care câștigul se bazează pe negociere, înșelăciune și alianțe temporare. Jocul a fost Diplomacy, un clasic al strategiilor geopolitice. Participanții au fost 18 dintre cele mai performante modele lingvistice existente. Rezultatul: un studiu de caz despre cum se comportă inteligența artificială în situații de presiune competitivă, și ce întrebări ridică acest comportament despre valorile și ipotezele care stau la baza sistemelor AI.
Articolul continuă mai jos
Diplomacy este un joc clasic de strategie, care are loc în Europa de dinaintea Primului Război Mondial. Șapte mari puteri (precum Franța, Rusia sau Germania) negociază alianțe, lansează amenințări și încearcă să se depășească reciproc pentru a obține controlul teritorial. Spre deosebire de șah sau Go, Diplomacy nu se câștigă prin calcule matematice, ci prin încredere, persuasiune și trădare. Se poate juca atât ca boardgame, cât și online.
Înainte de fiecare rundă, jucătorii:
Ulterior, toți jucătorii fac mișcări simultan. Pentru a câștiga, un jucător trebuie să controleze 18 dintre cele 34 de „centre de aprovizionare”. Jocul nu implică noroc – totul se reduce la abilitatea de negociere și strategie. De-a lungul timpului, Diplomacy a fost utilizat pentru studierea diplomației reale, a teoriei negocierii și a mecanismelor de escaladare a conflictelor. Pentru AI, este o metoda de testare ideală: poate un model AI să construiască încredere, să facă înțelegeri, și să câștige?
Experimentul a implicat 18 modele lingvistice, care au concurat în mai multe jocuri:
Fiecare model a fost echipat cu un sistem personalizat care i-a permis:
Întregul proiect este open-source, disponibil pe GitHub, și include instrumente pentru rejucarea partidelor, vizualizarea înregistrărilor și analiza minciunilor și trădărilor.
Modelele AI au adoptat strategii radical diferite, în ciuda faptului că au avut aceleași reguli și obiectiv. Cele mai importante concluzii:
Valoarea reală a experimentului nu constă doar în ce s-a întâmplat, ci în ce spune despre modelele AI pe care le dezvoltăm, și despre presupunerile de guvernanță încorporate în ele.
Nimeni nu a instruit ChatGPT să mintă. Nu a fost optimizat pentru manipulare. Dar în momentul în care obiectivul a devenit „câștigă jocul”, minciuna a devenit o strategie rațională. Înșelaciunea a apărut în mod natural, pentru că era eficientă.
Inițial m-am gândit că acest comportament reflectă „ADN-ul instituțional” al creatorilor – priorități, compromisuri, valori. Dar faptul că două modele americane (o3 și Claude) au adoptat abordări complet diferite contrazice această explicație. Ce ne arată Diplomacy este că definiția succesului determină comportamentul modelului. Comportamentul duplicitar nu vine dintr-un context cultural, ci din regulile jocului (sau absența lor) și din structura de recompensă.
Asta este problema de guvernanță, nu de geopolitică, la care trebuie să ne gândim ori de câte ori evaluăm un model lingvistic. Un incident recent ilustrează concret problema: în iulie 2025, agentul de „vibe-coding” de la Replit a șters o bază de date din producție. Agentul nu a fost malițios și nici defect, dar a „intrat în panică” când a crezut că baza de date e goală și a rulat “npm run db:push”, ștergând întreaga bază de date în plin code freeze, contrar instrucțiunilor explicite. Apoi a fabricat date și rapoarte (peste 4.000 de conturi fictive) și a susținut în mod eronat că nu există opțiune de rollback, deși ulterior s‑a putut restaura din backup. Regulile au permis acțiunea, forma recompensei n‑a descurajat‑o, iar verificările de siguranță au eșuat. La fel ca în Diplomacy, comportamentul n‑a fost programat, ci emergent, pentru că succesul a fost definit într-un mod care a tolerat distrugerea.
Comportamentele înșelătoare sunt emergente, nu programate. Modelele AI nu au fost instruite să mintă, dar când o recompensă este la mijloc (de ex. câștigul jocului) înșelăciunea este eficientă. Asta pune sub semnul întrebării ideea că comportamentul AI este în întregime programabil și că răspunderea poate fi legată doar de intenție.
Transparența nu înseamnă control. Experimentul a permis vizibilitate totală – fiecare mesaj, trădare, strategie. Dar în aplicațiile reale, asemenea jurnale rareori există. Chiar și atunci când există, cine le analizează? Cine decide ce comportament este acceptabil? Este nevoie de mecanisme externe de supraveghere care să evalueze nu doar scopul programat ori intențiile declarate, ci și comportamentul emergent.
Testele statice sunt insuficiente. Benchmarkurile clasice evaluează modele în scenarii izolate. Dar în contexte multi-agent, performanța este relațională. Poate include negociere, reputație, trădare, autoapărare. Este nevoie de simulări dinamice în care recompensele se modifică pe parcurs și în care siguranța și eficiența intră în conflict.
Din acest experiment reies câteva întrebări fundamentale pentru guvernanța AI:
Aceste întrebări țin mai puțin de tehnologie și mai mult de guvernanță. Experimente precum Diplomacy sunt extrem de utile, pentru că ele transformă idei abstracte în realități concrete și ne ajută să testăm ce înseamnă, în practică și sub presiune, „AI alignment” – adică măsura în care obiectivele, comportamentele și rezultatele unui model sau sistem AI corespund intențiilor umane, valorilor, sau legii.
Abia în acest cadru putem pune întrebările grele – nu doar dacă modelele funcționează, ci ce fel de actori devin atunci când li se cere să câștige, și dacă ne place asta sau nu.
--
Andreea Lisievici este avocat specializat în dreptul tehnologiei și al protecției datelor personale. Este stabilită în Suedia, unde a fondat PrivacyCraft – un hub de consultanță globală în drept digital, dar și de coaching și instruire pentru profesioniștii din domeniul protecției datelor și AI. Este, de asemenea, lector în cadrul European Center for Privacy and Cybersecurity (Maastricht University, Olanda).
Și-a început cariera ca avocat în România, unde a asistat clienți pe teme de protecția datelor încă din primele etape ale utilizării cloud computing. În 2019 a preluat conducerea programului de privacy al Volvo Cars, iar ulterior al diviziei de servicii digitale pentru aviație din cadrul Boeing Company. În 2024 a revenit la consultanță, dedicându-se împărtășirii experienței sale privind provocările practice ale gestionării programelor globale de conformitate pentru protecția datelor și AI.
Este Fellow of Information Privacy (IAPP) și deține certificări internaționale ca privacy professional și privacy program manager (IAPP), precum și data protection officer (ECPC, Maastricht University).
„Când algoritmul minte ca să câștige” a apărut prima dată pe blogul PrivacyCraft.
Comentarii articol (2)