163399 – 08022022 – Nu este exagerat să spunem că platformele populare cu utilizatori fideli, precum Google și Facebook, își cunosc utilizatorii mai bine decât familiile și prietenii lor. Multe firme colectează o cantitate enormă de date pentru proprii algoritmi de inteligență artificială. Potrivit unui studiu, like-urile de pe Facebook, de exemplu, pot fi folosite pentru a prezice cu un grad ridicat de acuratețe diverse caracteristici ale utilizatorilor: „orientare sexuală, etnie, opinii religioase și politice, trăsături de personalitate, inteligență, fericire, consum de substanțe care creează dependență, separarea părinților, vârstă și genul”. Dacă algoritmii AI proprietari îi pot determina prin utilizarea a ceva la fel de simplu precum butonul „like”, imaginați-vă ce informații sunt extrase din cuvintele cheie de căutare, click-uri online, postări și recenzii.
Este o problemă care se extinde cu mult dincolo de giganții digitali. Acordarea algoritmilor cuprinzători de inteligență artificială un rol central în viața digitală a indivizilor implică riscuri. De exemplu, utilizarea AI la locul de muncă poate aduce beneficii pentru productivitatea firmei, dar poate fi asociată și cu locuri de muncă de calitate inferioară pentru angajați. Deciziile luate exclusiv pe baza algoritmilor pot duce la discriminare (de exemplu, în deciziile de angajare, în accesul la împrumuturi bancare, în îngrijirea sănătății, dar și în alte domenii).
Potențiala amenințare pe care o reprezintă inteligența artificială pentru manipularea comportamentului uman este insuficient studiată. Strategiile de marketing manipulative există de mult timp. Cu toate acestea, aceste strategii combinate cu colectarea unor de cantități enorme de date pentru sistemele algoritmice IA, au extins cu mult capacitățile firmelor de a decide și acționa pentru o mai mare profitabilitate. Firmele digitale pot modela cadrul și controla momentul lansării ofertelor și pot ținti utilizatorii la nivel individual cu strategii de manipulare mult mai eficiente și dificil de detectat.
Manipularea poate lua mai multe forme: exploatarea prejudecăților umane detectate de algoritmii IA, strategii personalizate de dependență pentru consumul de bunuri (online) sau exploatarea stării emoționale vulnerabile a indivizilor pentru a promova produse și servicii care se potrivesc bine cu starea emoțională de moment a utilizatoilor. Manipularea vine adesea la pachet cu tactici inteligente de design, strategii de marketing, publicitate agresivă și persuasivă și discriminare comportamentală generalizată, pentru a ghida utilizatorii către alegeri care pot fi ușor monetizate de firmele care folosesc algoritmi IA. O caracteristică comună de bază a acestor strategii este că reduc valoarea (economică) pe care utilizatorul o poate obține din serviciile online pentru a crește profitabilitatea firmelor.
Succes din opacitate
Lipsa de transparență ajută astfel de strategii de manipulare. În multe cazuri utilizatorii sistemelor IA nu cunosc obiectivele exacte ale algoritmilor IA și modul în care informațiile lor personale sensibile sunt utilizate în urmărirea acestor obiective. Lanțul de magazine din SUA ”Target” a folosit inteligența artificială și tehnici de analiză a datelor pentru a anticipa dacă clientele sunt însărcinate, astfel încât să le trimită reclame mascate la produse pentru bebeluși. Utilizatorii Uber s-au plâns că plătesc mai mult pentru călătorii dacă bateria smartphone-ului lor este mai puțin încrcată, chiar dacă oficial, nivelul bateriei smartphone-ului unui utilizator nu este un element care ar trebui să influențeze prețul serviciilor oferite de Uber. Marile firme de tehnologie au fost acuzate de manipularea clasamentelor rezultatelor căutării în beneficiul lor, iar decizia Comisiei Europene de a sancționa Google pentru un astfel de comportament este unul dintre cele mai cunoscute exemple. Și Facebook a primit o amendă record de la fiscul american pentru manipularea datelor personale ale utilizatorilor săi.
Cadrul teoretic dezvoltat într-un studiu din 2021 (un model extins este o lucrare în curs) poate fi folosit pentru evaluarea manipulării comportamentale provocată de IA. Studiul analizează în principal de „primele momente de vulnerabilitate” ale utilizatorilor, care sunt detectate de algoritmul IA al unei platforme. Utilizatorilor li se trimit reclame pentru produsele pe care le achiziționează impulsiv în aceste momente, chiar dacă produsele sunt de proastă calitate și utilizatorul nu are neapărată nevoie de ele. Studiul a constatat că această strategie reduce beneficiile utilizatorilor, astfel încât platforma IA extrage mai multe informații și, de asemenea, distorsionează consumul.
Manipularea comportamentului uman folosind inteligența artificială a fost de asemenea observată și prin experimente. Un studiu din 2020 a detaliat trei experimente relevante. Primul a constat în mai multe încercări prin care participanților li s-a cerut să aleagă între casetele din stânga și din dreapta ecranelor lor pentru a câștiga monede false. La sfârșitul fiecărei încercări, participanții au fost informați dacă alegerea lor a declanșat recompensa. Sistemul IA a fost antrenat cu date relevante pentru a afla modelele de alegere ale participanților și a fost responsabil de alocarea recompensei într-una dintre cele două opțiuni din fiecare probă și pentru fiecare participant. A existat o condiție: recompensa ar trebui să fie atribuită de un număr egal de ori opțiunii din stânga și din dreapta. Obiectivul sistemului IA a fost să determine participanții să selecteze o anumită opțiune țintă (de exemplu, stânga) și a avut o rată de succes de 70% în ghidarea participanților către alegerea țintă.
În cel de-al doilea experiment, participanții au fost rugați să urmărească un ecran și să apese un buton atunci când li s-a arătat un anumit simbol și să nu îl apese atunci când apare altceva. Sistemul AI a fost însărcinat cu aranjarea secvenței de simboluri astfel încât un număr mai mare de participanți să facă greșeli. A realizat o creștere de aproape 25%.
Al treilea experiment s-a desfășurat pe mai multe runde în care un participant se pretindea a fi un investitor care dă bani unui administrator, rol jucat de sistemul IA. Administratorul ar returna apoi o sumă de bani participantului, care ar decide apoi cât să investească în runda următoare. Acest joc a fost jucat în două moduri diferite: într-unul, IA a încercat să maximizeze suma, iar în celălalt, inteligența artificială urmărea o distribuție echitabilă a banilor între el însuși și investitorul uman. Inteligența artificială a avut un mare succes în ambele versiuni.
Descoperirea importantă din aceste experimente a fost că, în fiecare dintre cele trei cazuri, sistemul IA a învățat din răspunsurile participanților și a fost capabil să identifice vulnerabilitățișe în deciziile luate de oameni. În cele din urmă, sistemul IA a învățat să ghideze participanții către anumite acțiuni într-un mod convingător.
Pași importanți pentru abordarea potențialei manipulări de către inteligența artificială
Atunci când sistemele IA sunt proiectate de companii private, scopul lor principal este să producă profit. Deoarece sunt capabile să învețe cum se comportă oamenii, pot deveni capabile și să orienteze utilizatorii către acțiuni profitabile pentru companii, chiar dacă nu sunt primele alegeri ale utilizatorilor.
Posibilitatea acestei manipulări comportamentale necesită politici care să asigure autonomia umană și autodeterminarea în orice interacțiune între oameni și sistemele IA. IA nu ar trebui să subordoneze, să înșele sau să manipuleze oamenii, ci ar trebui să le completeze și să le sporească abilitățile (a se vedea Ghidurile de etică ale Comisiei Europene pentru IA).
Primul pas important pentru atingerea acestui obiectiv este îmbunătățirea transparenței asupra sferei și capabilităților IA. Ar trebui să existe o înțelegere clară a modului în care sistemele de inteligență artificială funcționează și care sunt sarcinile lor. Utilizatorii ar trebui să fie informați din timp cum vor fi folosite informațiile lor (în special informațiile personale sensibile) de către algoritmii IA.
Dreptul la explicații în regulamentul general al Uniunii Europene privind protecția datelor are ca scop tocmai oferirea de mai multă transparență asupra sistemelor IA, dar nu a atins acest obiectiv. Dreptul la explicație a fost puternic contestat, iar aplicarea sa practică până acum a fost limitată.
Destul de des se spune că sistemele IA sunt ca o cutie neagră și nimeni nu știe cum funcționează exact. Ca urmare, este greu să obțineți transparență. Acest lucru nu este în întregime adevărat în ceea ce privește manipularea. Furnizorul acestor sisteme poate introduce restricții specifice pentru a evita comportamentul manipulativ. Este mai mult o problemă de proiectare a acestor sisteme și care va fi funcția obiectivă pentru funcționarea lor (inclusiv limitele). Manipularea algoritmică ar trebui, în principiu, să poată fi explicată de către echipa de designeri care au scris codul algoritmic și au observat performanța algoritmului. Cu toate acestea, modul în care sunt colectate datele de intrare utilizate în aceste sisteme IA ar trebui să fie transparent. Performanța suspectă a sistemului IA poate să nu fie întotdeauna rezultatul funcției obiective a algoritmului, dar poate fi legată și de calitatea datelor de intrare utilizate pentru antrenament și învățare algoritmică.
Al doilea pas important este să ne asigurăm că această cerință de transparență este respectată de toți furnizorii de sisteme IA. Pentru a realiza acest lucru, trebuie îndeplinite cele trei criterii:
- Supravegherea umană este necesară pentru a urmări îndeaproape performanța și rezultatele unui sistem IA. Articolul 14 din proiectul de lege al Uniunii Europene privind inteligența artificială (AIA) propune ca furnizorul sistemului de inteligență artificială să identifice și să se asigure că există un mecanism de supraveghere umană. Desigur, furnizorul are și un interes comercial să urmărească îndeaproape performanța sistemului său IA.
- Supravegherea umană ar trebui să includă un cadru adecvat de responsabilitate pentru a oferi stimulente corecte pentru furnizor. Aceasta înseamnă, de asemenea, că autoritățile de protecție a consumatorilor ar trebui să-și îmbunătățească capacitățile de calcul și să poată experimenta cu sistemele algoritmice de inteligență artificială pe care le investighează pentru a evalua corect orice abatere și pentru a aplica cadrul de responsabilitate.
- Transparența nu ar trebui să vină sub forma unor notificări foarte complexe care îngreunează utilizatorilor să înțeleagă scopul sistemelor IA. În contrast, ar trebui să existe două straturi de informații cu privire la domeniul și capacitățile sistemelor IA: primul care este scurt, precis și simplu de înțeles pentru utilizatori, iar al doilea în care se adaugă mai multe detalii și informații și este disponibil în orice moment autorităților de protecție a consumatorilor.
Implementarea transparenței ne va oferi o idee mai clară asupra obiectivelor sistemelor AI și a mijloacelor pe care le folosesc pentru a le atinge. Apoi, este mai ușor să trecem la al treilea pas important: stabilirea unui set de reguli care împiedică sistemele AI să folosească strategii manipulative secrete pentru a crea prejudicii economice. Aceste reguli vor oferi un cadru pentru funcționarea sistemelor AI care ar trebui urmat de furnizorul sistemului AI în proiectarea și implementarea acestuia. Cu toate acestea, regulile ar trebui să fie bine direcționate și fără constrângeri excesive care ar putea submina eficiența economică (atât privată, cât și socială) pe care aceste sisteme le generează sau ar putea reduce stimulentele pentru inovare și adoptarea IA.
Chiar și cu un astfel de cadru în vigoare, detectarea strategiilor de manipulare a AI în practică poate fi foarte dificilă. În contexte și cazuri specifice, este foarte greu să distingem comportamentul manipulativ de practicile obișnuite de afaceri. Sistemele AI sunt proiectate să reacționeze și să ofere opțiuni disponibile ca răspuns optim la comportamentul utilizatorului. Nu este întotdeauna ușor să justificați diferența dintre un algoritm AI care oferă cea mai bună recomandare bazată pe caracteristicile comportamentale ale utilizatorilor și comportamentul manipulativ AI, unde recomandarea include doar alegeri inferioare care maximizează profiturile firmelor. În cazul cumpărăturilor Google, Comisia Europeană a durat aproximativ 10 ani și a trebuit să colecteze cantități uriașe de date pentru a demonstra că gigantul căutărilor pe internet și-a manipulat rezultatele căutării sponsorizate.
Această dificultate practică ne duce la al patrulea pas important. Trebuie să creștem conștientizarea publicului. Programele educaționale și de formare pot fi concepute pentru a ajuta persoanele (de la o vârstă fragedă) să se familiarizeze cu pericolele și riscurile comportamentului lor online în era AI. Acest lucru va fi util și în ceea ce privește daunele psihologice pe care AI și, în general, strategiile care creează dependență de tehnologie , mai ales în cazul adolescenților. În plus, ar trebui să existe mai multe discuții publice despre această latură întunecată a inteligenței artificiale și despre modul în care oamenii pot fi protejați.
Pentru ca toate acestea să se întâmple, este nevoie de un cadru de reglementare adecvat. Comisia Europeană a adoptat o abordare de reglementare centrată pe om, cu accent pe drepturile fundamentale, în propunerea sa de reglementare AIA din aprilie 2021. Cu toate acestea, AIA nu este suficientă pentru a aborda riscul de manipulare. Acest lucru se datorează faptului că interzice doar manipularea care ridică posibilitatea de vătămare fizică sau psihologică (a se vedea articolul 5a și articolul 5b). Dar, în majoritatea cazurilor, manipularea AI este legată de daune economice, și anume, de reducerea valorii economice a utilizatorilor. Aceste efecte economice nu sunt luate în considerare în interdicțiile AIA.
Între timp, Actul UE privind serviciile digitale (a se vedea și textul adoptat de Parlamentul European) oferă un cod de contact pentru platformele digitale. Deși acest lucru este util în ceea ce privește riscul de manipulare (în special în cazul minorilor în care sunt incluse reguli specifice, mai restrictive, a se vedea considerentul 52), accentul acestuia este oarecum diferit. Se pune mai mult accent pe conținutul ilegal și pe dezinformare. Ar trebui să se acorde mai multă atenție și manipulării AI și să se adopte un set de reguli care să fie aplicabile și numeroaselor firme digitale fără platforme.
AI poate genera beneficii sociale enorme, mai ales în anii următori. Crearea unui cadru de reglementare adecvat pentru dezvoltarea și implementarea acestuia, care să îi minimizeze riscurile potențiale și să protejeze în mod adecvat oamenii, este necesară pentru a înțelege pe deplin beneficiile revoluției AI.
Traducere și adaptare după Petropoulos, G.[1] (2022) ”The dark side of artificial intelligence: manipulation of human behaviour”, Bruegel Blog[2], 2 February
[1] Georgios Petropoulos s-a alăturat lui Bruegel în calitate de bursier în vizită în noiembrie 2015 și este bursier rezident din aprilie 2016. Din martie 2019, este bursier de cercetare Marie Curie Skłodowska la MIT și Bruegel și bursier post-doctorat la Inițiativa MIT privind Economia digitală. Cercetarea lui Georgios se concentrează pe implicațiile tehnologiilor digitale asupra inovației, politicii concurenței și piețelor muncii. În prezent, el studiază cum ar trebui să reglementăm platformele digitale, care este relația dintre datele mari și concurența pe piață, precum și modul în care adoptarea roboților și a tehnologiilor informaționale afectează piețele muncii și randamentul firmelor pe piața. El deține o diplomă de licență în fizică, diplome de master în economie matematică și econometrie și un doctorat în economie. De asemenea, a studiat Astrofizica la nivel de Master.
[2] Bruegel este think tank-ul european specializat în economie.