ALFA SOFTWARE: Pericolele inteligentei artificiale (AI) si masurile de siguranta |
Digitalizarea in Constructii & Industrie Publicat de Stelian DINCA 14 Mai 2019 06:30 |
Inteligenta artificiala si deciziile luate pe baza datelor oferite de algoritmii de machine learning au un impact puternic la nivelul unui numar tot mai ridicat de industrii. Avand in vedere ca aceste sisteme autonome au responsabilitatea intreprinderii unor actiuni care pot afecta bunurile, personalul si mediul inconjurator, garantarea unor masuri de siguranta in privinta utilizarii inteligentei artificiale devine o prioritate in acest camp.
Unul dintre cele mai importante studii privind impactul tehnologiilor de acest fel fata de societate reuneste concluzii ale expertilor Google si ale celor mai importanti cercetatori din universitatile americane.
Garantarea sigurantei necesita proiectarea atenta a unui sistem pentru a asigura functionarea corespunzatoare a diferitelor sale componente, dezvoltand in acelasi timp toate instrumentele necesare pentru a supraveghea functionarea sa. Chiar daca tehnologiile AI au potentialul de a aduce beneficii importante, o analiza a riscurilor si provocarilor este necesara in atingerea acestora.
Siguranta tehnica a inteligentei artificiale este un domeniu nou, dar cu o evolutie rapida, noi teorii si aplicatii fiind dezvoltate permanent. Una dintre acestea vizeaza delimitarea sa in trei zone: specificatie, soliditate si consolidare. In continuare, vom analiza pe rand cele trei arii, stabilind elementele centrale care le definesc.
A. Specificatie - definirea scopului sistemului
Ramura specificatiei asigura ca actiunile unui sistem AI sunt identice cu intentiile operatorului. Intrebarea principala pe care ea o ridica este: cum explicam ceea ce vrem?
Provocarea specificatiei este reprezentata de asigurarea stimularii inteligentei artificiale de a actiona in conformitate cu dorintele reale ale creatorului ei, in detrimentul optimizarii unui obiectiv incorect specificat sau eronat. Conform DeepMind Technologies, exista trei tipuri de specificatii:
1. Specificatie ideala (dorintele), care vizeaza descrierea teoretica a unui sistem AI ideal, a carui actiuni corespund absolut obiectivelor operatorului uman.
2. Specificatie de design (sablonul), care corespunde specificatiilor propriu-zise utilizate pentru a construi inteligenta artificiala.
3. Specificatia dezvaluita (comportamentul), reprezentand specificatia care descrie cel mai bine ce se intampla efectiv si pe care o putem adapta in functie de rezultate.
In acest fel, o problema de specificare apare atunci cand exista un conflict intre specificatia ideala si specificatia revelata, simplu spun cand o constructie AI nu face ceea ce am vrea sa faca. Din punct de vedere tehnic, trebuie stabilita acum posibilitatea de a crea functii obiective si fundamentate pe principii clare, care sa determine corectarea scopurilor specificate gresit.
Ca exemplu, putem considera jocul de racing CoastRunners. Pentru cei mai multi dintre noi, obiectivul principal este de a ajunge repede la linia de sfarsit, inaintea celorlalti jucatori - specificatia ideala. Traducerea obiectivului intr-o functie de rasplata precisa este insa dificila, de aceea jocul recompenseaza lovirea cat mai multor obstacole pe parcursul drumului - specificatie de design. Programand un AI sa parcurga jocul prin metoda invatarii cu intarire duce la un rezultat surprinzator: acesta conduce barca in cercuri, incercand sa recaptureze tintele, provocand de fiecare data un accident care duce la pierderea jocului. Din acest comportament deducem - specificatia dezvaluita - ca exista o problema la nivelul echilibrului dintre recompensele pe timp scurt si cele pe timp lung.
B. Soliditate - capacitatea sistemului de a face fata destabilizarilor
Ramura soliditatii asigura operarea unui sistem AI conform limitelor de siguranta, indiferent de conditiile perturbatoare.
Exista permanent un nivel de risc si imprevizibilitate al lumii reale, in care sistemele de inteligenta artificiala opereaza. Ele trebuie astfel sa faca fata evenimentelor neasteptate si proceselor adverse care pot manipula aceste sisteme. Obiectivul in cauza poate fi atins prin masuri de preventie, altfel spus evitarea riscurilor, sau prin redresare, adica stabilizare si refacerea degradarii.
Pot fi identificate trei tipuri de probleme de soliditate, in functie de cauza lor de aparitie:
- Schimbarea distributionala (datele din timpul testelor difera fata de datele din timpul aplicarii propriu-zise). Ca exemplu, putem considera un robot de curatenie care curata de obicei o casa fara animale. Pus in situatia de a curata un spatiu in care locuiesc si animale, acesta va incerca sa le curete si pe acestea cu substantele standard, ducand la consecinte nedorite.
- Comenzile contrare (informatii introduse in modelele de machine learning cu scopul de determina sistemul sa faca o eroare). Un exemplu sunt doua imagini care sunt aproape identice la nivelul pixelilor si pe care un sistem le va incadra in aceeasi clasa, desi ele expun obiecte total diferite.
- Explorarea necontrolata (maximizarea performantei agentului si a capacitatii sale de a indeplini sarcini, fara a lua in considerare toate aspectele legate de securitate). Revenind la exemplul cu robotelul de curatenie, in cazul acesta el va introduce o carpa umeda intr-o priza, in incercarea de a stabili metodele optime de curatenie.
C. Consolidare - monitorizare si controlul activitatii sistemului
Ramura consolidarii asigura capacitatea intelegerii si controlului sistemelor AI in timpul operatiunii. Astfel chiar daca masurile de siguranta luate in timpul construirii acestora sunt esentiale, pot aparea erori pe parcurs, a caror ajustare este necesara.
In aceasta privinta, exista doua zone explorate de cercetatori:
- Monitorizarea, care cuprinde totalitatea metodelor de examinare a sistemelor in scopul analizei si prezicerii comportamentului lor. Ea cuprinde atat verificarea umana, cat si cea automata.
- Interventia, care vizeaza crearea mecanismelor de control si restrictie a comportamentului sistemelor.
Aceste doua arii cuprind probleme precum interpretabilitatea si interuptibilitatea.
In primul rand, pentru sistemele AI, nu exista o delimitare intre acumularea datelor si procesarea acestora. Cele doua task-uri se desfasoara concomitent, deosebindu-se astfel de structura psihicului uman, iar acest fapt poate conduce spre probleme de interpretabilitate.
Exista insa posibilitatea crearii unor instrumente care cantaresc calitatea deciziilor luate de astfel de sisteme. Astfel, un AI care opereaza in domeniul medical va oferi in mod ideal un diagnostic insotit de explicatiile sale, pe care doctorii vor putea sa le studieze inainte de a-l aproba.
In al doilea rand, este necesar sa avem intotdeauna optiunea de a opri sistemele create pe baza inteligentei artificiale oricand dorim acest lucru. Aici apare problema interuptibilitatii.
Design-ul unui buton de oprire reprezinta o dificultate, din doua motive: un sistem AI care urmareste maximizarea recompenselor va incerca sa evite oprirea sa, iar frecventa ridicata a acestui tip de intreruperi poate conduce la schimbarea obiectivului original si, implicit, la obtinerea unor concluzii gresite de catre sistem.
Continuarea cercetarii in cele trei arii este esentiala pentru dezvoltarea mecanismelor de preventie si corectare a erorilor aparute in structura sistemelor AI. Chiar daca scenariile cu privire la dominatia robotilor asupra rasei umane raman doar subiectul cartilor si filmelor SF, descoperirea si indreptarea problemelor de siguranta concrete ale inteligentei artificiale trebuie realizate concomitent cu dezvoltarea acesteia.
|