Putem avea încredere în AI dacă nu știm cum funcționează?
Imaginați-vă că ați refuzat asigurarea de sănătate – dar când vă întrebați de ce, compania pur și simplu învinuiește algoritmul de evaluare a riscurilor. Sau dacă solicitați o ipotecă și vi se refuză, banca nu vă poate spune exact de ce. Sau mai grav, dacă poliția începe să aresteze persoane pe suspiciunea de a planifica o crimă bazată exclusiv pe un model predictiv informat de un supercomputer de criptare a datelor. (https://www.bbc.com/news/business-44466213)
Acestea sunt câteva dintre scenariile pe care industria tehnologică le îngrijorează, pe măsură ce inteligența artificială (AI) se îndreaptă inexorabil spre viitor, infiltrând tot mai multe aspecte ale vieții noastre.
AI este experimentată în majoritatea sectoarelor, inclusiv cercetarea și diagnosticul medical, vehiculele fără șofer, supravegherea națională, orientarea militară a adversarilor și condamnarea penală. Un raport recent al consultantului PwC prognozează că AI ar putea impulsiona economia globală până în 2030. Dar cu ce cost? Acești algoritmi de software devin atât de complexi, chiar și creatorii lor nu înțeleg întotdeauna cum au venit cu răspunsurile pe care le-au făcut.
Tehnologia, între utilitate și problematic
Apariția rețelelor neuronale – concepute să imite modul în care gândește un creier uman – implică un număr mare de procesoare interconectate care pot gestiona cantități mari de date, modele spot în rândul a milioane de variabile utilizând învățarea mașinilor și, în mod esențial, se adaptează ca răspuns la ceea ce " ați învățat.
Acest lucru permite lucruri uimitoare, de la prognoze meteo mai bune la identificarea mai exactă a cancerelor. Dar…Dacă aceste sisteme sunt folosite pentru lucruri precum votarea sau accesul la serviciile publice, atunci acest lucru este de obicei problematic".
David Stern, manager de cercetare la G-Research, o firma de tehnologie care utilizeaza masina de invatare pentru a prezice preturile pe pietele financiare, avertizeaza ca "progresul cel mai rapid in cercetarea AI in ultimii ani a implicat o abordare din ce in ce mai mult bazata pe date.
"În abordarea rețelei neuronale actuale, această procedură de formare determină setările a milioane de parametri interni care interacționează în moduri complexe și sunt foarte greu de inversat inginer și explică". O altă tendință în robotică este "învățarea profundă a armării", prin care un "designer specifică pur și simplu scopurile comportamentale ale sistemului și învață automat prin interacțiunea directă cu mediul", spune el. "Acest lucru are ca rezultat un sistem care este și mai greu de înțeles".
Astfel, industria explorează modalități prin care algoritmii pot fi înțeleși întotdeauna și pot rămâne sub control uman. De exemplu, agenția americană de apărare Darpa își desfășoară proiectul Explicabil AI, iar OpenAI, o companie de cercetare nonprofit, lucrează la "descoperirea și punerea în practică a unei inteligențe generale artificiale sigure".
Adrian Weller – director de program pentru AI la Institutul Alan Turing, crede că dacă AI funcționează bine, s-ar putea să nu fie întotdeauna nevoie să știm cum. Weller sugerează că nevoia de a înțelege cum o mașină își ia deciziile va depinde de cât de importante sunt aceste decizii. Și alte considerente ar putea fi mai importante decât explicabilitatea. "Dacă am putea fi siguri că un sistem funcționa în mod fiabil, fără discriminare și în siguranță – uneori aceste probleme ar putea fi mai importante decât dacă putem înțelege exact cum funcționează", mai spune el.
Sună sensibil, dar unul dintre avantajele AI este că poate face lucrurile pe care oamenii nu le pot face. Ce se întâmplă dacă ajungem să-l facem mai puțin eficient?, conchide, printre altele, tot retoric, Marianne Lehnis în articolul său.