IBM radi na sigurnosti umjetne inteligencije

30. travnja 2021.

Aleksandra Mojsilović/Foto: IBM

Performanse neće biti dovoljne kao paradigma dizajna umjetne inteligencije, nego će i etička pitanja morati biti dio jednadžbe, kazala je znanstvenica i IBM-ova suradnica Aleksandra (Saška) Mojsilović na okruglom stolu Odgovorno korištenje umjetne inteligencije (AI). Njezino se izlaganje usredotočilo na ranjivosti AI-ja poput izloženosti pristranosti, nedostatka objašnjivosti i osjetljivosti na napade koji posebno dizajniranim unosom podataka proizvode pogrešne rezultate. Također se govorilo o trenutnoj kontroverznoj upotrebi tehnologije, posebice AI-ja koji se rabi za stvaranje potencijalno štetnih sadržaja, poput deepfakeova, zapaljivih sadržaja i algoritama društvenih mreža koji korisnike usmjeravaju na dezinformacije.

Stoga IBM Research razvija tehnike i algoritme za procjenu - i rješavanje - temeljnih elemenata povjerenja za AI sustave: alata koji otkrivaju i ublažavaju pristranost, otkrivaju ranjivosti, uklanjaju napade i demaskiraju postupak donošenja odluka. Budući da AI napreduje, ljudi i AI sustavi sve više surađuju i ključno je da vjerujemo rezultatima tih sustava kako bismo donosili svoje odluke.

Stručnjaci iz IBM Researcha identificiraju sljedeće stupove kako bi stvorili osnovu za pouzdane AI sustave:

• Pravičnost: AI sustavi trebali bi se koristiti podacima u razvoju i modelima u kojima nema pristranosti, kako bi se izbjeglo nepravedno postupanje s nekim skupinama podataka
• Robusnost: AI sustavi trebaju biti sigurni i zaštićeni, ne smiju biti podložni neovlaštenom upravljanju ili ugrožavanju podataka na kojima su razvijeni
• Objašnjivost: AI sustavi trebaju pružati odluke ili prijedloge koji mogu biti razumljivi njihovim korisnicima i programerima
• Loza: AI sustavi trebaju sadržavati detalje o njihovu razvoju, implementaciji i održavanju kako bi mogli biti revidirani tijekom svoga životnog ciklusa.

Međutim, baš kao i neka fizička struktura, povjerenje se ne može graditi samo na jednom stupu. Ako je AI sustav pravedan, ali ne može odoljeti napadu, neće mu se vjerovati. Ako je siguran, ali nitko ne može razumjeti podatke koje pruža, također mu se neće vjerovati. Stoga je nužno ojačati sve stupove zajedno, kao i sposobnost mjerenja i komuniciranja razina izvedbe sustava u svakoj od ovih dimenzija.

Jedan od načina da se to postigne bio bi pružanje takvih podataka putem SDoC-a ili informativnih tablica za usluge AI-ja. IBM-ovi stručnjaci predlažu da se u njih uključe informacije o radu sustava, podaci o razvoju, osnovnim algoritmima, postavljanju i rezultatima ispitivanja, mjerilima performansi, provjerama pravednosti i robusnosti, namjeravanoj uporabi te održavanju i prekvalifikaciji - za detalje posjetite web-stranicu IBM-ova projekta AI FactSheet.

Aleksandra Mojsilović trenutno radi kao voditeljica AI Foundationsa u IBM Researchu i sudirektorica u IBM Scienceu for Social Good, a i posebna je IBM-ova te IEEE-ova suradnica. Autorica je više od 100 publikacija i posjeduje 16 patenata.

 

P.hr/I.B.