28.12.2023.

Komentar za kraj godine: Vidjeti više ne znači nužno i vjerovati

Nataša Gajski Kovačić

Učinci rastuće inflacije i geopolitičkih događaja te problemi opskrbnog lanca odrazili su se na poduzeća i organizacije diljem svijeta. Ekonomski izazovi u proteklih 12 mjeseci su bila golemi i iako su neki patili gore od drugih, kamatne stope u cjelini su rasle postocima kakvi nisu viđeni od financijskog sloma 2008. I premda postoje pozitivni znaci na horizontu, tržišta nipošto nisu stabilna. Ni security sektor nije ‘otok’, pa stoga nije ni zaštićen od tih problema. No unatoč njima ili i zbog njih, došlo je do evolucije tehnologija. Platforme temeljene na oblaku i korištenje umjetne inteligencije ubrzavaju tempo.

Globalno tržište videonadzora bit će vrijedno 38,2 milijarde dolara do 2027., a videonadzor ostaje temeljni dio slagalice u osiguravanju ljudi, mjesta i imovine, no predstavlja i puno više od toga. Veliki postotak sustava videonadzora se već koristi za rješavanje operativnih izazova ili pružanje dodatne poslovne inteligencije. Usvajanje umjetne inteligencije i analitike temeljene na AI već je ‘stara’ vijest, no ‘godina ChatGPT-a’, svjedočila je eksploziji generativne AI.

Izvješće o videonadzoru za 2023. IFSEC Insidera analiziralo je velike trendove u sektoru i dalo uvid u ono što je pred nama. Tehnologija u oblaku sveprisutna je u svakodnevnom životu namo, a u anketi IFSEC-a više od polovice ispitanika izjasnilo se da koriste oblak za videonadzor.

Dobrih vijesti - u otužnoj makroekonomskoj slici - za opskrbni lanac videonadzora ipak ima jer potražnja za novim projektima i dalje je velika. Čak 70 posto onih koji instaliraju, savjetuju ili pružaju proizvode za tržište je odgovorilo da su svjedočili porastu potražnje za novim projektima u posljednjih 12 mjeseci. Iako sustavi videonadzora koriste AI algoritme i programe za potrebe video analitike već nekoliko godina, tehnologija sustava na čipu (SOC) jedno je od ključnih područja rasta. SOC u kamerama je omogućio da implementacija analitike dubokog učenja doslovno ‘eksplodira’, budući da omogućuje da se obrada odvija u samoj kameri – ili na ‘rubu’- značajno smanjujući propusnost i zahtjeve za pohranu.

AI je postala aktivna podrška sigurnosti, no postoji sve veća potreba za njenom regulacijom i usmjeravanjem, to se nikako ne smije zanemariti. Čak 46 posto sigurnosnih stručnjaka kaže da AI aktivno podržava tim u izvršavanju njihovih uloga, dok 39 posto sigurnosnih stručnjaka kaže da videonadzor temeljen na umjetnoj inteligenciji podržava i druge poslovne funkcije. Zvuči sjajno, ali ipak nam ostaju neke prepreke. Najveći izazovi instalatera, integratora i konzultanata kada prodaju AI aplikacije očituju se u cijeni, zabrinutosti oko privatnosti podataka, nedostatku razumijevanja prednosti te nedostatku edukacije za podršku prodaji. A tu je i deepfake - oblik umjetne inteligencije koji koristi algoritme dubokog učenja za stvaranje vrlo uvjerljivih, često varljivih, lažnih video ili audio zapisa. To uključuje nametanje sličnosti i manira jedne osobe drugoj, što često rezultira realističnim, ali potpuno izmišljenim sadržajem. Četvrtina ispitanika vjeruje da je tehnologija deepfake velika prijetnja povjerenju u videonadzor što je prilično alarmantan, ali ne i iznenađujući broj, s obzirom na raširenost koju ovaj problem počinje dobivati. Europski parlament je stoga i donio EU Zakon o umjetnoj inteligenciji što je prva uredba o umjetnoj inteligenciji. Širenje umjetne inteligencije i njezina sposobnost proizvodnje realističnih, ali vrlo manipulativnih informacija dovelo je do toga da su, primjerice, lopovi koristili softver za oponašanje glasa kako bi imitirali direktora britanske energetske tvrtke, ukravši pritom više od 240.000 dolara. Deepfake video podijeljen na društvenim mrežama na kojem se činilo da ruski predsjednik Vladimir Putin proglašava mir, brzo je uočen kao lažan, no doista, koliko će proći prije nego što se tehnologija poboljša do točke da se više neće biti moguće spoznati što je istina, a što ne?

Posljedice za one koji upravljaju i posjeduju sustave videonadzora, koji su prije uvijek ovisili o video snimci kao neosporivom dokazu, mogle bi biti poprilične. Stručnjaci će morati uprijeti sve snage kako bi osigurali da kamere i njihove mreže ostanu zaštićene od napada ili manipulacija jer ako se ne ublaže, deepfakeovi mogu ugroziti vjerodostojnost videa kao dokaza i njegovu vrijednost kao sredstva odvraćanja. Moglo bi doći do toga da ćemo na sudu viđati timove obrane koji osporavaju vjerodostojnost videodokaza i nastoje baciti sumnju na njihovu kronologiju i autentičnost. End-to-end sustavi koji koriste uzajamnu autentifikaciju temeljenu na certifikatima i vlasničke protokole jedna su od najsigurnijih nadzornih tehničkih opcija za osiguravanje kibernetičke sigurnosti.

I za kraj, iako se puno nagađa o tome koga će AI poslati na burzu rada te se spekuliralo s milijunima radnih mjesta koja bi mogla biti izgubljena zbog umjetne inteligencije, činjenica je da ljudska procjena još uvijek ostaje ključna, barem ako namjeravamo umjetnu inteligenciju koristiti na etičan i odgovoran način.