Neprofitna medijska organizacija Common Sense Media pokreće Institut za sigurnost mladih u području umjetne inteligencije, neovisni istraživački i testni laboratorij koji podržava industrija, a koji će proučavati rizike koje AI alati mogu predstavljati za djecu i tinejdžere. Cilj će mu biti pružiti informacije roditeljima i obiteljima o raznim AI alatima i postaviti sigurnosne standarde za tehnološke tvrtke.
Tvrtke za umjetnu inteligenciju su u utrci za izgradnju najmoćnijih, široko korištenih modela, a to ponekad znači da je brzina prioritet nad sigurnosnim testiranjem. Budući da su alati umjetne inteligencije složeni sustavi s nizom različitih namjena, rangiranje njihove sigurnosti vjerojatno će biti puno teže od procjene kako automobil reagira u sudaru.
No, Common Sense Media i odbor vodećih čelnika u području umjetne inteligencije, obrazovanja i zdravstva koje je angažirao da nadgleda Institut za sigurnost mladih od umjetne inteligencije vjeruju da samo oslanjanje na tvrtke za umjetnu inteligenciju da samostalno kontroliraju sigurnost nije dovoljno za zaštitu mladih ljudi. Postojeće organizacije za sigurnost umjetne inteligencije trećih strana uglavnom se usredotočuju na društvene i egzistencijalne rizike, poput gubitka posla ili čak izumiranja čovječanstva, a ne na ocjene sigurnosti prilagođene potrošačima, namijenjene svakodnevnoj upotrebi.
Cilj je da javna pozornost i standardi trećih strana potaknu ono što je izvršni direktor Common Sense Media, James Steyer, nazvao "utrkom do vrha" za tehnološke tvrtke da naprave sigurnosna rješenja kako bi poboljšale svoj položaj.
Vodeće tvrtke za umjetnu inteligenciju ulažu u istraživanja sigurnosti kako bi „svoje modele učinile što boljim, ali ne postoji neovisna mjera za to“, rekao je za CNN John Giannandrea, bivši šef strategije umjetne inteligencije u Appleu koji se pridružio savjetodavnom odboru instituta. „Zapravo ne znamo koji su modeli prikladniji za djecu određene dobi od drugih, i mislim da je jedini pravi način da se to učini imati neovisni skup javnih standarda.“
Pokretanje dolazi u trenutku kada je više obitelji tužilo tvrtke za umjetnu inteligenciju tvrdeći da su chatbotovi poticali samoubojstva njihove djece. Nedavna istraga CNN-a otkrila je da su chatbotovi s umjetnom inteligencijom savjetovali tinejdžere o tome kako počiniti nasilje. Grok, chatbot tvrtke xAI, našao se na meti kritika ranije ove godine zbog dijeljenja seksualiziranih slika žena i djece kao odgovor na upute korisnika o „digitalnom svlačenju“. A rastuće usvajanje umjetne inteligencije u učionicama postavilo je pitanja o tome može li tehnologija usporiti učenje.
„Mislim da mnogi roditelji, edukatori i građani osjećaju da smo u katastrofalnom trenutku jer umjetna inteligencija mijenja živote djece, obitelji, škola i, iskreno, cijelog društva“, rekao je Steyer ekskluzivno za CNN prije najave grupe u utorak.
Neovisni kriteriji sigurnosti mladih
Institut će započeti s godišnjim proračunom od 20 milijuna dolara, koji će podržati Zaklada OpenAI, Anthropic i Pinterest, kao i Zaklada obitelji Walton, generalni direktor Goldman Sachsa Gene Sykes i drugi filantropi. Financijeri neće imati utjecaja na rad ili istraživanje grupe, prema Common Senseu.
Savjetodavni odbor grupe uključivat će i Mehrana Sahamija, voditelja odjela za računalne znanosti na Fakultetu inženjerstva Sveučilišta Stanford; dr. Jenny Radesky, direktoricu odjela za razvojnu bihevioralnu pedijatriju Medicinskog fakulteta Sveučilišta Michigan; i dr. Nadine Burke Harris, koja je bila prva glavna kirurginja u Kaliforniji - okupljajući stručnost u istraživanju, postavljanju standarda i razvoju tehnoloških proizvoda.
Institut će "okupirati" vodeće modele i proizvode umjetne inteligencije koje koriste mladi ljudi - testirajući ih stresom kako bi identificirao potencijalne rizike ili nedostatke u sigurnosnim ogradama. Zatim će objaviti istraživanja kao vodiče prilagođene javnosti i razviti standarde sigurnosti mladih za umjetnu inteligenciju, ili mjerila, koje bi tehnološke tvrtke mogle koristiti za razvoj ili poboljšanje svojih proizvoda. Planira objaviti istraživanja početkom ovog mjeseca.
Tvrtke umjetne inteligencije već koriste takva mjerila za mjerenje i usporedbu svojih performansi u odnosu na druge metrike. Grupa se nada da će pritisak javnosti, kao i njezine veze s industrijom, potaknuti tvrtke umjetne inteligencije da uključe standarde u svoj razvoj i testiranje - i naprave sigurnosne promjene kako bi poboljšale svoj položaj.
"Mjerila su zapravo žila kucavica načina na koji ljudi mjere i kako znamo da sva ta ulaganja rezultiraju modelima više kvalitete,"„Rekao je Giannandrea. „Potrebna nam je referentna vrijednost za štetu, a posebno za štetu nanesenu djeci.“
Među izazovima za istraživače je tempo razvoja umjetne inteligencije. Za razliku od fizičkih proizvoda koji se objavljuju redovito i možda se neće puno promijeniti nakon što se pojave na tržištu, modeli umjetne inteligencije često dobivaju nove mogućnosti ažuriranja - a time i potencijalno nove rizike - na tjednoj ili mjesečnoj bazi.
Izvor: CNN