Tā kā ģeneratīvā AI attīstība rada ievērojamu risku dažādās frontēs, šķiet, ka katru otro nedēļu lielie spēlētāji nodibina jaunus līgumus un savus forumus, lai kontrolētu vai radītu iespaidu par pārraudzību AI attīstībā.
Kas ir labi, jo tā veido sadarbības diskusiju par AI projektiem un to, kas katram uzņēmumam būtu jāuzrauga un jāpārvalda šajā procesā. Bet tajā pašā laikā šķiet, ka tie ir arī līdzeklis, lai novērstu turpmākus regulējošos ierobežojumus, kas varētu palielināt pārredzamību un uzlikt vairāk noteikumu par to, ko izstrādātāji var un ko nedrīkst darīt ar saviem projektiem.
Uzņēmums Google ir jaunākais, kas nāk klajā ar jaunu AI vadlīniju grupu Coalition for Secure AI (CoSAI), kas paredzēts “uzlabot visaptverošus drošības pasākumus, lai novērstu unikālos riskus, kas saistīti ar AI”
Saskaņā ar Google:
“AI ir nepieciešama drošības sistēma un piemēroti standarti, kas spēj iet kopsolī ar tā straujo izaugsmi. Tāpēc pagājušajā gadā mēs dalījāmies ar Drošs AI ietvars (SAIF), zinot, ka tas bija tikai pirmais solis. Protams, jebkuras nozares ietvara funkcionēšanai ir nepieciešama cieša sadarbība ar citiem un galvenokārt – forums, lai tas notiktu.”
Jaunajai iniciatīvai ir parakstījušies daudzi lieli tehnoloģiju spēlētāji, tostarp Amazon, IBM, Microsoft, NVIDIA un OpenAI, ar mērķi izveidot sadarbības, atvērtā pirmkoda risinājumus, lai nodrošinātu lielāku drošību AI attīstībā.
Un, kā minēts, tas ir jaunākais no augošā to nozares grupu saraksta, kuras koncentrējas uz ilgtspējīgu un drošu AI attīstību.
Piemēram:
- The Frontier modeļu forums (FMF) mērķis ir izveidot nozares standartus un noteikumus saistībā ar AI attīstību. Meta, Amazon, Google, Microsoft un OpenAI ir parakstījušies uz šo iniciatīvu.
- Thorn ir izveidojis savu Programma “Drošība pēc dizaina”, kas ir vērsta uz atbildīgi iegūtas mākslīgā intelekta apmācības datu kopas, lai pasargātu tās no materiāliem, kuros izmantota seksuāla vardarbība pret bērniem. Meta, Google, Amazon, Microsoft un OpenAI visi ir parakstījušies šai iniciatīvai.
- ASV valdība ir izveidojusi savu AI drošības institūta konsorcijs (AISIC), kurā ir pievienojušies vairāk nekā 200 uzņēmumu un organizāciju.
- Gandrīz visu lielāko tehnoloģiju uzņēmumu pārstāvji ir piekrituši cīņai pret AI maldinošu izmantošanu, kuras mērķis ir īstenot “saprātīgus piesardzības pasākumus”, lai novērstu AI rīku izmantošanu, piemēram, lai izjauktu demokrātiskas vēlēšanas.
Būtībā mēs redzam arvien vairāk forumu un līgumu, kas izstrādāti, lai risinātu dažādus drošas AI attīstības elementus. Tas ir labi, bet tajā pašā laikā tie nav likumi, un tāpēc tie nekādā veidā nav izpildāmi, vai likumiski saistoši. Tie ir tikai AI izstrādātāji, kas piekrīt ievērot noteiktus noteikumus noteiktās situācijās.