JAV Prekių ateities sandorių prekybos komisijos („CFTC“) vadovas Michaelas Seligas teigia, kad blokų grandinės technologija gali tapti svarbiu įrankiu, padedančiu patikrinti dirbtinio intelekto (AI) sukurtą turinį. Pasak jo, didėjant dezinformacijos rizikai ši technologija galėtų padėti atskirti autentišką mediją nuo sintetinių, AI sugeneruotų vaizdų ar įrašų.
Ketvirtadienį pasirodęs tinklalaidėje „The Pomp Podcast“, M. Seligas atsakė į vedėjo Anthony Pompliano klausimą apie rinkose plintančius AI sukurtus memus ir vaizdus – ar turėtų būti vertinami ketinimai, ar tokį turinį reikėtų riboti apskritai.
„Privatūs rinkos dalyviai turi sprendimų – blokų grandinės technologija yra puikus pavyzdys. Jei galima viską pažymėti laiko žyma ir užtikrinti, kad kiekvienas memas ar AI sugeneruotas įrašas turėtų identifikatorių, tada galima patikrinti, ar tai tikra, ar sukurta AI… Labai svarbu, kad šios technologijos būtų čia, JAV“, – sakė M. Seligas.
Jis pridūrė, kad reguliuotojai siekia išlaikyti JAV lyderystę kriptovaliutų sektoriuje, o kalbėdamas apie dirbtinio intelekto plėtrą akcentavo glaudų ryšį su blokų grandinėmis.
Kalbėdamas apie tai, kaip reguliuotojai vertina AI agentus, M. Seligas atkreipė dėmesį į autonominės prekybos populiarėjimą finansų rinkose. Pasak jo, valdžios institucijoms darosi vis svarbiau atskirti paprastus automatizuotus įrankius nuo visiškai autonominių agentų ir apsispręsti, kaip pastaruosius reguliuoti.
„Man neramu, kad galime perreguliuoti ir uždusinti dalį technologijų čia, JAV… Laikausi minimalaus veiksmingo reguliavimo dozės principo: turime užtikrinti, kad reguliuotume veikėjus, o ne programinės įrangos kūrėjus. Programuotojai kuria įrankius, tačiau patys nevykdo finansinių sandorių“, – aiškino jis.
M. Seligas teigė, kad „CFTC“ vertina, kaip AI modeliai naudojami rinkose, o vykdymo priemonės turėtų būti nukreiptos į tuos dalyvius, kurie realiai užsiima finansine veikla.
Blokų grandinės ir „įrodymo, kad esi žmogus“ sprendimai AI turinio patikrai
Augant dirbtinio intelekto naudojimui, vienu pagrindinių iššūkių tampa gebėjimas atskirti tikrą turinį nuo sintetinio. M. Seligas šiame kontekste išsakė mintį, atspindinčią platesnes politikų ir technologijų kūrėjų diskusijas apie blokų grandinės panaudojimą turinio kilmei ir autentiškumui patvirtinti.
Viena iš krypčių – vadinamosios „įrodymo, kad esi žmogus“ sistemos. Jų tikslas – patvirtinti, kad paskyrą valdo realus, unikalus žmogus, o ne botas. Tarp dažniausiai minimų pavyzdžių – Samo Altmano projektas „World“, kurio „World ID“ protokolas leidžia įrodyti, kad vartotojas yra žmogus, neatskleidžiant asmens duomenų. Vis dėlto sistema sulaukė kritikos dėl privatumo rizikų ir galimos prievartos.
Kovo mėnesį „World“ pristatė įrankių rinkinį „AgentKit“, kuris turėtų leisti AI agentams įrodyti ryšį su patvirtintu žmogumi, sąveikaujant su interneto paslaugomis. Skelbiama, kad sprendimas integruoja „įrodymo, kad esi žmogus“ patvirtinimus su mikromokėjimų protokolu „x402“, kurį plėtoja „Coinbase“ ir „Cloudflare“, taip sudarydamas galimybę agentams atsiskaityti už prieigą kartu pateikiant kriptografinį įrodymą, kad už agento stovi žmogus.
Tuo metu „Ethereum“ bendraįkūrėjas Vitalikas Buterinas yra siūlęs kriptografijos ir blokų grandinių pagrindu didinti internetinių sistemų patikimumą, įskaitant nulinės žinios įrodymus ir blokų grandinėje fiksuojamas laiko žymas. Tokie metodai, jo teigimu, galėtų padėti patvirtinti, kaip turinys sukuriamas ir platinamas, neatskleidžiant jautrių duomenų.
Šios diskusijos vyksta JAV politikams svarstant platesnį AI reguliavimą. Kovo 20 d. Donaldo Trumpo administracija paskelbė nacionalinę gairių sistemą, raginančią laikytis vieningo federalinio požiūrio ir perspėjančią, kad skirtingi valstijų įstatymai gali stabdyti inovacijas ir mažinti konkurencingumą.