JAV ekspertai siūlo uždrausti superintelekto kūrimą, kol nebus mokslinio saugumo sutarimo

Paskelbė Gediminas Šimkus
5 min. skaitymo

Vašingtono santykių su „Anthropic“ nutrūkimas atskleidė akivaizdžią problemą: Jungtinėse Valstijose vis dar nėra nuoseklių, aiškių taisyklių, kurios reguliuotų dirbtinio intelekto (DI) kūrimą ir diegimą.

Tuo pat metu dvišalė mąstytojų koalicija pateikė tai, ko valdžia iki šiol nesugebėjo sukurti, – gaires, apibrėžiančias, kaip turėtų atrodyti atsakinga DI plėtra.

„Pro-human“ deklaracija buvo galutinai parengta dar prieš praėjusios savaitės Pentagono ir „Anthropic“ akistatą, tačiau šių dviejų įvykių sutapimas neliko nepastebėtas nė vienam iš proceso dalyvių.

„Per pastaruosius keturis mėnesius Amerikoje įvyko kai kas išties neįprasto“, – sako MIT fizikas ir DI tyrėjas Maxas Tegmarkas, prisidėjęs prie iniciatyvos organizavimo.

Anot jo, apklausos staiga ėmė rodyti, kad net 95% amerikiečių nepritaria nevaldomoms lenktynėms į superintelektą.

Naujai paskelbtas dokumentas, kurį pasirašė šimtai ekspertų, buvusių pareigūnų ir visuomenėje žinomų asmenų, pradedamas aiškia mintimi: žmonija atsidūrė kryžkelėje.

Vienas kelias, deklaracijoje įvardijamas kaip „lenktynės pakeisti“, veda į situaciją, kai žmonės pirmiausia išstumiami iš darbo rinkos, vėliau – iš sprendimų priėmimo, o galia vis labiau koncentruojasi neatskaitingose institucijose ir jų valdomose sistemose. Kitas kelias – DI, kuris iš esmės išplečia žmogaus galimybes.

Pastarasis scenarijus, pasak deklaracijos, remiasi penkiais pagrindiniais ramsčiais: žmonės turi išlikti atsakingi ir sprendžiantys, turi būti vengiama galios koncentracijos, privalu saugoti žmogiškąją patirtį, išlaikyti individualią laisvę ir užtikrinti DI bendrovių teisinę atskaitomybę.

Tarp griežtesnių nuostatų – siūlymas visiškai uždrausti superintelekto kūrimą tol, kol nebus mokslinio sutarimo, kad tai įmanoma daryti saugiai, ir kol nebus realaus demokratinio pritarimo.

Taip pat numatomas privalomas „išjungimo jungiklis“ galingoms sistemoms bei draudimas kurti architektūras, galinčias savireplikuotis, autonomiškai tobulėti ar priešintis išjungimui.

Deklaracijos paskelbimas sutapo su įvykiais, dėl kurių jos skubumas atrodo dar akivaizdesnis. Paskutinį vasario penktadienį JAV gynybos sekretorius Pete’as Hegsethas „Anthropic“ – kurios DI jau naudojamas įslaptintose karinėse platformose – įvardijo kaip „tiekimo grandinės riziką“, kai bendrovė atsisakė suteikti Pentagonui neribotą prieigą prie savo technologijos.

Tokia žyma paprastai taikoma įmonėms, siejamoms su Kinija. Po kelių valandų „OpenAI“ sudarė atskirą susitarimą su Gynybos departamentu, tačiau teisės ekspertai teigia, kad jį gali būti sudėtinga prasmingai įgyvendinti. Visa tai dar kartą parodė, kokia brangi tapo Kongreso neveikla DI reguliavimo srityje.

Kaip po to pabrėžė vienas JAV inovacijų politikos analitikų, tai nėra vien ginčas dėl sutarties. Tai – pirmas rimtas nacionalinis pokalbis apie tai, kas iš tiesų kontroliuos DI sistemas.

Kalbėdamas Tegmarkas pateikė daugeliui suprantamą analogiją: „Jums nereikia bijoti, kad kokia nors farmacijos įmonė išleis vaistą, galintį sukelti masinę žalą, dar prieš žmonėms išsiaiškinant, kaip jį padaryti saugų. Taip yra todėl, kad reguliuotojas neleis nieko išleisti, kol tai nebus pakankamai saugu.“

Vašingtono institucijų „teritorinės kovos“ retai sukuria tokį visuomenės spaudimą, kuris realiai pakeistų įstatymus. Vis dėlto Tegmarkas mano, kad būtent vaikų saugumas gali tapti silpniausia dabartinės aklavietės vieta.

Deklaracijoje siūloma įvesti privalomus DI produktų bandymus prieš juos diegiant, ypač kalbant apie pokalbių robotus ir „kompanionų“ programėles, skirtas jaunesniems vartotojams. Tokie testai apimtų rizikas, susijusias su didesne savižudiškų minčių tikimybe, psichikos sveikatos būklės pablogėjimu ir emocine manipuliacija.

„Jeigu koks nors įtartinas suaugęs žmogus rašinėtų vienuolikmečiui, apsimesdamas bendraamže mergina, ir bandytų jį įtikinti nusižudyti, už tai jis galėtų atsidurti kalėjime“, – sako Tegmarkas. „Įstatymai jau egzistuoja. Tai yra neteisėta. Kodėl turėtų būti kitaip, jei tą patį daro mašina?“

Jo teigimu, kai tik vaikams skirtų produktų srityje bus įtvirtintas principas, kad būtina atlikti testavimą prieš paleidžiant, reikalavimų apimtis beveik neišvengiamai ims plėstis.

„Atsiras žmonių, kurie sakys: pridėkime dar kelis kriterijus. Gal reikėtų patikrinti, ar sistema negali padėti teroristams kurti biologinių ginklų. Gal reikėtų įsitikinti, kad superintelektas neturi galimybės nuversti JAV vyriausybės“, – svarsto jis.

Ne mažiau iškalbingas ir faktas, kad tą patį dokumentą pasirašė itin skirtingų pažiūrų ir politinių stovyklų atstovai – nuo buvusio D. Trumpo patarėjo Steve’o Bannono iki Susan Rice, buvusios prezidento Baracko Obamos nacionalinio saugumo patarėjos, taip pat buvęs Jungtinių štabų vadų pirmininkas Mike’as Mullenas ir progresyvių religinių bendruomenių lyderiai.

„Žinoma, dėl ko jie sutaria, – kad visi jie yra žmonės“, – sako Tegmarkas. „Jeigu klausimas galiausiai bus, ar norime ateities žmonėms, ar ateities mašinoms, natūralu, kad jie atsidurs toje pačioje pusėje.“

Dalintis šiuo straipsniu
Komentarų: 0

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *