„YouTube” klastočių atpažinimo įrankį pradeda taikyti politikams ir žurnalistams

Paskelbė Gediminas Šimkus
4 min. skaitymo

„YouTube“ plečia savo panašumo (angl. likeness) atpažinimo technologiją, kuri padeda nustatyti dirbtinio intelekto sukurtas klastotes (deepfake). Bendrovė pranešė, kad naujovė pradedama taikyti bandomajai grupei, į kurią įtraukti valstybės pareigūnai, politiniai kandidatai ir žurnalistai.

Šios pilotinės programos dalyviai gaus prieigą prie įrankio, leidžiančio aptikti be leidimo sukurtą DI turinį ir, jei manoma, kad jis pažeidžia „YouTube“ taisykles, pateikti prašymą jį pašalinti.

Pati technologija praėjusiais metais buvo pradėta naudoti maždaug 4 mln. „YouTube“ kūrėjų, priklausančių „YouTube Partner Program“, po ankstesnių bandymų su ribotu skaičiumi didžiausių kanalų.

Kaip ir „YouTube“ naudojama „Content ID“ sistema, aptinkanti autorių teisių saugomą medžiagą įkeliamuose vaizdo įrašuose, panašumo atpažinimo funkcija ieško DI įrankiais sukurtų, imituotų veidų.

Tokie įrankiai kartais pasitelkiami dezinformacijai skleisti ir žmonių realybės suvokimui manipuliuoti, nes klastotėse pasitelkiami žinomų asmenų, pavyzdžiui, politikų ar kitų valstybės pareigūnų, atvaizdai, leidžiant jiems tariamai sakyti ar daryti tai, ko jie iš tiesų nedarė.

Pradėdama naują pilotinę programą, „YouTube“ siekia suderinti naudotojų saviraiškos laisvę su rizikomis, kurias kelia DI technologijos, gebančios įtikinamai atkurti viešo asmens išvaizdą.

„Ši plėtra iš esmės susijusi su viešojo pokalbio integralumu“, – prieš programos startą vykusiame pristatyme teigė „YouTube“ vyriausybinės politikos ir viešųjų ryšių viceprezidentė Leslie Miller. Pasak jos, DI apsimetinėjimo rizika ypač didelė pilietinėje erdvėje, tačiau kartu pabrėžta, kad įrankis bus taikomas atsargiai.

Miller paaiškino, jog ne visi įrankio nustatyti sutapimai bus automatiškai šalinami pagal pateiktą prašymą. „YouTube“ kiekvieną užklausą vertins pagal galiojančias privatumo politikos gaires ir spręs, ar turinys nėra parodija ar politinė kritika – tai saviraiškos formos, kurios yra saugomos.

Bendrovė taip pat nurodė, kad pasisako už aiškesnes apsaugas ir nacionaliniu lygmeniu – remia teisėkūros iniciatyvas, kuriomis būtų reguliuojamas DI naudojimas kuriant neautorizuotas asmens balso ir vizualinio atvaizdo rekonstrukcijas.

Norėdami pasinaudoti naujuoju įrankiu, tinkami pilotinės programos dalyviai pirmiausia turės patvirtinti tapatybę: įkelti asmenukę ir valstybinį asmens dokumentą.

Vėliau jie galės susikurti profilį, peržiūrėti aptiktus sutapimus ir, jei reikia, pateikti prašymą pašalinti turinį. „YouTube“ teigia, kad ateityje planuoja suteikti galimybę užkirsti kelią pažeidžiančio turinio įkėlimui dar prieš jam pasirodant viešai arba, galbūt, sudaryti sąlygas tokį turinį monetizuoti – panašiai kaip veikia „Content ID“.

Bendrovė nepatvirtino, kurie politikai ar pareigūnai pateks tarp pirmųjų testuotojų, tačiau pabrėžė, kad ilgainiui siekiama technologiją padaryti plačiai prieinamą.

DI sukurti vaizdo įrašai bus žymimi kaip tokie, tačiau šių žymų vieta nėra vienoda. Vienais atvejais žyma matoma vaizdo įrašo aprašyme, o įrašams, priskiriamiems „jautresnėms temoms“, žymėjimas gali būti rodomas pačioje vaizdo įrašo pradžioje. „YouTube“ nurodo, kad tokį patį principą taiko ir kitam DI generuotam turiniui.

„DI sukuriama labai daug turinio, bet pats faktas, kad jis sukurtas DI, ne visada yra esminis turinio vertinimui“, – aiškindamas, kodėl žymų matomumas gali skirtis, teigė „YouTube“ kūrėjų produktų viceprezidentas Amjad Hanif. Pasak jo, DI gali būti naudojamas, pavyzdžiui, animacijai ar iliustracijoms, todėl sprendžiama, kada reikalingas ypač ryškus įspėjimas.

„YouTube“ šiuo metu neskelbia, kiek DI klastočių pašalinimų kūrėjai inicijavo naudodamiesi šia technologija, tačiau teigia, kad iki šiol pašalinto turinio kiekis buvo „labai mažas“.

Hanif pastebėjo, kad daugeliui kūrėjų svarbiausia tampa pats informuotumas apie tai, kas yra kuriama naudojant jų atvaizdą, o realių šalinimo prašymų būna itin nedaug, nes dažna dalis tokio turinio pasirodo esanti gana nekenksminga arba net papildanti jų veiklą.

Vis dėlto tai nebūtinai galios klastotėms, susijusioms su valstybės pareigūnais, politikais ar žurnalistais, kur klaidinančio turinio pasekmės gali būti gerokai reikšmingesnės.

Ateityje „YouTube“ planuoja šią klastočių aptikimo technologiją pritaikyti ir kitose srityse, įskaitant atpažįstamus kalbančius balsus bei kitą intelektinę nuosavybę, pavyzdžiui, populiarius personažus.

Dalintis šiuo straipsniu
Komentarų: 0

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *