Китай въвежда нови регулации срещу измами с изкуствен интелект чрез поставяне на “водни знаци”, съобщава WIRED.
Чрез новата регулация Китай ще опита да определи как трябва да се извършва етикетирането на съдържание с изкуствен интелект и да се изкорени дезинформацията, генерирана чрез него.
Звукови морзови кодове, криптирана информация за метаданни или специални етикети в сцени, генерирани във виртуалната реалност – това са някои от нещата, които китайското правителство иска от компаниите за изкуствен интелект и от социалните мрежи да използват, за да поставят точния етикет на съдържание, генерирано от изкуствен интелект.
На 14 септември китайската служба, отговорна за политиките в киберпространството, изготви проект на нов регламент, който има за цел да информира хората дали нещо е реално или зад него стои изкуствен интелект. Тъй като инструментите стават все по-напреднали, трудността да се разпознае въпросното съдържание, генерирано чрез ИИ, води до различни проблеми и то сериозни – от нерлиемливо порно до политическа дезинформация.
Китайското правителство не е първото, което се занимава с този проблем. Приетият през март тази година Закон за изкуствения интелект на Европейския съюз също изисква подобни етикети; Калифорния прие подобен закон през септември 2024 година. И в предишните разпоредби на Китай за ИИ също се споменаваше накратко за необходимостта от поставяне на етикети за генерирано от ИИ съдържание.
При тази нова политика са очертани повече подробности за това как платформите трябва да прилагат водните знаци за ИИ – за първи път тя обещава също така да наказва платформите на социалните мрежи, в които се публикува съдържание, генерирано от ИИ и то се разпространява, без да бъде правилно маркирано. В резултат на това за компаниите, занимаващи се с ИИ, както и за социалните платформи залогът да се изкушат и да заобиколят тези правила, е голям.
С бързината и ефективността на своето законодателство в областта на ИИ Китай се надява да заеме водещи и дори доминиращи позиции в определянето на глобалното му регулиране.
“Китай определено изпреварва както ЕС, така и САЩ по отношение на модерирането на съдържанието на ИИ, което отчасти се дължи на изискването на правителството да гарантира политическо съответствие в услугите с чатботовете”, заявява Анджела Джан, професор по право в Университета на Южна Калифорния, която изучава китайските технологични регулации.
По думите й сега Пекин има още един шанс да оформи глобалните стандарти в индустрията, защото етикетирането е обещаваща област за глобален консенсус по определен технически стандарт.
Контролът върху изкуствения интелект е по-труден, отколкото изглежда
В първата си част новият проект за регламент изисква от доставчиците на услуги за ИИ да добавят изрични етикети към съдържанието си. Това означава водни знаци върху изображенията от типа “видими етикети за уведомяване”, както и звуци на морзовата азбука “ИИ” – преди или след генериран от изкуствения интелект аудиоклип.
Това са практики, които в различна степен индустрията вече прилага. Но законодателството ще ги превърне от доброволни мерки в законови задължения и ще принуди инструментите за ИИ със свободни механизми за етикетиране да наваксат с маркирането или да приемат, че ги очакват солени глоби.
Проблемът с видимите етикети е, че те обикновено са лесни за подмяна, като например изрязване на воден знак или редактиране края на видеото. Затова законодателството изисква от компаниите да добавят и неявни етикети в метаданните на файловете със съдържание, генерирано от ИИ, които трябва да включват конкретно споменаване на инициалите “AIGC” (съдържание, генерирано с ИИ), както и криптирана информация за компаниите, които са произвели и разпространили този файл. То също така препоръчва на тези компании да добавят невидими водни знаци в съдържанието, така че потребителите да не разбират, че те са там.
В действителност прилагането на невидими етикети в метаданните ще изисква много повече компании да работят заедно и да се придържат към общи правила.
“Оперативно съвместимите стандарти за метаданни изискват те да работят в различни модели и внедрители на изкуствен интелект, инструменти и платформи – това е сложна задача и наистина има както технически предизвикателства, така и разходи за промяната”, обяснява Сам Грегъри, изпълнителен директор на Witness – организация за защита на човешките права в Ню Йорк.
“Това ще отнеме години, а не месеци”, споделя той. Но може би най-сложната част от китайския регламент е начинът, по който платформите за социални мрежи ще са отговорни за откриването на съдържание, генерирано от изкуствен интелект. Регламентът изисква от “услугите на платформите за предаване на онлайн информационно съдържание” да проверяват споделените файлове за скрити етикети и следи от генериране на изкуствен интелект.
Администраторите на платформите трябва да поставят маркировка за генериране на изкуствен интелект, ако това е посочено в метаданните и ако потребителят, който го е качил, доброволно го е разкрил. Или трябва да го направи, ако подозира изкуствен интелект. Те също така трябва да добавят своя собствена информация към метаданните, за да покажат пътя, който това съдържание е изминало в интернет.
Това създава много нови предизвикателства. На първо място, не е ясно веднага кои платформи ще се смятат от закона за “услуги на платформа за предаване на онлайн информационно съдържание”. “Най-общо казано, платформите за социални мрежи като Douyin, WeChat и Weibo най-вероятно ще са обхванати, но не е ясно дали платформите за електронна търговия като Taobao и JD и търсачките като Baidu също ще се броят”, обяснява Джей Си, партньор от Шанхай в адвокатската кантора Zhong Lun.
В момента популярните вертикални видео платформи в Китай позволяват на потребителите да маркират видеоклипа като генериран от изкуствен интелект, когато го публикуват. Някои от тях също така позволяват на потребителите да маркират други немаркирани видеоклипове като генерирани от изкуствен интелект или проактивно да търсят тези видеоклипове и след това да поставят етикет, който гласи: “Съдържанието е под подозрение, че е генерирано от изкуствен интелект”.
Законовото изискване да се проверява всичко в платформите е промяна на правилата на играта, като се има предвид, че те имат стотици милиони потребители в и извън Китай. “Ако WeChat или Douyin трябва да разглеждат всяка една снимка, качена в платформата и да проверяват дали са генерирани от ИИ, това ще се превърне в огромна тежест по отношение на работното натоварване и техническите възможности на компанията”, казва Си. Администратори на Douyin и Kuaishou, две от най-известните социални платформи за видео в Китай, отказаха коментар по темата.
Китай планира да надмине по строгост Закона на ЕС за изкуствения интелект
В Закона за изкуствения интелект на Европейския съюз, който обикновено се разглежда като най-всеобхватната правна рамка за регулиране на ИИ досега, също има член, в който се разглежда въпросът за етикетирането на съдържанието. В него се изисква резултатите от системата за ИИ да бъдат маркирани в машинночетим формат и да могат да бъдат открити като изкуствено генерирани или манипулирани. Той изисква също така изрично оповестяване от страна на компаниите, когато съдържанието съдържа фалшиви визуални изображения или текстова информация, засягащи обществения интерес.
Компаниите вече започнаха да контролират съдържанието. “Редица западни компании започнаха да възприемат стандарта C2PA, който е за произход, основан на метаданни и който помага да се изведе на повърхността начинът за това как е използван изкуствения интелект в съдържанието”, твърди Сам Грегъри. Сред поддръжниците на Коалицията за произхода и автентичността на съдържанието (C2PA) са Google, Meta, Microsoft и OpenAI.
“Това е стъпка в правилната посока”, споделя Грегъри, “но все още не е широко достъпен и много платформи не са го приели”.
Китайските регулатори вероятно са се поучили от Закона за изкуствения интелект на ЕС, споделя Джефри Динг, доцент по политически науки в университета “Джордж Вашингтон”. “Китайските политици и учени признават, че в миналото са черпили вдъхновение за някои неща от европейското законодателство.”
Но в същото време част от мерките, предприети от китайските регулатори, не могат да бъдат възпроизведени в други държави. Например, китайското правителство изисква от социалните платформи да проверяват съдържанието, качено от потребителите, за наличие на изкуствен интелект. “Това изглежда е нещо много ново и може би е уникално за контекста на Китай”, твърди Динг. “Това никога не би съществувало в контекста на САЩ, защото там са известни с това, че платформите не носят отговорност за съдържанието.”
Но какво да кажем за свободата на изразяване онлайн?
Проектът за регламент относно етикетирането на съдържание, генерирано с изкуствен интелект, в момента се обсъжда публично и търси обществена обратна връзка до 14 октомври. В същото от WIRED коментират, че може да отнеме още няколко месеца, за да може проектът да бъде променен и приет. Но няма особена причина китайските компании да отлагат подготовката за влизането му в сила.
Сима Хуапенг, основател и главен изпълнителен директор на китайската компания AIGC Silicon Intelligence, която използва deepfake технологии за генериране на ИИ агенти, инфлуенсъри, както живи и починали хора, споделя, че неговият продукт вече позволява на потребителите доброволно да изберат дали да маркират генерираното съдържание като ИИ. Но ако законът бъде приет, може да му се наложи да го промени и това да стане задължително.
“Ако дадена функция не е задължителна, то най-вероятно компаниите няма да я добавят към продуктите си. Но ако тя стане задължителна със закон, тогава всички ще трябва да я внедрят”, обяснява Сима. От техническа гледна точка не е трудно да се добавят водни знаци или етикети с метаданни, но това ще увеличи оперативните разходи на компаниите, които спазват изискванията.
Подобни политики могат да отклонят използването на ИИ за измами или нарушаване на неприкосновеността на личния живот, но също така могат да предизвикат разрастване на черния пазар на услуги с ИИ, където компаниите се опитват да избегнат спазването на закона и да спестят разходи, уточнява Сима.
Съществува и тънка граница между това да се търси отговорност от производителите на съдържание с изкуствен интелект и да се контролира индивидуалната реч чрез по-сложно проследяване.
“Голямото предизвикателство, свързано с правата на човека, е да се уверим, че тези подходи не застрашават допълнително неприкосновеността на личния живот или свободата на изразяване”, признава Сам Грегъри.
Макар че имплицитните етикети и водните знаци могат да се използват за идентифициране на източниците на дезинформация и неподходящо съдържание, същите инструменти могат да дадат възможност на платформите и правителствата да имат по-силен контрол върху това, което потребителите публикуват в интернет.
Всъщност загрижеността за това как инструментите на ИИ могат да станат противоправни е един от основните двигатели на усилията на Китай за проактивно законодателство в областта на изкуствения интелект.
В същото време китайската индустрия за ИИ настоява пред правителството да получи повече пространство за експериментиране и развитие, тъй като вече изостава от западните си колеги. Предишният китайски закон за генеративния ИИ беше значително смекчен между първия публичен проект и окончателния законопроект, като бяха премахнати изискванията за проверка на самоличността и бяха намалени санкциите, налагани на компаниите.
“Това, което видяхме, е, че китайското правителство наистина се опитва да върви по тънко въже между две опции от типа на “искаме да сме сигурни, че ще запазим контрола върху съдържанието”, но и “искаме да позволим на тези лаборатории за ИИ в стратегическото пространство да имат свободата да правят иновации”, обяснява Динг. “Ето още един опит да се направи това.”