Не искам никой да си мисли, че съм казвала тези ужасни неща в живота си. Използване на украинско момиче за рекламно лице на Русия. Това е лудост… Олга Лойек е виждала лицето си да се появява в различни видеоклипове в китайските социални медии. Те били резултат от лесни за използване AI инструменти, достъпни онлайн.
„Можех да видя лицето си и да чуя гласа си. Но всичко беше много зловещо, защото се видях да казвам неща, които никога не съм казвала“, споделя 21-годишното момиче, което учи в Университета на Пенсилвания.
Акаунтите с нейно подобие имаха десетки различни имена като София, Наташа, Април и Стейси
Тези „момичета“ говореха на мандарин – език, който Олга не знае. Очевидно бяха от Русия и говореха за приятелство между Китай и Русия или рекламираха руски продукти.
„Видях, че 90% от видеоклиповете говореха за Китай и Русия, китайско-руското приятелство, че трябва да бъдем силни съюзници, както и реклами за храна.“
Един от най-големите акаунти беше „Наташа внесе храна“ с последователи от повече от 300 000 потребители. „Наташа“ би казала неща като „Русия е най-добрата страна. Тъжно е, че други страни се отвръщат от Русия, а руските жени искат да дойдат в Китай“, преди да започнат да рекламира продукти като руски бонбони.
Това вбесява Олга, чието семейство все още е в Украйна.
Но на по-широко ниво нейният случай привлече вниманието към опасностите от технология, която се развива толкова бързо, че регулирането й и защитата на хората се превърнаха в истинско предизвикателство.
От YouTube до Xiaohongshu
Двойниците на Олга, създадени с изкуствен интелект, говорещи мандарин, започнаха да се появяват през 2023 г. – скоро след като тя стартира канал в YouTube, който не се актуализира много редовно.
Около месец по-късно тя започна да получава съобщения от хора, които твърдяха, че са я видели да говори на мандарин в китайските социални медийни платформи.
Заинтригувана, тя започна да търси себе си и откри нейни подобия с изкуствен интелект в Xiaohongshu. Платформата е подобна на Instagram. Двойници има и в Bilibili, който е видео сайт, подобен на YouTube.
„Имаше много от тях. Някои имаха неща като руски знамена в биографията“, каза Олга, която досега е намерила около 35 акаунта, използващи нейното подобие.
След като нейният годеник написа пост в Twitter за тези акаунти, HeyGen, фирма, която тя твърди, че е разработила инструмента, използван за създаване на AI прилики, отговори.
Те разкриха, че повече от 4900 видеоклипа са генерирани с помощта на нейното лице. Фирмата обеща, че е блокирала изображението й, за да не се използва повече.
Говорител на компанията каза пред BBC, че системата им е била хакната, за да създаде това, което те нарекоха „неоторизирано съдържание“. Той добави, че те незабавно са актуализирали своите протоколи за сигурност и проверка, за да предотвратят по-нататъшна злоупотреба с платформата си.
Но Анджела Джан от университета в Хонконг казва, че случилото се с Олга е „много често срещано в Китай“
„Страната е дом на огромна сива икономика, специализирана във фалшифицирането, присвояването на лични данни и производството на дълбоки фалшификати“, каза тя.
Това се случва въпреки факта, че Китай е една от първите страни, които се опитват да регулират Изкуствения интелект и това за какво може да се използва. Той дори промени своя граждански кодекс, за да защити правата за подобие от цифрово фабрикуване.
Статистиката, оповестена от отдела за обществена сигурност през 2023 г., показва, че властите са арестували 515 лица за дейности „размяна на лица с изкуствен интелект“. Китайските съдилища също са разглеждали дела в тази област.
Но как тогава толкова много видеоклипове на Олга се появиха онлайн?
Една от причините може да е, че те насърчават идеята за приятелство между Китай и Русия.
През последните години Пекин и Москва значително се сближиха. Китайският лидер Си Дзинпин и руският президент Путин заявиха, че приятелството между двете страни „няма граници“. Двамата трябва да се срещнат в Китай тази седмица.
Китайските държавни медии повтарят руски наративи, оправдаващи нахлуването им в Украйна, а социалните медии цензурират обсъждането на войната.
„Не е ясно дали тези акаунти са се координирали с колективна цел, но популяризирането на послание, което е в съответствие с правителствената пропаганда, определено им носи полза“, каза Еми Хайн, изследовател по право и технологии от Университета на Болоня и KU Leuven. „Дори ако тези акаунти не са изрично свързани с ККП, популяризирането на съгласувано послание може да намали вероятността публикациите им да бъдат премахнати.“
Но това означава, че обикновените хора, като Олга, остават уязвими и са изложени на риск от нарушаване на китайските закони, предупреждават експерти.
Кайла Блумквист, изследовател по технологии и геополитика в Оксфордския университет, предупреждава, че „съществува риск лица да бъдат поставени в рамка с изкуствено генерирано, политически чувствително съдържание“, което може да бъде обект на „бързи наказания, постановени без надлежен процес“.
Тя добавя, че фокусът на Пекин във връзка с ИИ и онлайн политиката за поверителност е бил да изгради правата на потребителите срещу хищнически частни лица. Но подчертава, че „правата на гражданите по отношение на правителството остават изключително слаби“.
Хайн обяснява, че „фундаменталната цел на регулациите за ИИ в Китай е да се балансира поддържането на социална стабилност с насърчаването на иновациите и икономическото развитие“.
„Въпреки че разпоредбите в книгите изглеждат строги, има доказателства за селективно прилагане. Особено на правилото за генеративно лицензиране на AI, което може да има за цел да създаде по-благоприятна за иновации среда, с мълчаливото разбиране, че законът предоставя основа за репресии ако е необходимо“, каза тя.
„Не е последната жертва“
Но последиците от случая на Олга се простират далеч отвъд Китай. Те демонстрират трудността да се опитваш да регулираш индустрия, която изглежда се развива с главоломна скорост. При нея регулаторите непрекъснато играят наваксване. Но това не означава, че не се опитват.
През март Европейският парламент одобри Закона за ИИ, първата в света цялостна рамка за ограничаване на рисковете от технологията. А миналия октомври президентът на САЩ Джо Байдън обяви изпълнителна заповед, която изисква от разработчиците на AI да споделят данни с правителството.
„Въпреки че регулациите на национално и международно ниво напредват бавно в сравнение с бързата надпревара на растеж на ИИ, ние се нуждаем от по-ясно разбиране и по-силен консенсус относно най-опасните заплахи и как да ги смекчим“, казва Бломквист. „Въпреки това, разногласията в и между страните възпрепятстват осезаемите действия. САЩ и Китай са ключовите играчи, но изграждането на консенсус и координирането на необходимите съвместни действия ще бъде предизвикателство.“
Междувременно, на индивидуално ниво, изглежда има малко хора, които могат да направят повече по въпроса, освен да не публикуват нищо онлайн
„Единственото нещо, което трябва да направите, е да не им давате никакъв материал, с който да работят. Да не качваме снимки, видеоклипове или аудио на себе си в обществени социални медии“, казва Хайн. „Въпреки това, измамниците винаги ще имат мотиви да имитират другите. Така че дори ако правителствата предприемат репресии, очаквам да видим постоянен растеж сред регулаторния удар на къртица.“
Олга е „100% сигурна“, че няма да бъде последната жертва на генеративния AI. Но тя е решена да не позволи това да я прогони от интернет.
Тя сподели преживяванията си в канала си в YouTube. По думите й някои китайски онлайн потребители й помагат, като коментират под видеоклиповете, използвайки нейното подобие и посочвайки, че са фалшиви.
Тя добавя, че много от тези видеоклипове вече са свалени.
„Исках да споделя моята история, исках да се уверя, че хората ще разберат, че не всичко, което виждате онлайн, е истинско“, казва тя. „Обичам да споделям идеите си със света и никой от тези измамници не може да ме спре да го направя.“
Източник: BBC/Превод: SafeNews