Војната во Украина се води и со помош на „deepfake“ видеа на социјалните мрежи

Војната во Украина е првиот воен конфликт кој од старт се следи на глобално ниво преку социјалните мрежи, апликациите и видеата на YouTube.

Досега на Инстаграм, Фејсбук и апликацијата Телеграм се објавени над 1,2 милиони различни видеа од Украина, со различно времетраење и содржина – од „граѓанско репортерство“ и известување за цивилни жртви на руската агресија, преку апели за помош, до операција за спасување на миленик, кој сопствениците едноставно го оставиле зад себе.

Ознаката #Ukraine на социјалната мрежа Твитер има над 100.000 објави секој ден, а оваа тема досега е твитната повеќе од 144 милиони пати.

Пред десетина дена на социјалните мрежи, најпрво на Инстаграм и на ТикТок, а подоцна и на сите други, се појави кратко видео на кое се гледа како претседателот на Украина, Володимир Зеленски разговара на видео врска од неговата канцеларија, а до него на масата има бел прав, кој личи на кокаин. Секако, ова е лажно видео, најверојатно производ на руската разузнавачка служба ФСБ. Она што загрижува е начинот на кој за многу кратко време може да се генерираат вакви „deepfake“ или креирани лажни видео клипови.

Длабоко“ видео и длабока“ држава

Самата технологија Deepfake е релативно нов „изум“. Таквите видеа се создаваат со помош на софтвер, базиран на машинско учење (ML) и вештачка интелигенција (AI). Тие можат во целост да се генерираат од компјутери, користејќи слики, кратки видео или аудио клипови и, како во случајот со претседателот Зеленски, оригиналните видеа може делумно да се изменат со додавање на визуелни или аудио елементи.

Првиот таков софтвер беше Video Rewrite кој беше претставен во 1997 година. Преку него, истражувачите можеле да го модифицираат изразот на лицето и движењата на усните, со цел личноста на снимката да изгледа како да изговара друг текст, содржан во лажиран аудио дел. Подоцнежните верзии на овој софтвер беа, речиси, целосно независни, но поради ниската резолуција на видеата во тоа време, тој никогаш не се користеше пошироко, туку повеќе служеше како „доказ за концепт“, т.е. демонстрација на можностите на оваа технологија.

По 2000 година, се појавија неколку други слични софтвери, но тие во суштина работеа на ист начин како и Video Rewrite. Сè побрзите процесори, повисокиот капацитет на RAM меморијата и употребата на 64-битни оперативни системи во првата деценија на 21 век ги направија истражувањата за машинско учење и вештачка интелигенција достапни за широк опсег на компјутерски корисници, а не само за универзитетски истражувачи. Така, во 2016 година беше претставен софтверот наречен „Face2Face“ со кој е генерирано, можеби, и најпознатото deepfake видео на најшироката популација.

Видеото наречено „Synthesized Obama“ (вештачки Обама) содржеше говор на тогашниот американски претседател Барак Обама што тој никогаш не го одржа во реалниот живот. Софтверот употребил две видеа кои ги „увезол“ во едно, додека, пак, создал зборови и аудио од неколку други говори на Обама. Резултатот беше застрашувачки реалистично видео, а истражувачите тогаш рекоа дека „за помалку од една деценија никој нема да може да верува во ниту едно видео, токму поради можноста за длабока лажна технологија“.

Пред четири години, истражувачите од Универзитетот Беркли во Калифорнија, претставија сопствен софтвер за „deepfake“ видео, заснован на вештачка интелигенција. Овој софтвер „учеше“ од илјадници часови вистински натпревари во танци, а потоа можеше да генерира видео во кое секој човек танцува совршено. Софтверот базиран на сличен компјутерски код е способен да фалсификува каква било медицинска слика – истражувачите демонстрираа додавање на „рак“ на сликата на која било здрава личност.

Сликички кои не се ни направени

Подобрувањето на „deepfake“ технологијата во последните години има ново име – „data pairing“. За тоа е потребен поголем број на снимки од личност (политичар, јавна личност, спортист, шеф на корпорација или која било друга личност), а самите кадри мора да бидат со висока резолуција. Со користење на моделот Cycle GAN, тој софтвер може да произведе толку привлечни „длабоки лажни“ слики што дури и личноста која се наоѓа на нив тешко ќе може да ги демантира. Технологијата GAN (Generative Adversarial Network) е клучна за создавање на лажни „deepfake“ видеа. Компјутерски модел на вештачка интелигенција, со помош на специфичен програмски код, може да анализира видео од неколку „насоки“ и од неколку аспекти (оттука и името „мрежа“ – препознавање на мрежа). Кога се анализира видео, софтверот GAN може да ги предвиди сите други карактеристики на изгледот и однесувањето на видеото и да генерира нови „рамки“ во видеото, иако тие всушност не се снимени.

Следната генерација на софтвер GAN се нарекува IGM (Implicit Generative Model), во која компјутерот ќе може да препознае движење, говор и гестови на вистинска личност од видео и да ги примени сите овие параметри на целосно виртуелен и генериран компјутерски модел.

ИТ експертот Душан Савиќ вели дека овие технологии се веќе делумно достапни за најширокиот круг на луѓе кои не мора да бидат програмери.

„Многу луѓе слушнале или веќе ја пробале апликацијата „FaceApp“ со чија помош можете да „остарете“ – апликацијата генерира слика за тоа како ќе изгледате во вашите подоцнежни години. Апликацијата „Zao“ е многу популарна во Кина со која може додавате вашите снимки на клипови од популарни кинески сапуници. „Апликацијата „Wombo“ може да генерира видео во кое кажувате зборови од филмови или пеете популарни хитови“, објаснува Савиќ.

„Можеби најквалитетната јавно достапна апликација за deepfake е „ReFace“. Со само една ваша фотографија, таа може да направи 3Д модел, кој се однесува сосема реално и да го додаде на делови од популарни филмови, серии или музички спотови. Оваа апликација се заснова на GAN технологијата, која се користи и за „сериозни“ снимки со длабок фејк“, додава тој.

Војување на социјалните мрежи

Сите „deepfake“ снимки или фотографии, обработени во апликации, најпрво се пласираат на социјалните мрежи, а подоцна ги преземаат медиуми, најчесто проруски интернет портали од доверба. Самата мрежа Твитер досега отстрани над 75.000 профили кои ретвитнуваа лажни вести од руски портали. Интересно е тоа што речиси една третина од овие вести беа на француски и германски јазик, што покажува дека на Кремљ му е исклучително важен „добриот имиџ“ во овие земји од ЕУ.

Уште една лажна објава која со месеци се шири на социјалните мрежи е графиконот според кој 83 отсто од војните во последните 50 години ги започнале САД и нивните сојузници. Иако целосно историски неосновани, овие лажни факти си најдоа свој пат преку официјални налози на руските дипломатски претставништва, а ги ретвитна и кинеската амбасада во Москва.

Се разбира, постојат сеприсутни лажни кориснички профили, популарно наречени „ботови“. Руските сервиси имаат најмалку 350.000 лажни корисници на Твитер и уште најмалку два милиона измислени корисници на Фејсбук и различни групи на Телеграм, Сигнал и Вибер. Сите тие ботовски налози се користат за ширење на руска пропаганда, негирање на воените злосторства во Украина и ширење дезинформации за „колапс на земјите од ЕУ без руска енергија“.

Таквите „ботови“ се користат за негирање на веќе утврдени факти од теренот. Фотографијата на учителката од градот Чугуев, Олена Курило, е споделена повеќе од милион пати на Твитер. Сликата на жена во завои, повредена кога руска ракета го погоди нејзиниот блок згради, за кратко време стана „лице на руската агресија“. Меѓутоа, неколку дена подоцна, на Твитер се појави видео на кое наводно се гледа Олена неповредена, во прифатен центар во Полска. Ова видео беше претставено од руските државни медиуми како доказ за „специјална војна против Русија“. Подоцна се испостави дека станува збор за компјутерски генерирана „deepfake“ видео.

Предупредување за дезинформации од апликациите за кореспонденција

И додека Твитер ги укина сметките на руските државни пропагандни канали „Раша тудеј“ и „Спутник“ уште на самиот почеток на агресијата, неколку стотици профили на разни руски државни органи, амбасади и меѓународни мисии сè уште се активни на интернет. Сите тие, очекувано, се користат за ширење на пропаганда за наводна „закана по Русија од дејствијата на режимот во Киев“. Само 53 од тие налози на Твитер имаат вкупно над четири милиони следбеници што, пак, води до тоа нивните објави дополнително да се видат на најмалку 50 до 70 милиони кориснички сметки ширум светот. Така, објавите на тие руски профили се ретвитнати 26 милиони пати од почетокот на агресијата и добиле над четири милиони одговори.

Во средината на март, руската амбасада во Лондон пренесе изјава на министерот за надворешни работи, Сергеј Лавров во која тој негира напад на руските сили врз родилиштето Марипол: „Зградата е празна долго време и ја користат неонацистите од баталјонот Азов“. Амбасадата објави и фотографија од повредената трудница на носилка, со натпис „лажна“ (лага). Неколку дена подоцна пристигнаа повеќекратно потврдени информации дека трудницата на сликата и нејзиното бебе починале.

На почетокот на март, украинските безбедносни сили ги предупредија своите граѓани да не бидат предмет на дезинформации на апликацијата за безбедна кореспонденција Телеграм. Имено, голем број на руски војници користеле сопствени мобилни телефони и паметни телефони во Украина, па дури и комуницирале преку незаштитени канали и апликации. Кога украинската армија забележала голем број на руски СИМ-картички што се активни во истата област, било јасно дека тоа се всушност телефони на руски војници и не им бил дозволен пристап до украинската мобилна мрежа. Руските сили потоа почнаа да ги конфискуваат телефоните на украинските цивили и да шират лажни информации преку апликациите „Сигнал“ и „Телеграм“, преземајќи ги идентитетите на украинските граѓани.

Американската централна агенција за сајбер безбедност (CISA) оваа година предупреди дека руската воена разузнавачка служба ГРУ има повеќе од 1.400 сметки и групи на апликацијата Телеграм што ја користи за ширење на проруска пропаганда и дезинформации.

Исто така, една од најретвитнуваните лажни вести е онаа за „лабораториите за биолошко оружје во Украина“. Овие лажни тврдења неколку пати ги повтори и самиот Владимир Путин, како и неколку руски министри и дипломати. Само неколку дена подоцна, официјалното тело на Обединетите Нации за следење на оружјето за масовно уништување и разоружување целосно ги демантираше овие наводи.

„Немаме никакви информации од терен и сега и за претходниот период дека постоеле такви лаборатории во Украина“, изјави шефот на ова тело на ОН, Изуми Накамицу.

Извор: Ал Џезира

Фото: Pixabay

Оваа сторија е дел од публикацијата „Новинарството како јавно добро“, дел од проектот „Синдикатите за фер закрепнување“ финансиран од Европската Унија, а во партнерство со Европската федерација на новинари.Ставовите и коментарите во публикацијата се одговорност на ССНМ и не ги изразуваат ставовите и мислењата на Европската Унија и на Европската федерација на новинари.

Сподели:

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn