TikTok і війна: як відеофейки створюють ілюзію реальності

Колаж: 6262

На тлі наближення фронту до Слов’янська TikTok перетворюється на особливо чутливий майданчик для інформаційних маніпуляцій. Емоційні відео про війну, мобілізацію, ТЦК чи «зрадницькі» наративи швидко поширюються серед місцевих жителів, які перебувають у стані постійної напруги й тривоги. У такому контексті навіть сумнівний або постановочний ролик може сприйматися як реальне свідчення подій і викликати сильну емоційну реакцію.

Цим активно користуються фейкороби та пропагандисти, які свідомо підлаштовують контент під регіональний порядок денний. Щоб підсилити ефект достовірності й потрапити в рекомендації саме місцевої аудиторії, вони додають до маніпулятивних відео хештеги на кшталт «#Донеччина» та «#Словянськ», експлуатуючи страхи, чутливі теми та довіру до «очевидців з місця подій».

Як працюють алгоритми TikTok та як не стати жертвою пропаганди у цій соцмережі, з'ясовували журналісти видання 6262.

Сильна сторона TikTok - формат відео. Саме тут постановочні або створені за допомогою штучного інтелекту ролики дуже швидко стають вірусними, зокрема популярні сьогодні - відео про військових, мобілізацію та ТЦК. Поширюються й інсценовані відео на соціальні чи мовні теми, які подаються як реальні конфлікти. Коментарі та ботоактивність підсилюють ефект достовірності, навіть якщо подія є вигаданою.

Мобільний формат перегляду додатково сприяє маніпуляціям. Невеликий екран приховує технічні недоліки, а занижена якість відео часто використовується навмисно, щоб ускладнити виявлення монтажу або постановки. У результаті глядачам складніше критично оцінити побачене, і довіра до такого контенту зростає.

Резистентність до відеофейків залишається низькою, особливо серед людей, які не мають досвіду роботи з інформацією. Навіть сумніваючись у правдивості ролика, користувачі часто поширюють його без перевірки, що лише посилює вірусність маніпулятивних відео. За словами медіатренерки та співзасновниці StopFake Ольги Юркової, цю проблему підсилює стрімке зростання аудиторії TikTok в Україні.

За даними дослідження Internews Україна, у 2024 році TikTok використовували 27% українців, а у 2025-му — вже 30%, причому платформою активно користуються всі вікові категорії, і 6% споживають через неї новини. Водночас 31% респондентів вважають TikTok загрозою для суспільства, а 30% підтримують ідею його обмеження або заборони, продовжуючи при цьому користуватися платформою. Такий парадокс свідчить про усвідомлення ризиків поряд із постійним споживанням емоційного відеоконтенту.

Російська пропаганда в TikTok

Російська пропаганда активно використовує TikTok для поширення фейків і дезінформації, застосовуючи різні стратегії впливу. Зокрема, запускають мережі невідомих блогерів, які системно займаються дискредитацією української влади та Збройних сил України.

Маніпулятори цілеспрямовано б’ють у болючі точки суспільства: крадуть чужий контент, вирізають фрагменти з контексту, накладають інший голос або звук, а потім просувають такі ролики через тренди TikTok і вірусні формати.

Приклад, як відео з викриття шахрайського кол-центру подали за масову втечу від ТЦК: 

Фото: Центр протидії дезінформації

“Поширеною є схема з використанням відео українських новин, знятих здалеку: обличчя ведучих нечіткі, рух губ не видно, а поверх накладають фейковий звук. Так відомим ведучим приписують вигадані заяви, наприклад про нібито виплати сотень тисяч гривень, що є шахрайством, але аналогічні прийоми застосовують і для дезінформації”, - розповідає Ольга Юркова. 

Окремим прикладом є пропагандистська кампанія «Матрьошка», яка була спрямована проти українських біженців. Згенеровані за допомогою штучного інтелекту відео - дипфейки - мали на меті показати, ніби українці, які змушені були ховатися від війни за кордоном, не вдячні та жадібні й що саме Україна, а не росія поширює неправду. 

Фактчекерка наголошує, що еволюційно людина більше довіряє зоровій інформації, ніж словам чи тексту, адже зв’язок мозку з очима є базовим механізмом оцінки небезпеки. Саме тому відео сприймаються як «свідчення» подій: вони створюють ефект присутності, підсилюють емоції та викликають швидку реакцію, а алгоритми соцмереж після цього пропонують ще більше подібного контенту. Складні теми розбиваються на короткі, нібито зрозумілі фрагменти, що формує ілюзію простоти.

Часто для цього використовують вирізані з контексту шматки інтерв’ю або кадри, які найбільше тригерять і викликають сильні емоції, відкриваючи простір для маніпуляцій. Багато людей досі вважають, що якщо щось показують на відео, то це правда, що є особливо небезпечним для вразливих груп — літніх людей або тих, хто перебуває у стресовому психологічному стані через війну, постійні обстріли та потік негативних новин.

Темна сторона Тік-Ток, вплив на підлітків та як працюють алгоритми

Експертка з ШІ Юлія Машута відзначає, що TikTok може сильно впливати на підлітків. Вони часто не здатні критично оцінювати інформацію, особливо, якщо її подають через блогерів чи інфлюенсерів. 

“Через алгоритми платформи підлітки підсвідомо потрапляють під рекламні кампанії, наприклад щодо харчових добавок чи певних ліків, і часто не можуть розрізнити правду від фейку”, - наголошує Юлія Машута.

В Австралії, наприклад, заборонили користування соцмережами для користувачів до 16 років, що ефективно обмежує небезпечний контент. Багато батьків не знають, як встановити обмеження, а алгоритми платформи показують більше відео, якщо користувач довго дивиться або повторно переглядає ролик, навіть без лайків чи коментарів.

TikTok відрізняється від інших соцмереж великою емоційністю відео та візуальним впливом на психіку. Темна сторона платформи включає порнографію, рекламу шкідливих продуктів і маніпулятивним контентом. Алгоритми формують закриті бульбашки, де правда змішана з фейками, що ускладнює критичне мислення та перевірку інформації.

Що робити: не довіряти відео автоматично, перевіряти джерело та контекст. Для цього можна використовувати інструменти для пошуку на основі штучного інтелекту, як от Perplexity чи Grok, або браузер зі штучним інтелектом від компанії Perplexity AI - Comet. Штучний інтелект може допомагати як у створенні фейків, так і у їх аналізі, тому його варто використовувати для перевірки та досліджень відео.

Варто обмежувати доступ дітей та підлітків до платформи і не взаємодіяти з підозрілим контентом, навіть негативним коментарем, який має на меті спростувати фейк. Найкращий інструмент взаємодії з таким контентом - скарга. 

Феномен тіктоківських "експертів"

Алгоритми TikTok дозволяють дуже швидко зробити вірусними відео абсолютно невідомих людей: достатньо, щоб один ролик «зайшов», і людина, яка впевнено щось говорить, починає сприйматися як експерт — це типовий тіктоківський феномен.

Ці «блогери» створюють враження людини-сусіда. Ми сприймаємо цю людину як ту, що може жити в сусідній квартирі. Часто це блогер, який щось говорить з автомобіля або йде по вулиці і говорить на камеру. Людина робить це впевнено, що створює враження авторитетності. Люди найбільше довіряють тим, хто схожий на них, навіть не експертам. 

Люди загалом більше довіряють своїм умовним «сусідам», ніж авторитетам чи політикам — це неодноразово підтверджували дослідження, зокрема в контексті виборів. Саме цей механізм довіри активно використовують пропагандисти - зазначає Ольга Юркова: 

«Абсолютно така сама, як я, людина говорить до мене впевнено, емоційно. Ніби ми перебуваємо в якомусь закритому просторі, і мені все розказують особисто».

Так звані експерти коментують усе — від війни й мобілізації до міжнародної політики та поведінки президента, і такі відео швидко поширюються через емоційність і відчуття близькості.

Навіть справжні фахівці можуть ставати інструментом маніпуляцій: «Треба дивитися, чи людина справді говорить у своїй сфері компетенції», адже експертний статус у TikTok не завжди означає реальну кваліфікацію.

Юристи та адвокати в TikTok

Частина юристів і адвокатів спекулює на чутливих темах — мобілізації, виплатах і компенсаціях. Інколи це реальні адвокати, які заробляють на страхах людей, обіцяючи «вирішити питання», а інколи — фейкові юристи, через яких поширюють потрібні меседжі. Такі мережі, зокрема, спрямовані проти мобілізації, активно працюють у різних соцмережах.

У Тік-Ток часто з’являються відео з обіцянками «допомогти уникнути мобілізації» або «оформити компенсацію за загиблого родича», хоча більшість цих процедур держава здійснює без участі адвокатів. Подібний контент може бути способом збору персональних даних або елементом інформаційних операцій.

Особливо небезпечними є такі «юристи» для родичів полонених чи зниклих безвісти. Вони виходять на людей через коментарі чи закриті групи, пропонують допомогу й просять заповнювати форми з особистою інформацією, після чого переводять спілкування в Telegram чи інші платформи. Часто мета такого контенту — деморалізація або збір чутливих даних під виглядом правової допомоги. Подібне також можуть поширювати з метою вимагання грошей у родин військовослужбовців. 

Постановочні відео та діпфейки

Фейкові відео про ТЦК, мобілізацію та українських військових часто є постановочними або створеними за допомогою штучного інтелекту, який вже вміє робити дуже правдоподібні ролики. Центр протидії дезінформації та Центр стратегічних комунікацій активно відстежують такий контент, де військових нібито показують як тих, що нападають на цивільних або діють поза законом, або зображують деморалізованих воїнів, які розповідають про складні ситуації на фронті. Часто під такі відео створюються окремі акаунти.

Фото: Центр протидії дезінформації

Водночас реальних інцидентів серед цих відео дуже мало — більшість роликів маніпулятивні або складаються з чужого матеріалу, наприклад, затримання злочинця видають за мобілізацію.

“Такі відео мають характерні ознаки: камера спеціально не показує облич, ролики дуже драматичні — крики, метушня, кінематографічна подача. Складається враження, що їх знімають випадкові очевидці, але насправді люди завжди опиняються «у потрібному місці» для створення ефекту свідка”, - розповідає Ольга Юркова. 

Часто це склейки окремих кадрів, а не один довгий ролик із контекстом і місцевістю. Незрозуміло, де відбуваються події та хто у кадрі, а різкі переходи й монтаж створюють додаткову маніпуляцію. Навіть якщо відео частково справжнє, його багато в чому змонтовано, щоб викликати сильну емоційну реакцію.

Діпфейки зі штучним інтелектом

Відео, створені штучним інтелектом, можуть бути абсурдними мемними роликами. Але може бути й серйозна дискредитація.

Під Новий рік з'явилося відео, згенероване штучним інтелектом. Їде Зеленський як Санта-Клаус на оленях. Європейські лідери дають йому мішок грошей. Він забирає їх, сміється і дає їм по чупа-чупсу. Дискредитація - нам дають гроші, незрозуміло, куди вони діваються.

Очевидно, що це штучний інтелект. Ніхто не видає це за правдиве відео. Але воно залишає негативне відчуття, просуває потрібні наративи про те, що гроші, які Україна отримує від партнерів на боротьбу з росією, насправді осідають в кишенях високопосадовців. 

Завдання таких відео — посіяти сумнів, висміяти або дискредитувати. Такі відео зазвичай не містять конкретних фактів: невідомо, хто зображений у кадрі, де й коли відбувається подія, однак вони сильно апелюють до емоцій, через що користувачі поширюють їх некритично. Це різновид чорного піару або псевдокомпромату, що працює на підрив довіри.

Сьогодні відео зі штучним інтелектом можна швидко й дешево створити за допомогою доступних програм, тому кількість діпфейків стрімко зростає. Їхня небезпека полягає не лише в конкретних фейках, а й у загальному розмиванні довіри до відео як формату: люди починають сумніватися навіть у реальних подіях. Саме тому важливо навчатися розпізнавати штучно створений контент і повертатися до перевірених джерел інформації.

Один із найпоширеніших типів діпфейків — підміна озвучки. Для цього беруть реальне відео й накладають професійно згенерований голос, який може звучати переконливо. В українських версіях таких роликів часто трапляються помилки з наголосами або неприродна інтонація, що може бути додатковою ознакою фальсифікації. Окрім цього, створюють повністю фейкові новинні сюжети з вигаданими ведучими або змонтовані «репортажі», зібрані з різних подій, але подані як один інцидент. 

Дослідження «Жінки в медіа» показало, що для таких маніпуляцій нерідко використовують образи відомих телеведучих, зокрема Алли Мазур чи Наталії Мосійчук, адже їхні зображення й голоси легко знайти у відкритому доступі.

Багато фейкових відео спочатку з’являються в Telegram, а згодом поширюються в TikTok, де швидко стають вірусними завдяки алгоритмам платформи. Основною аудиторією псевдоновинних сюжетів часто є люди старшого віку, які звикли до телевізійної картинки й довіряють формі подачі. Переглядаючи стрічку з десятків коротких відео, вони рідко аналізують кожен ролик окремо, а професійне звучання й знайомий формат створюють ілюзію справжньої журналістики.

Читайте також: Як Telegram-канали грають на руку російській пропаганді і про що ми не здогадуємось, гортаючи стрічку

Штучний інтелект у TikTok використовується і в жартівливому контексті, однак навіть меми іноді потребують спростування. Наприклад, відео із зображенням Володимира Зеленського, який нібито танцює східний танець, поширювалися як гумор, але частина аудиторії сприймала їх буквально. Такі ролики нормалізують використання діпфейків і можуть непомітно закладати вигідні пропагандистам наративи через іронію та сміх.

Окрему нішу займають «зрадницькі» відео, які з’являються з 2022 року та катастрофізують ситуацію на фронті і в країні. Вони створюють інформаційне перевантаження, посилюють тривожність і роблять аудиторію більш вразливою до маніпуляцій. Пропагандисти гнучко підлаштовуються під актуальний порядок денний, обираючи болючі теми — страх, голод, втрати, — і подають їх через надемоційні сюжети. У таких випадках важливо дивитися не лише на переживання героя відео, а й на змістові меседжі, які передаються разом з емоціями.

Загалом фейки в TikTok вирізняються коротким форматом, високою емоційністю та візуальною привабливістю. Наративи часто збігаються з іншими соціальними мережами, але саме TikTok дозволяє швидко зробити вірусними точкові інформаційні вкидання. Пропагандисти поширюють одні й ті самі меседжі на різних платформах, адаптуючи їх під різну аудиторію, що робить перетікання контенту характерною рисою сучасного інформаційного простору.

Як перевіряти відео

TikTok став однією з головних платформ поширення дезінформації, зокрема відеоконтенту з елементами пропаганди та штучного інтелекту. В Україні Центр протидії дезінформації співпрацює з платформою, інколи виявляючи пропагандистські акаунти та домагаючись їх блокування, однак ці дії мають радше точковий характер. Глобально проблема фейкових відео в TikTok залишається невирішеною. Паралельно Центр разом із Центром стратегічних комунікацій займається спростуванням дезінформації, тоді як значна частина фактчекінгових організацій досі зосереджена переважно на платформах Meta.

Багато маніпулятивних відео вперше з’являються саме в TikTok. За наявності водяного знака можна швидше знайти оригінал ролика на платформі. Для перевірки корисні Google-оператори на кшталт site:tiktok.com, реверсивний пошук зображень, аналіз акаунтів, а також сервіси Archive.org або Wayback Machine, які дозволяють переглянути видалений контент або історію сторінок. 

Водночас варто враховувати, що TikTok персоналізує результати пошуку, тому для отримання повної картини інколи доцільно шукати інформацію з різних пристроїв або облікових записів.

Центр протидії дезінформації також формує списки TikTok-каналів, які системно поширюють пропаганду, і радить звертати увагу на ознаки штучного інтелекту та візуальні або змістові невідповідності у відео. Користувачі можуть скаржитися на підозрілий контент, однак ефективність таких скарг у TikTok залишається низькою. Навіть у Facebook реакція платформи зазвичай швидша. Хоча TikTok формально дотримується правил ЄС, Україна для великих соцмереж не є пріоритетним ринком, тож на вимоги з нашого боку часто реагують повільно. Водночас українське законодавство поступово гармонізують із європейськими стандартами.

Експертка зі штучного інтелекту Юлія Машута зазначає, що TikTok почав активніше боротися з діпфейками, зокрема через автоматичне маркування AI-генерованого або зміненого контенту. Платформа використовує технології виявлення штучного інтелекту, співпрацює з Adobe для масштабування стандартів прозорості та впроваджує інструменти на кшталт C2PA Verify, які дозволяють з’ясувати, де і коли було створено контент. Крім того, TikTok інвестує в медіаграмотність, розробляючи освітні матеріали та партнерські проєкти, зокрема для підлітків.

Читайте також: Як Facebook використовують для поширення фейків: розбір механізмів та поради для мешканців Слов’янська

Водночас на платформі з’являються нові AI-інструменти для креаторів — зміна облич, маски, допомога з текстом. TikTok декларує обов’язкове маркування такого контенту й можливість блокування акаунтів у разі його відсутності, однак на практиці це працює не завжди. Діпфейки часто складно відрізнити від реальних відео, а ситуацію ускладнює те, що штучний інтелект перевіряє контент, створений іншим штучним інтелектом. Освітні відео про розпізнавання фейків поки що не набирають значної аудиторії.

Мета цих ініціатив — навчити користувачів розпізнавати дезінформацію ще до її масового поширення. Для цього важливо аналізувати відео комплексно. Насамперед слід звертати увагу на контекст: джерело інформації, дату й місце події, а також те, хто опублікував відео першим. Не менш важливий і сам візуальний ряд — чи є кадр цілісним, чи змонтованим, наскільки природні рухи губ, тіні, пропорції обличчя та рук, чи немає дивних або нереалістичних деталей. Звукова доріжка також може видати фейк: насторожують невідповідність інтонацій міміці, різкі зміни тембру або акустики.

Окрім технічних ознак, варто ставити запитання про мотивацію: кому вигідне поширення саме такої інтерпретації подій і чому відео з’явилося саме зараз. Як наголошує Юлія Машута, для перевірки будь-якого відео важливо оцінювати чотири компоненти — факт, контекст, джерело та можливу наявність штучного інтелекту. Навіть правдоподібне відео не є автоматичним доказом, адже сучасні технології дозволяють створювати дуже реалістичні імітації голосу, міміки й новинних форматів. Тому слід звертати увагу і на деталі інтерфейсу, логотипи та графічні елементи, які складно точно відтворити у фейковому контенті.

Для глибшого аналізу корисно працювати у два етапи: спочатку зібрати релевантні відео з базовими даними — темою, акаунтом і датою публікації, а потім вибудувати хронологію та виявити повторювані патерни, мережі акаунтів і поширення наративів. У цьому можуть допомогти спеціалізовані інструменти, зокрема Perplexity з браузером Comet або Grok, які дозволяють аналізувати контент безпосередньо в TikTok, сортувати відео за часом і відстежувати еволюцію інформаційних кампаній. Такий підхід дає змогу краще відрізняти реальні події від скоординованих інформаційних операцій і маніпуляцій.

FacebookInstagramTelegramViber - це ваші швидкі доступи до найважливіших новин

Промт для аналізу TikTok-контенту

Роль:
Ти — аналітик з інформаційної безпеки / дослідник дезінформації, який аналізує відеоконтент у TikTok.

Завдання:
На основі заданої теми знайди й проаналізуй TikTok-ролики, які ілюструють або просувають відповідний наратив, та побудуй хронологію їх поширення.

Вхідні дані

Тема для аналізу:
[ОПИС ТЕМИ]
(наприклад: «російська дезінформація про мобілізацію в Україні», «фейки про ЄС і Україну», «маніпуляції навколо ТЦК», «жарти про бухгалтерів і податки» тощо)

КРОК 1. Уточнення теми

Коротко (3–5 речень) сформулюй ядро теми, зокрема:

  • ключові наративи або меседжі;

  • типові формати відео (новинні «репортажі», меми, скетчі, «експертні» пояснення, відео «очевидців»);

  • можливі хештеги;

  • цільову аудиторію (якщо можна визначити).

КРОК 2. Пошукові запити

Згенеруй 8–15 пошукових запитів для TikTok або веб-пошуку з обмеженням site:tiktok.com, використовуючи:

  • ключові слова основною мовою теми;

  • переклади ключових слів (українська / російська / англійська — за потреби);

  • релевантні хештеги (наприклад: #mobilization, #Донеччина, #Словянськ, #Ukraine, #война, #ЕС);

  • комбінації з tiktok, site:tiktok.com.

Подай запити у вигляді маркованого списку.

КРОК 3. Пошук роликів

(Виконуй, якщо маєш доступ до інтернету)

Використай сформовані запити, щоб знайти ролики на tiktok.com.
Відібрай 10–20 відео, які:

  • найбільш точно відповідають темі;

  • демонструють типові наративи, емоційні тригери або маніпулятивні прийоми;

  • є показовими для аналізу (вірусні, повторювані, з характерними ознаками).

КРОК 4. Зведена таблиця роликів

Подай результати у вигляді таблиці з такими колонками:

  • Приблизна назва / короткий опис відео

  • Посилання на ролик

  • Автор / акаунт

  • Мова

  • Дата публікації (за TikTok)

  • Який наратив або аспект теми ілюструє (1–2 речення)

Якщо дата публікації не відображається — зазнач «дата не відображається» або орієнтовний період.

КРОК 5. Хронологія контенту

На основі відібраних роликів:

  1. Відсортуй відео за датою публікації (від найстаріших до найновіших).

  2. Побудуй хронологію хвиль контенту у вигляді нумерованого списку (5–12 пунктів).

  3. Для кожного пункту зазнач:

  • орієнтовний період (місяць / рік);

  • що змінюється в наративах, темах або тональності;

  • які реальні події чи інформаційні приводи могли стати поштовхом (якщо це можна ідентифікувати).

КРОК 6. Висновки

Сформулюй узагальнені висновки (5–8 речень), зокрема:

  • як розвивається або трансформується наратив;

  • чи є ознаки скоординованості або повторюваних патернів;

  • яку емоційну реакцію намагаються викликати ролики;

  • які групи аудиторії можуть бути найбільш уразливими.