• Головна
  • Instagram і правда: як у сторіз, Reels та публікаціях ховають фейки і маніпуляції
19:08, Вчора

Instagram і правда: як у сторіз, Reels та публікаціях ховають фейки і маніпуляції

СТАТТІ
Дизайн: 6262

Дизайн: 6262

Instagram давно перестав бути лише платформою для красивих фото й особистих історій. Сьогодні ця соцмережа стала одним із найефективніших каналів для поширення маніпуляцій, дезінформації та прихованої пропаганди. Йдеться не про примітивні фейки, а про складні, емоційно упаковані меседжі — через штучних інфлюенсерів, псевдопсихологічні поради, фейкові волонтерські збори та «щирі» особисті зізнання.

Алгоритми просувають контент, що викликає довіру й емпатію: красиві обличчя, естетичні кадри, історії з повсякденного життя. Саме ця атмосфера близькості й безпеки робить платформу ідеальним середовищем для впливу на аудиторію — особливо в умовах війни, емоційної втоми та інформаційного перевантаження.

Meta декларує посилення контролю над AI-контентом і політичними наративами, однак технології швидко знаходять способи обходу обмежень, а мережі маніпулятивних акаунтів зростають швидше, ніж встигають їх блокувати. У результаті користувачі дедалі частіше стикаються з контентом, де межа між правдою, емоцією та навмисним впливом майже непомітна.

Як усе це працює, з'ясовували журналісти Сайту міста Слов’янська 6262.

Meta вводить нові правила, але технології знаходять лазівки

Експертка зі штучного інтелекту Юлія Машута розповідає, що Meta активно працює над контролем маніпуляцій медіаконтентом в Instagram. Компанія офіційно заборонила координовану неавтентичну поведінку, спам та мережеві маніпуляції. У лютому 2024 року з'явилися спеціальні позначки для зображень, створених штучним інтелектом. У 2025 році Meta посилила правила для політичного контенту та запровадила стандарт C2PA.

“Платформа зобов'язує користувачів маркувати контент, створений штучним інтелектом. Якщо хтось завантажує синтетичне зображення без відповідної позначки, спочатку надходить попередження. Після цього можливе блокування облікового запису”, - каже Юлія Машута.

Система виявлення працює через метадані у файлах. Основні генератори зображень, зокрема Gemini, вбудовують їх автоматично. Проте цей захист легко обійти. Достатньо відредагувати зображення, обрізати його або переслати через месенджери Telegram чи Viber. Усі метадані зникають, і фотографію можна завантажувати без жодних позначок.

Дослідники виявили численні заблоковані акаунти, які раніше поширювали AI-контент. Проте блокування не встигає за швидкістю створення нових профілів.

Штучні інфлюенсери стають прибутковим бізнесом

Юлія Машута каже, що понад 1500 профілів штучних блогерів активно працюють у всьому світі. Ці акаунти мають мільйони підписників та заробляють на рекламі. Сучасні технології дозволяють створювати одне обличчя у різних позах, з різним кольором волосся та макіяжем.

“Штучні інфлюенсери працюють за принципом оптимізації взаємодії з алгоритмом Instagram. Для них створюють тисячі варіантів контенту, проводять A/B-тестування та обирають найефективніші публікації. Середній рівень залученості штучних блогерів становить 3,6% — удвічі більше, ніж у справжніх інфлюенсерів”, - пояснює фахівчиня з ШІ. 

Ці акаунти публікують контент безперервно, тому їхні пости частіше потрапляють у стрічки користувачів. Багато підписників не знають, що стежать за штучною особою. У описі профілю може бути зазначено походження блогера, але це не завжди помічають.

Окрема категорія — блогери, які використовують справжні фотографії інших людей, змінюючи лише обличчя. Створюється ефект автентичності: справжня локація, справжні люди навколо, але підроблене обличчя головного героя. 

Російські інформаційні операції змінюють тактику

У Instagram ворожі спецслужби створюють фейкові акаунти українських військових та політиків для поширення дезінформації. Зокрема, створювали підроблені сторінки Головнокомандувача Збройних сил України Олександра Сирського. Ці акаунти швидко блокуються, але на їхнє місце приходять нові.

“Російська інформаційна операція "Doppelganger" побудована навколо мережі сайтів-клонів легітимних медіа. Ці сайти мали акаунти в Instagram. Дослідники зафіксували, що ефективність поширення посилань на Meta-платформах знижується через активне блокування, тому тактика змінилася”, - розповідає Юлія. 

Зараз наративи просувають через реальних людей в інших країнах. Приклад — німецька ексдепутатка з Гамбурга, яка має верифікований акаунт. Вона систематично критикує НАТО, США та підтримку України, поширює російські наративи про корупцію в Україні. Аналіз її акаунта показує фокус на представленні НАТО як агресора, критику санкцій та підтримку позицій, вигідних Росії.

Instagram і правда: як у сторіз, Reels  та публікаціях ховають фейки і маніпуляції, фото-1

Чому Instagram ефективний для маніпуляцій

Фактчекерка та співзасновниця організації StopFake Ольга Юркова зазначає, що основна небезпека полягає в тому, що в Instagram працюють непрямі методи впливу, а не відверті фейки. Платформа створює відчуття емоційної близькості. Користувачі підписані на знайомих інфлюенсерів, до яких звикли та довіряють: навіть якщо людина один раз бачила чиєсь ім'я або обличчя, вона вже більше довіряє цій особі. В Instagram користувачі взаємодіють з контентом людей, які стають майже членами родини.

FacebookInstagramTelegramViber - це ваші швидкі доступи до найважливіших новин

Instagram є особистісно-орієнтованою мережею про приватне життя та особисті історії. Це підсилює емоційну прив'язаність. Естетичний момент також відіграє роль — через красивий контент користувачі сприймають платформу як простір довіри. Професійно зроблений контент з'являється регулярно, що створює враження надійності.

На платформі встановлюються тривалі емоційні контакти. Саме це робить її небезпечною для розповсюдження пропагандистських або дезінформаційних меседжів, запакованих у особистісний контент.

“Після обстрілу дитячої лікарні Охматдит багато інфлюенсерок, зокрема інстамам, синхронно почали писати про необхідність завершення війни та небажання жертв. Це були типові російські наративи про погодження на умови Путіна, хоча подані в м'якій формі”, - наводить приклад Ольга. 

Детектор медіа провів аналіз цієї ситуації. Йшлося про молодих мам, яких ніколи не сприймали як тих, хто може поширювати такий контент. Вони м'яко говорили про жаль щодо загиблих дітей і необхідність миру. Позитивні меседжі насправді несли проросійське навантаження.

Хоча блогерки не казали вголос про капітуляцію перед Путіним, продовження логіки "погоджуватися на мир" створює враження, що саме Україна не хоче миру. Насправді країна захищається.

“Найімовірніше, це була звичайна рекламна колаборація — блогеркам заплатили за певний меседж. Можливо, що хтось один це сказав, контент "зайшов" аудиторії, і інші підхопили наратив добровільно, без оплати. Блогери відстежують, який контент цікавить аудиторію, бачать хайп та обговорення і теж його поширюють”, - розмірковує фактчекерка. 

Небезпечні формати в Instagram

Формат Reels небезпечний тим, що там часто поширюються фейкові відео, згенеровані штучним інтелектом. Вони не виглядають як новини чи політика — це життєві історії, які не сприймаються як маніпуляції.

Як приклад - сюжет начебто з каналу 1+1, де ведуча з брендованим мікрофоном питає у групи чоловіків східної зовнішності, чому вони приїхали працювати в Україну, щоб підтримати нашу економіку. На що ті весело відповідають, що приїхали не на роботу, а для інтимних зустрічей з українками! Й гуртом сміються. На це ведуча, підігруючи, зазначає, що в Україні - багато вільних дівчат. 

Цей сюжет є дискримінуючим, бо відтворює одразу кілька принизливих стереотипів: щодо чоловіків «східної зовнішності», яких подають як аморальних і цинічних, та щодо українських жінок, яких зводять до сексуального об’єкта. Використання стилістики реального медіа створює ілюзію легітимності й нормалізує сексизм та ксенофобію як «жарт». У підсумку такий контент не просто ображає окремі групи, а формує токсичні уявлення про українське суспільство загалом і підриває довіру до медіа.

Відео, без сумніву, згенероване за допомогою ШІ. На ньому періодично вискакує емблема SORA - сервісу, який генерує відео та фотоконтент. Самі ж кадри періодично розмиваються у різних місцях.

Instagram і правда: як у сторіз, Reels  та публікаціях ховають фейки і маніпуляції, фото-2

Типові формати: людина випадково побачила щось на вулиці, знайомий військовий розповів щось страшне про армію, психологічний розбір подій або "правда, яку не покажуть у новинах". Це той самий феномен, що працює в TikTok — знайомі блогери репостять рілси, які їх нібито зацікавили.

В Instagram також поширений формат Reels плюс довгий текст. У рілсі показують щось розважальне, а текст містить основну інформацію з необхідним меседжем. Такі тексти можуть бути згенеровані штучним інтелектом.

Тексти, створені ШІ, мають типові ознаки. Часто з'являються повтори, улюблена конструкція — протиставлення "не щось, а щось". Одна думка повторюється тричі, зазвичай наприкінці тексту. Наводяться три ознаки чогось через кому.

Такі тексти порожні за змістом, але великі за обсягом. Дослідження доводять, що люди більше довіряють довшим текстам і сприймають їх як переконливі. Це інструмент переконання та маніпуляції.

У текстах немає фактів, які можна перевірити. Використовуються розмиті формулювання: "всі знають", "всі говорять про це", "зараз всі говорять". Апеляція йде до емоцій — обурення, жах. Блогерки часто плачуть у роликах, роблячи їх дуже емоційними. Коментарі під такими текстами модеруються — критичні видаляються, залишаються тільки ті, що підтримують спікерів.

Маніпулятивний фотоконтент не обов'язково підроблений. Це можуть бути фото з іншого місця чи країни — наприклад, кадри з війни в Сирії, видані за фото з війни в Україні.

Використовуються постановочні сцени, емоційні кадри без контексту. Людина говорить щось про мобілізацію чи владу, показуючи на тлі кадри, які не мають стосунку до теми, але створюють емоційний фон. Це можуть бути чорно-білі зображення війни, страшні речі або фото кількарічної давнини, подані як знято сьогодні.

Один із нещодавніх прикладів - двоє чоловіків у військовій формі, на фоні білого бусика з написом ТЦК, розмовляють про війну. Один питає в іншого, чи він воював? На що той відвів: “Так, воював. Був у Львівському котлі - тяжкі бої за гуманітарку”. Обоє починаються сміятися. З розпізнавальних шевронів у них - прапор України та тризуб. Один із чоловіків одягнутий у бронежилет, збоку висить щось схоже на каску - проте деформоване. 

Такі відео навмисно створюють карикатурний, зневажливий образ військовослужбовців ТЦК, висміюючи їх і приписуючи їм абсурдні або вигадані «бойові історії». Це підриває довіру до інституції, формує уявлення про ТЦК як про несправжніх військових і знецінює реальний бойовий досвід захисників. У результаті контент працює як інструмент дискредитації та інформаційної маніпуляції.

Instagram і правда: як у сторіз, Reels  та публікаціях ховають фейки і маніпуляції, фото-3

“Інколи потрібні меседжі накладаються на дуже естетичний, красивий контент. Красива дівчина в гарному кафе з хорошим макіяжем говорить пропагандистські речі. Краса та естетика знижують критичність через симпатію. Нобелівський лауреат Даніель Каннеман у книзі "Мислення швидке і повільне" описав багато хиб людського сприйняття. Одна з них — люди більше довіряють тим, хто красивий зовні. Зовнішня краса викликає емпатію, довіру, знижує критичність і створює відчуття правдивості та щирості”, – пояснює Ольга. 

Псевдопсихологічний контент

В Instagram популярний псевдопсихологічний контент. Багато людей, які в кращому випадку закінчили курси психології, а в гіршому — взагалі нічого, вміють гарно подати інформацію та грати на емоціях.

Приклади маніпуляцій: "як психолог, я бачу, що вам нав'язують травму", "вам нав'язують обов'язок підтримувати армію, але якщо важко — ви не повинні", "думайте про себе насамперед, а не про нав'язані обов'язки". Це звучить гуманно, але часто підміняє воєнну реальність, протиставляючи її індивідуальній психологічній безпеці.

Під час війни всі перебувають у стресі. Небезпечно те, що такий контент розчиняє відповідальність, не цінує захист країни, колективні зусилля та підтримку армії. Добру річ подають як токсичний дискурс, який впливає на психіку.

Читайте також: Як Facebook використовують для поширення фейків: розбір механізмів та поради для мешканців Слов’янська

Політика під маскою

Політика в Instagram замаскована — рідко відкрито агітують за когось чи проти когось. Натомість м'яко просувають певні меседжі через історії, відчуття, лайфстайл-контент. Це може дискредитувати інституції через життєві історії про відвідування державних установ або розповіді про загиблих військових з висновком "треба мир, домовляймося".

Такий підхід нормалізує ідею капітуляції, хоча її не називають прямо. Це подається через жалісливі життєві історії. Поширюється наратив втоми від війни — людина хоче жити своїм життям, не брати участі у війні, хоче швидкого завершення.

Фейкові волонтерські збори

Багато фейкових сторінок використовують фото дітей — реальні або згенеровані — для збору коштів. Часто за цим стоять псевдоволонтери з вигаданими чи сумнівними назвами організацій. Тому важливо перевіряти фонди: шукати першоджерело збору, гуглити організацію, звертати увагу на репутацію.

Такий контент нерідко поширюють звичайні люди — друзі чи знайомі, які щиро повірили історії й стали жертвами маніпуляції. Підозру мають викликати збори без підтверджень: без імен, документів, назви лікарні, звітів, конкретного переліку потреб — лише емоційні фото й тексти.

“Окрема ознака фейків — маніпуляція терміновістю: «потрібно вже сьогодні», «остання можливість», «бракує зовсім трохи». Такі «термінові» збори можуть повторюватися роками, змінюються лише рахунки. Насторожують також новостворені акаунти, закриті коментарі, відсутність звітів, різка зміна тематики сторінки, а також відео, які легко можуть бути згенеровані ШІ”, - каже Ольга Юркова. 

Навіть лідери думок іноді поширюють фейки, і люди жертвують гроші через довіру до них. Це підриває віру до волонтерства загалом. Висновок простий: допомагати потрібно, але лише перевіреним і надійним фондам або людям, яким справді довіряєте.

Психологія поділу на своїх і чужих

Іноді у ворожому контенті маніпулятори використовують еволюційне заточення людей ділити світ на своїх і чужих. Колись це забезпечувало виживання — треба було розрізняти своє плем'я від чужого, а сьогодні — можуть використовувати для розхитування суспільства. 

Після Другої світової американські психологи проводили експерименти. У відомому дослідженні взяли дві групи дітей одного віку та соціального статусу з благополучних сімей, поселили в дитячому таборі. Створили дві команди, щоб подивитися, чи почнуть вони ворогувати.

Планували організувати конкурси для конкуренції, але щойно дітей поділили на групи, вони одразу почали ворогувати. Кожна група придумала назви, прапори, символіку. Діти конкурували, дійшло майже до бійок.

Потім групи об'єднали через зовнішню проблему — зламався водогін, треба було ремонтувати. Діти об'єдналися та працювали разом. Зовнішня проблема об'єднує, а поділ на групи завжди роз'єднує.

Експеримент повторювали багато разів з різними віковими категоріями. Завжди підтверджувалося: поділ за будь-якою випадковою ознакою поляризує. 

Це глибинна властивість — ділити світ на своїх і чужих, надавати перевагу своїм і конкурувати з чужими. Це використовується для маніпуляцій. Може бути свідомою роботою або способом накрутити аудиторію — чим більше коментарів, тим більше людей бачать допис. 

Під такими дописами працюють ботоферми. Росія активно моніторить український інформаційний простір, дивиться на больові точки та конкретні новинні приводи. Будь-який шанс поглибити розкол або створити поляризацію ботоферми використовують. Вони автоматично реагують на певні слова, пишуть коментарі. Інколи видно, що вони згенеровані, але часто важко розрізнити.

Коментарі спроектовані провокувати максимальну емоційність. Багато звичайних людей, не читаючи всього, підключаються до розмови та реагують. Це можуть бути знайомі, друзі — критично мислячі люди з інших тем, але певна тема зачіпає їх так, що критичне мислення не включається, включається емоція.

Читайте також: Як Telegram-канали грають на руку російській пропаганді і про що ми не здогадуємось, гортаючи стрічку

Особливості впливу на прифронтові регіони

Люди, які живуть у прифронтових регіонах, є особливо вразливою аудиторією, адже війна там фізично ближча, а рівень постійного стресу значно вищий. У таких умовах люди стають емоційнішими, а значна частина когнітивного ресурсу витрачається не на критичне мислення, а на виживання: потрібно постійно стежити за безпекою, бойовими діями, вирішувати побутові проблеми, фільтрувати потік новин. 

Це не означає погіршення розумових здібностей — просто обмежений ресурс іде на страх і контроль ситуації, а його вже не вистачає на глибокий аналіз контенту в соцмережах. 

Страх як базова захисна емоція у надмірі та за умов штучного підживлення робить людей особливо вразливими до маніпуляцій. Саме на цьому ґрунті поширюються наративи про «самообстріли», «примусове вивезення дітей», протиставлення мешканців прифронтових територій іншим регіонам, історії про нібито злочини ЗСУ, корупцію, конкретних «винних» осіб, які буцімто грабують або знущаються з місцевих. 

Ці маніпуляції часто дуже точкові й спрямовані саме на цю аудиторію, де на тлі постійної загрози критичне мислення падає. У результаті дискредитується все українське — влада, військові, адміністрації, навіть тоді, коли окремі проблеми справді існують, вони навмисно узагальнюються, щоб сформувати недовіру до держави загалом і нав’язати думку, що «може, з росіянами буде не так погано». Звідси й небезпечний наратив «яка різниця, хто буде, аби не стріляли», де присутність українських військових підміняється причиною руйнувань — «через вас нас обстрілюють». 

Насправді ж підмінюються причинно-наслідкові зв’язки: українська армія не є причиною війни, вона захищає, а її відхід означає лише одне — прихід російських військ, початок репресій і знищення всього українського.

Як взаємодіяти з підозрілим контентом і не потрапити під маніпуляції в Instagram. 

Якщо ви бачите підозрілий контент, краще поскаржитися на нього, а не взаємодіяти з ним. Для алгоритмів немає значення, що саме ви пишете: навіть критичний коментар або зауваження про маніпуляцію все одно підсилює поширення допису і показує його у стрічках ваших друзів. Саме тому не рекомендується ні коментувати, ні лайкати, ні репостити контент, якщо є хоча б найменша підозра. Часто маніпулятивна інформація з’являється у стрічці саме тому, що її лайкнули або прокоментували знайомі, і людина може навіть не розуміти, чому бачить цей допис. 

Окремо варто пам’ятати про рекламний контент: у нього вкладають кошти, щоб донести меседж до конкретної цільової аудиторії, і якщо вас віднесли до неї, інформацію підбиратимуть так, щоб емоційно зачепити. У момент сильної емоційної реакції важливо зупинитися, зробити паузу і поставити собі запитання — що це за інформація, звідки вона взялася, хто і з якою метою її поширює та чому саме мене це так зачепило. 

Сильна емоція часто є ознакою таргетованої маніпуляції й сигналом уважніше проаналізувати побачене, особливо якщо виникає бажання поширити або відреагувати, — пояснює Ольга Юркова. Те саме стосується волонтерських зборів: варто довіряти лише тим людям і фондам, яких ви добре знаєте, яким довіряєте роками, де бачите прозорість, звітність і реальні результати. 

Не слід сприймати Instagram як нейтральний простір — це зона впливу, де довіра вибудовується повільно, але діє дуже ефективно. Тут рідко трапляються відверті, кричущі фейки, натомість поширюються тонкі меседжі, запаковані в особисті історії, турботу інфлюенсерів або красиві картинки, за якими можуть ховатися маніпуляції, тому важливо зберігати критичне мислення навіть тоді, коли контент виглядає щирим, емоційним і «дуже людяним». 

"Для перевірки підозрілого контенту також можна використовувати AI-інструменти: Perplexity AI дозволяє швидко проаналізувати всі пости профілю, визначити основні теми, виявити проросійські наративи та оцінити рівень маніпулятивності контенту; Grok ефективно працює з соціальними мережами, заходить на сторінки, збирає посилання, читає контент та надає аналіз; ChatGPT може аналізувати скріншоти постів, відео, текст, хештеги й метадані, формуючи висновок про достовірність інформації", — зазначає експертка з ШІ Юлія Машута.

Водночас для перевірки AI-зображень поки що залишається єдиний надійний спосіб — власна уважність: варто звертати увагу на симетричність обличчя, однаковість сережок, проблеми з вухами, очима та іншими деталями, адже професійні сервіси перевірки фотографій дорогі та малодоступні. 

Instagram дедалі більше перетворюється на платформу, де розрізнити правду й фейк стає складніше: генеративний AI знизив вартість виробництва фейкового контенту, а відсутність вимог до джерел і швидке споживання інформації створюють ідеальне середовище для поширення маніпуляцій.

Читайте також: TikTok і війна: як відеофейки створюють ілюзію реальності

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію
#Instagram #фейки #маніпуляції #дезінформація #пропаганда #штучний інтелект #AI-контент #Reels #сторіз #інфлюенсери #Meta #волонтерські збори #StopFake #інформаційна безпека
0,0
Оцініть першим
Авторизуйтесь, щоб оцінити
Авторизуйтесь, щоб оцінити

Коментарі

Оголошення