25 Лютого 2026 14:36 Валерій Гайдаржи
За останні два роки штучний інтелект перестав бути темою наукової фантастики та став частиною повсякденного життя. Програми вже допомагають людям обробляти фото, озвучувати відео та аналізувати великі обсяги інформації. Водночас поряд із новими можливостями виникли й нові виклики: ті самі інструменти можуть використовувати для поширення недостовірної інформації та маніпуляцій.
Розвиток штучного інтелекту відбувається настільки швидко, що багато змін люди навіть не встигають помітити. Те, що раніше вимагало спеціалістів і дорогого обладнання, тепер доступне звичайному користувачу в кілька кліків. У соцмережах дедалі частіше з’являється контент, створений програмами — від зображень до відео з «живими» обличчями. Через це підроблені матеріали легко потрапляють у стрічки, а межа між реальністю та імітацією розмивається. У цій реальності перевірка фактів стає ключовою навичкою для кожного користувача соцмереж.
Що таке штучний інтелект і як він працює
Перші дослідження у сфері штучного інтелекту розпочалися ще у 1950-х роках, однак тривалий час технології залишалися переважно науковими експериментами. Хоча ідея нейронних мереж виникла ще у 1940-х, справжній прорив стався у 2010-х роках: завдяки потужнішим комп’ютерам, великим обсягам даних і новим алгоритмам глибоке навчання стало практично застосовним. Відтоді нейронні мережі, здатні аналізувати тексти, зображення та звуки й знаходити в них закономірності, стали основою для частини сучасних технологій ШІ.
Розвиток штучного інтелекту особливо помітно прискорився в останні два роки. За цей час з’явилися програми у відкритому доступі, за допомогою яких користувачі можуть створювати тексти, зображення та аудіо. Деякі з них працюють прямо в браузері або на смартфоні й не потребують спеціальних навичок. Частина сервісів доступна безкоштовно, а частина працює за передплатою. Такі інструменти можна застосовувати в різних сферах діяльності, однак важливо робити це відповідально та з дотриманням етичних норм.
Разом із новими можливостями з’явилися й нові ризики. Згенеровані матеріали інколи вже виглядають настільки реалістично, що без додаткової перевірки їх складно відрізнити від справжніх. У соціальних мережах дедалі частіше трапляються відео, де люди нібито ведуть блоги або роблять заяви, хоча насправді цієї людини може не існувати. Так само можна підробити голос або створити фото події, якої ніколи не було. Подібний контент швидко поширюється, адже викликає емоції та довіру, і саме тому створює нові виклики для інформаційної безпеки, ускладнюючи відрізнення правдивої інформації від вигаданої.
Штучний інтелект як інструмент інформаційного впливу
Одним із найпомітніших способів зловживання штучним інтелектом стало створення так званих «діпфейків». Це зображення або відео, у яких за допомогою алгоритмів змінюють обличчя чи голос людини так, що здається, ніби вона справді щось говорить або робить. Такі матеріали використовують, щоб ввести людей в оману, зіпсувати репутацію або вплинути на громадські настрої.
Подібні випадки вже фіксували українські фактчекери. Зокрема, у російських Telegram-каналах поширювали відео, де віцепрем’єрка Ольга Стефанішина нібито заявляла про заборону виїзду жінок за кордон. Центр протидії дезінформації встановив, що ролик був створений за допомогою технології deepfake.
Окрім підроблених відео, штучний інтелект застосовують і для створення великої кількості однотипних повідомлень у мережі. Спеціально створені сторінки або боти публікують схожі коментарі під новинами та дописами, формуючи враження, що певну позицію підтримує багато людей. Користувачі, бачачи повторювані твердження, можуть сприймати їх як реальну громадську думку, хоча насправді такі тексти часто генеруються автоматично і є частиною інформаційного впливу.
Для демонстрації можливих прикладів ми згенерували зображення за допомогою штучного інтелекту. Воно імітує ситуацію, яку користувачі могли б сприйняти як реальну подію та активно поширювати у соцмережах. Подібні фото часто супроводжуються тривожними підписами на кшталт «щось сталося» або «надзвичайна ситуація в місті». Насправді ж навіть реалістичний вигляд не є доказом достовірності.
Обізнаність аудиторії щодо ШІ
Щоб зрозуміти, наскільки тема штучного інтелекту знайома нашим читачам, ми провели опитування у власних соціальних мережах Instagram та Telegram та об’єднали відповіді, щоб отримати загальну картину. Це дослідження не претендує на повне відображення ситуації на півдні Одещини, однак дозволяє побачити окремі тенденції серед активної інтернет-аудиторії. Учасникам поставили три запитання щодо використання та можливостей ШІ.
Результати показали, що штучний інтелект уже став звичним явищем для значної частини аудиторії: більшість опитаних добре розуміє, що це таке, а понад половина регулярно користується відповідними сервісами. Також переважна частина респондентів знає, що ШІ здатний створювати реалістичні зображення та відео, однак частина користувачів має лише поверхове уявлення про принципи його роботи.
Навіть за такої обізнаності користувачі не завжди можуть швидко розпізнати підроблений контент. У соціальних мережах і месенджерах подібні матеріали часто сприймаються як достовірні, особливо коли їх поширюють знайомі або локальні онлайн-спільноти. Це свідчить, що навички критичного сприйняття інформації не завжди встигають за розвитком технологій і тема медіаграмотності залишається актуальною.
Прості правила інформаційної безпеки
Передусім варто звертати увагу на джерело інформації. Якщо повідомлення поширюється лише в одному Telegram-каналі, чаті або приходить як переслане без посилання на офіційне джерело, до нього слід ставитися обережно. Надійні повідомлення зазвичай можна знайти на сайтах органів влади, служб або перевірених медіа. Якщо новина виглядає сенсаційною, але більше ніде не підтверджується, це привід перевірити її додатково.
Другий крок — оцінити сам матеріал. У відео, створених або змінених за допомогою ШІ, інколи помітні неприродні рухи губ, дивна міміка, нерівний темп мовлення або невідповідність голосу якості зображення. На фото можуть траплятися дрібні деталі, які не узгоджуються між собою: нечіткі написи, викривлені руки, однакові обличчя або занадто «ідеальне» освітлення. Також варто звертати увагу на текст повідомлення: маніпулятивні публікації часто містять емоційні формулювання, заклики «терміново поширити» або намагаються викликати страх і обурення.
Нарешті, важливо не поспішати з пересиланням. Якщо інформація викликає сильні емоції — паніку, тривогу або гнів,то її варто перевірити перед тим, як поширювати далі. Найпростіший спосіб — пошукати новину в кількох незалежних джерелах або на офіційних сторінках установ. Звичка робити паузу перед публікацією чи пересиланням допомагає зменшити поширення фейків і захищає як самого користувача, так і його оточення від дезінформації.
Отже, штучний інтелект є насамперед інструментом, а його вплив визначається тим, як саме люди його використовують. Уже сьогодні його застосовують у багатьох сферах роботи та повсякденного життя. Чим краще користувачі розуміють принципи роботи цифрових технологій, тим складніше ними маніпулювати. Уміння перевіряти джерела, не поширювати неперевірені повідомлення та критично оцінювати побачене допомагає зменшити вплив фейків. В умовах сучасного інформаційного простору уважність і відповідальність користувачів залишаються одним із найнадійніших способів захисту незалежно від того, створений контент людиною чи штучним інтелектом.
Відкриваємо українську Бессарабію Новини Протидія дезінформації Україна





