15 жовтня

Медіаграмотність у час ШІ: виклики, міжнародний досвід і український контекст

ШІ докорінно змінює медіаландшафт. Алгоритми персоналізації впливають на те, що ми бачимо у своїх стрічках новин і соціальних мережах. Пости, відео, рекламні оголошення формуються на основі наших уподобань та історії пошуку в Інтернеті. Так народжується ефект «інформаційної бульбашки», коли люди все рідше бачать інші погляди, ніж їхні власні. Це зменшує відкритість до різних думок і підсилює поляризацію в суспільстві.

Генеративний контент є ще одним викликом. Сьогодні ШІ здатен створювати тексти, відео, зображення й навіть голоси, які майже неможливо відрізнити від реальних. Технології діпфейків активно використовуються у пропаганді, дискредитації публічних осіб і поширенні дезінформації. Кількість такого контенту зростає шаленими темпами, а швидкість його поширення у цифрових мережах не залишає часу на перевірку фактів.

У цьому контексті медіаграмотність уже не обмежується вмінням перевіряти джерела чи знаходити фейки. Вона передбачає розуміння того, як працюють алгоритми, які ризики несе автоматизація створення контенту, і як технології можуть впливати на наше сприйняття світу.

Міжнародний досвід демонструє, що держави активно шукають баланс між розвитком технологій і захистом суспільства. Європейський Союз першим у світі ухвалив «Акт про штучний інтелект» (AI Act). Документ визначає правила для розробників і користувачів ШІ, вимагаючи прозорості та етичного використання. Компанії, що створюють генеративні моделі, тепер зобов’язані чітко вказувати, якщо контент створено машиною.

Паралельно з правовими кроками ЄС інвестує у розвиток медіаграмотності. Один із прикладів – проєкт «AI-LITERATE», підтриманий програмою Erasmus+, який навчає студентів і викладачів працювати з генеративним ШІ, розпізнавати неправдиві матеріали та дотримуватися етичних принципів. У Фінляндії, яку вважають лідером з медіаграмотності, ШІ інтегрують у навчальні програми шкіл і університетів, акцентуючи на критичному аналізі інформації, створеної алгоритмами.

Свої підходи розвивають і США. Компанії Meta та Google працюють над впровадженням маркування штучно створеного контенту, а також створюють інструменти для виявлення маніпуляцій. Естонія запускає національну програму «AI Leap», яка поєднує освіту, цифрову етику та доступ до інструментів ШІ у школах.

Україна також активно розвиває напрям медіа та цифрової грамотності, поступово вибудовуючи системний підхід до поєднання ШІ й освіти. За даними Міністерства цифрової трансформації, сьогодні 93% дорослого населення України мають цифрові навички, а їхній рівень за останні чотири роки зріс на 13%.

За результатами дослідження Kantar Україна 2024 року, хоча 79% українців знають, що таке штучний інтелект, лише 29% мають досвід користування ним. Понад 40% респондентів зізнаються, що не можуть відрізнити текст, створений ШІ, від людського.

Держава вже зробила низку кроків. Міністерство культури та інформаційної політики затвердило Стратегію розвитку медіаграмотності до 2026 року. У документі окремо наголошується на ролі цифрової безпеки та відповідального користування технологіями. Міністерство цифрової трансформації разом із партнерами розробило «Рекомендації з відповідального використання штучного інтелекту у сфері медіа». Вони передбачають прозорість, чітке позначення контенту, створеного або зміненого алгоритмами, і збереження контролю людини над редакційними рішеннями.

Водночас існують і суттєві виклики. В Україні бракує єдиного законодавства щодо регулювання ШІ у медіа. Цифрова нерівність залишається відчутною, адже мешканці сіл і старше покоління мають нижчий рівень медіа та цифрових компетенцій. Питання етики використання ШІ у журналістиці та освіті також потребує ширшого обговорення.

Попри це, в Україні поступово з’являються ініціативи, що поєднують освіту й технології. Платформа «Дія.Освіта» пропонує курси з цифрової грамотності, зокрема про роботу з даними, інформаційну гігієну та перевірку фактів. Громадські організації, як-от «Детектор медіа» та «Академія української преси», створюють матеріали й тренінги про медіаграмотність у цифровому світі.

Що ж потрібно далі? Насамперед освіта і прозорість. Теми ШІ, алгоритмів і цифрової етики мають стати частиною шкільних і університетських програм. На цьому наголошує UNESCO, яке розробило «Компетенції вчителів у сфері штучного інтелекту» – документ, що допомагає країнам інтегрувати ШІ в освіту та формувати критичне розуміння його роботи й впливу. Саме такі підходи вже успішно реалізують у країнах ЄС, де навчальні заклади вчать молодь не лише користуватися новими технологіями, а й усвідомлювати етичні ризики, пов’язані з ними.

В Україні цей напрям можна підсилити створенням регіональних центрів медіаосвіти, де люди будь-якого віку могли б навчатися розпізнавати фейки, перевіряти факти та розуміти, як працює контент, створений ШІ.

Другий напрям – законодавче регулювання. Європейський. Згідно зі статтею №50 «Акту про штучний інтелект», компанії, які створюють або змінюють контент за допомогою ШІ, зобов’язані маркувати його як штучний. Це має забезпечити прозорість і запобігти маніпуляціям у медіа.

Україна може використати цей досвід і розробити власний закон про етичне та відповідальне використання ШІ, передбачивши правила для медіа, блогерів і платформ, а також посилений захист персональних даних.

Третій напрям – підтримка журналістів. Артур Грімонпонт, керівник відділу глобальних викликів «Репортерів без кордонів» (RSF), підкреслює, що медіа не повинні лише пристосовуватися до ШІ, а мають активно брати участь у дискусії про його регулювання. Він зазначає, що потік дезінформації, створеної за допомогою штучного інтелекту, показав недостатність наявних правил і потребу в чітких гарантіях для журналістики. RSF виступає за те, щоб будь-які стандарти та кодекси щодо ШІ передбачали конкретні механізми захисту достовірної інформації та не дозволяли технологічним компаніям маніпулювати законодавчим процесом і враховували інтереси суспільства.

Позицію RSF поділяє і UNESCO, яке у 2025 році разом із прес-радами країн Південно-Східної Європи та Туреччини ухвалило «Регіональну декларацію про етичне та прозоре використання штучного інтелекту в медіа». У ній наголошується, що журналісти мають не лише перевіряти факти, а й пояснювати аудиторії, як працюють алгоритми, хто стоїть за створенням контенту і як технології можуть впливати на громадську думку.

Штучний інтелект не є ворогом медіа. Це інструмент, який потребує правил, контролю й етичного використання. Якщо навчитися правильно його застосовувати, суспільство зможе відокремлювати правду від маніпуляцій, не губитися в інформаційному шумі й використовувати нові технології на користь, а не на шкоду.

Автор: Анастасія Цвіра, студентка-магістерка Донецького національного університету імені Василя Стуса.