21 December 2024, 19:55 Житомир: °C
Оксана Трокоз
регіональна представниця Інституту масової інформації у Житомирській області

Нейромережі в житомирській журналістиці: інструмент чи виклик?

Використання штучного інтелекту дозволяє журналістам автоматизувати рутинні процеси, допомогти в аналізі великих масивів даних, адаптувати контент відповідно до вподобань цільової аудиторії, а також перевіряти контент на наявність помилок.

Але попри велику кількість переваг використання генеративного ШІ несе певні загрози, включаючи ризики порушення авторських прав, поширення дезінформації і створення дискримінаційного контенту, крім того використання ШІ зменшує попит на унікальні вміння митців, оскільки спрощує процес створення контенту для широкого кола користувачів.

Наприкінці січня 2024 року Мінцифри разом з партнерами та профільними експертами розробила та оприлюднила рекомендації з відповідального використання штучного інтелекту в медіа.

Над документом працювала команда Мінцифри у співпраці з ГО «Лабораторія цифрової безпеки», а також представниками Експертного комітету з питань розвитку штучного інтелекту, профільних державних органів та громадських організацій.

Документ окреслює основні засади та принципи використання нейромереж, серед яких — прозорість використання систем ШІ, чітке розмежування авторського та згенерованого нейромережею контенту, пріоритет людського фактора під час створення матеріалів.

В документі пояснюється, як медіа повинні співпрацювати з системами штучного інтелекту, щоб уникнути ризиків. Розробники наголошують, що AI — це все ж інструмент у руках людини, який має свої недоліки, і наводять чітку інструкцію, на що варто звертати увагу при виборі системи ШІ для роботи, а також як можна оцінити згенерований контент на етичність та правдивість.

Досвід журналістів Житомирської області

Ми запитали у представників ЗМІ Житомирської області, наскільки часто вони використовують нейромережі у своїй роботі і якими принципами керуються. В опитуванні взяли участь редактори як великих, так і дуже локальних медіа.


Дмитро Клименко, головний редактор Житомирської філії Суспільного (м. Житомир)

Суспільне Житомир у своїй роботі використовує певні сервіси штучного інтелекту, зокрема ми використовуємо сервіси для розшифровки відео у текстовий формат. На сьогодні у нас затверджені принципи використання штучного інтелекту для всіх структур Суспільного Мовлення і ми використовуємо штучний інтелект виключно в рамках цих принципів.

Коли ми розшифровуємо відео за допомогою штучного інтелекту, в обов'язковому порядку, редактор і автор відеоматеріалу, перевіряють і вичитують повністю матеріал розшифрований штучним інтелектом. І в роботі, яку ми потім оприлюднюємо, в матеріалі, ми зазначаємо, що цей матеріал був розшифрований з відеоформату в текстовий формат за допомогою штучного інтелекту.

Марина Кондратюк, головна редакторка інтернет-видання «Твій Романів»
(с-ще Романів)

Я не використовую.вважаю, що справжня журналістика не може бути пов'язана з ШІ. Адже журналіст має бути переконаним на 300% у кожному слові, зображені, тощо. Вміти бачити контекст, загальну картину ситуації , весь комплекс обставин. Значно простіше і швидше зробити роботу самій, ніж перевіряти все написане ШІ. Та й для саморозвитку краще працювати самому, дізнаватися, вивчати, ніж покладати обов'язки на ШІ.


Інна Попова, головна редакторка газети «Лесин край» і сайту Новоград.City
(м. Звягель)

Для генерування картинок ШІ – просто незамінна штука, бо часто знайти ілюстрацію до тексту - ще той квест. А так, завантажуєш текст і отримуєш картинку. Це реально виручає.




Тамара Коваль, головна редакторка інтернет-видання Житомир.інфо
(м. Житомир)

Спеціальних редакційних у нас правил немає, іноді на заставку беремо згенеровані ШІ картинки (без людей). Іноді використовуємо програми з ШІ для розшифровки інтерв'ю, але треба бути уважними – я особисто під час останнього використання помітила дописане речення, яке людина точно не говорила, але програма вирішила, що воно по змісту підійде.

Михайло Мельник, редактор газети «Народна Трибуна»
(с-ще Ємільчине)

У нашій редакції працівники "60+" не користуються ШІ. Але цей сервіс стає все необхіднішим у роботі. Нам, наприклад, допоміг у формуванні однієї із заявок на проєкт: генерував ідеї активностей. Часто використовуємо для "придумування" заголовків, підписів під фото, роботи з текстами (на грамотність). Відчуваю, що експлуатуємо ШІ дуже мало, треба вчитись. Про рекомендації чули, але ШІ мало використовуємо, тож до них і не звертаємось. Відтак і редакційні правила поки не сформульовано.


Діана Мінаєва, головна редакторка інтернет-видання «Times.zt»
(м. Житомир)

Звісно, ми користуємося в роботі ШІ. Але досить обмежено. Іноді генеруємо фото, але рідко, надаємо перевагу «живим». Хороша штука для переписування нудних релізів, але текст доводиться редагувати. Загалом він не надто добре знає українську, часто бреше. Тож про генерування там якогось контенту мова не йде. Але як допоміжний інструмент – цілком ок. Наприклад допоможе з заголовками до конкретного тексту. Заголовки в нього не дуже, але в якості ідей виручають. Допомагає в створенні якихось замальовок, нейтральних текстів, типу про природу, погоду і т. д. Тексти погані і не дуже грамотні, але, знову ж таки, в якості ідеї можна щось використовувати. Звісно, довідкова інформація, технології, він підкаже. Але не варто питати про якісь історичні події і тим більше просити про новинний контент – набреше. Тож, думаю, заяви про те, що ШІ замінить живих людей, поки дещо перебільшені. Хіба що наші читачі зовсім перестануть читати та думати.

ШІ та фейки

Отже, журналісти Житомирської області не надто активно використовують ШІ, віддаючи перевагу «людському» контенту. Зважаючи на скарги журналістів щодо точності генерованої інформації, ми вирішили з’ясувати, чи може використання ШІ стати причиною масового поширення неправдивої інформації.

Старша аналітикиня фактчекінгового проєкту VoxCheck Єлизавета Чеховська зазначила, що наразі їй невідомі випадки, коли використання ШІ в професійній журналістиці сприяло масовому поширенню фейків.

«Якщо ж ми говоримо про псевдожурналістику, як-от про створення видань для навмисного поширення дезінформації, ситуація інакша. Згідно з даними NewsGuard, організації, що відстежує дезінформацію, у 2024 році значно збільшилась кількість вебсайтів, на яких розміщені неправдиві матеріали, створені за допомогою ШІ – якщо у 2023 році організація виявила 49 таких сайтів, то цього року їх уже 794. При цьому дезінформація, яку поширюють на подібних сторінках, націлена на різні країни та часто є частиною пропаганди авторитарних держав, як-от росії або Китаю», - зазначила Єлизавета Чеховська. Водночас фахівчиня розповіла про використання ШІ в боротьбі з дезінформацією.

«Уже існують інструменти, які використовують штучний інтелект для виявлення фейкових новин, відредагованого контенту (до прикладу, зображення та відео), а також контенту, створеного за допомогою ШІ. Однак штучний інтелект досі не настільки ж вправний у цьому, як люди – після отримання вердикту від ШІ у більшості випадків потрібна додаткова перевірка людиною, аби визначити, чи результат аналізу є правдивим», - зазначила Єлизавета Чеховська.

Правові аспекти використання ШІ

Як ми вже зазначали, журналістам варто маркувати згенеровану нейромережею інформацію, попереджаючи свою аудиторію, що контент створений не людиною. Але у випадку поширення плагіату або недостовірної інформації медіа нестиме відповідальність навіть, якщо матеріал промаркований, оскільки той же чат-бот не є суб'єктом права.

Медіаюрист Роман Головенко застерігає: якщо якимось чином вийшло, що такий згенерований текст поширює інша особа, то в неї теж виникає ризик відповісти за зміст такого тексту, адже, за Цивільним кодексом України, «фізична особа, яка поширює інформацію, зобов'язана переконатися в її достовірності» (ч. 2 ст. 302).

«Поки що я не бачив якихось серйозних претензій від авторів щодо плагіату їхніх текстів у результатах, згенерованих ШІ, які б висувалися до тих, хто скористався штучним інтелектом, хоча були претензії до самого факту використання авторських текстів для створення ШІ вже свого продукту. Коли він генерує текст, то бере найпоширеніший чи один з найпоширеніших наративів щодо заданого питання, тобто в цих результатах немає унікальності, а отже й не можна вести мову про порушення авторського права. Проте треба бути обережним, коли ШІ дається завдання знайти, обробити й сформулювати якусь унікальну, рідкісну інформацію (напр., про якесь маленьке село в інтернеті є інформація лише в одному джерелі). В таких випадках я б результат роботи ШІ перевіряв на плагіат. Претензії (в т.ч. через суд) можуть бути висунуті як тому, хто створив конкретний ШІ (тобто механізм, який можливо видав сплагіачений текст чи недостовірну інформацію про когось), так і користувачеві тому, хто поширив текстовий результат роботи ШІ, до якого є претензії з т.з. авторського права чи достовірності. Тому на достовірність згенерований ШІ текст я би перевіряв завжди (хіба би в ньому не було жодних фактів й самі оцінкові судження). Оскільки текст то створюється ШІ, але розповсюджує його для аудиторії конкретний журналіст і медіа, це завжди їхнє рішення і завжди їхня відповідальність – яку інформацію поширювати. Тому тут не можна перекласти відповідальність за недостовірність поширеної інформації на ШІ», – зазначив Роман Головенко.

Отже, підбиваючи підсумки, можна сказати, що житомирські медійники не використовують нейромережі у повній мірі, надаючи перевагу матеріалам, створеним або опрацьованим людьми. Втім, навіть в такому разі, варто дослухатися до порад медіаекспертів щодо використання штучного інтелекту: оцінювати ризики, відповідально ставитися до згенерованого контенту та маркувати тексти та ілюстрації, створені штучним інтелектом.

Оксана Трокоз, представниця Інституту масової інформації у Житомирській області

Написання цього блогу стало можливим завдяки підтримці американського народу, що була надана через проект USAID «Медійна програма в Україні», який виконується міжнародною організацією Internews. Зміст матеріалів є виключно відповідальністю ГО “Інститут масової інформації” та необов’язково відображає точку зору USAID, уряду США та Internews.