Регуляторний орган з питань медіа Ірландії оприлюднив звіт «Covidcheck» щодо протидії дезінформації, пов’язаної з Covid-19 - Національна рада України з питань телебачення і радіомовлення

Регуляторний орган з питань медіа Ірландії оприлюднив звіт «Covidcheck» щодо протидії дезінформації, пов’язаної з Covid-19

Регуляторний орган з питань медіа Ірландії (BAI) опублікував звіт «Covidcheck», що містить аналіз діяльності онлайн платформ в рамках протидії дезінформації щодо Covid-19.

Дослідження було здійснене Інститутом майбутніх медіа, демократії та суспільства (FuJo) Дублінського університету (DCU) на замовлення BAI і є частиною моніторингу дотримання платформами вимог положень Кодексу ЄС щодо протидії дезінформації в Ірландії.

У «Covidcheck» представлено аналіз звітів щодо прозорості діяльності онлайн-платформ (Facebook, Google, Microsoft, Mozilla, TikTok, Twitter) у рамках протидії дезінформації щодо Covid-19.

Загалом було проаналізовано 47 звітів, поданих у період з серпня 2020 року по квітень 2021 року. Аналіз передбачав немеханічне кодування для ідентифікації окремих заходів та автоматичний текстовий аналіз для визначення тематики та закономірностей заходів. Окрім того, у звіті представлено результати тематичних досліджень, присвячених вивченню запровадження політики щодо Covid-19 у Facebook та TikTok, прозорість у діяльності підписантів Кодексу щодо використання штучного інтелекту та автоматизації.

За результатами аналізу 47 звітів було виявлено 1114 окремих заходів. Google повідомив про найбільшу кількість – 387 заходів. Про найменшу кількість – 87 – повідомив TikTok.

Тільки 32% із 1114 заходів були новими ініціативами, що вказує на те, що у звітах повідомлялося про старі ініціативи, але з оновленими даними та інформацією. Більшість представлених заходів (58%) Facebook стосувалися нових ініціатив, тоді як тільки 12% представлених заходів Google були новими.

Четверта частина всіх заходів полягала у просуванні авторитетного контенту, такого як посилання на інформацію Всесвітньої організації охорони здоров’я (ВООЗ) або національних органів охорони здоров’я. Наступними за поширеністю були заходи щодо реакції на рекламу (17%), блокування, видалення, зниження пріоритетності контенту (13%).

Більше ніж одна четверта всіх активностей були здійснені у співпраці із іншими організаціями, наприклад ВООЗ. Серед підписантів Кодексу про найвищий рівень спільних заходів прозвітував TikTok – 46%, на другому місці Twitter – 38%.

BAI рекомендує встановити ключові показники ефективності для звітування про результати діяльності у таких важливих напрямках, як видалення контенту та облікових записів, перевірка фактів, найменування контенту та кампанії з медіаграмотності.

За регіональною ознакою 34 % заходів охопили всі країни ЄС, тоді як 12% – лише деякі, але не всі країни-члени ЄС.

BAI закликає стандартизувати процеси: це стосується не тільки звітів платформ (надання відповідної інформації, наприклад, регіональне застосування заходів), а й процедур перевірки виконання заходів платформами.

Незважаючи на те, що платформи посилили використання штучного інтелекту для боротьби з маніпулятивною поведінкою, шахрайським комерційним контентом та діпфейками[1], відсоток заходів, здійснених за допомогою автоматизованої модерації у порівнянні з ручною, залишається не зрозумілим.

BAI закликає до підвищення рівня прозорості та збільшення обсягів інформації щодо використання автоматизованих систем (які механізми запроваджені, які мови охоплені, які види дезінформації вони навчені виявляти, які оцінки ризиків провадяться тощо). Такими даними необхідно ділитися із регуляторними органами та науковцями-дослідниками.

Дослідження продемонструвало, що проблемний контент надходить більше від коментарів під публікацією, ніж із самого повідомлення.

Регулятор Ірландії заохочує зацікавлені сторони запровадити систему протидії дезінформації у коментарях, посилаючись на положення Конвенції про захист прав людини і основоположних свобод.

 BAI також закликає включити до Кодексу ЄС щодо протидії дезінформації зобов’язання щодо створення незалежного аудитора, висловлює стурбованість, що немає даних щодо конкретних країн та повільно виконуються попередні рекомендації.

 

Окремі заходи, про які повідомили Facebook, Google, Microsoft, Mozilla, TikTok та Twitter

Нові заходи, про які повідомили підписанти

Нові заходи, про які повідомили підписанти (за місяцями)

 

[1] Діпфейк (англ. «deep» – глибокий та «fake» – фальшивка) – керований штучним інтелектом механізм заміщення обличчя людини на відео обличчям іншої людини шляхом машинного навчання.

 

Джерело: офіційний вебсайт ВАІ

 

Подати запит
на публічну інформацію
Детальніше