Пропозиція ЄС щодо нормативно-правового врегулювання питання щодо штучного інтелекту
Європейська Комісія запропонувала першу в історії нормативно-правову базу щодо штучного інтелекту (ШІ), яка охопить ризики ШІ та позиціонуватиме Європу провідним світовим гравцем.
Нормативна пропозиція має на меті представити розробникам, операторам та користувачам ШІ чіткі вимоги та зобов’язання щодо конкретного використання ШІ. Водночас пропозиція спрямована на зменшення адміністративного та фінансового тягаря для бізнесу, зокрема малих та середніх підприємств.
Пропозиція є частиною більш широкого пакету щодо ШІ, який також включає оновлений План координації щодо ШІ. Разом вони гарантуватимуть безпеку та дотримання основоположних прав людини та бізнесу, одночасно посилюючи впровадження ШІ, відповідних інвестицій та інновацій у ЄС.
Запропонований підхід до регулювання ШІ гарантуватиме, що європейці зможуть довіряти тому, що пропонує ШІ, оскільки певні системи ШІ створюють ризики, на які потрібно звертати увагу, щоб уникнути небажаних результатів (наприклад, часто не вдається з’ясувати, чому система ШІ прийняла рішення чи передбачення і досягла певного результату).
Хоча чинне законодавство забезпечує певний захист, його недостатньо для вирішення конкретних проблем, які можуть викликати системи ШІ.
Запропоновані правила створять умови для:
– усунення ризиків, спеціально створених програмами ШІ;
– формування переліку програм/застосунків із високими ризиками;
– встановлення чітких вимог до систем ШІ у програмах/застосунках із високими ризиками;
– визначення конкретних зобов’язань для користувачів та провайдерів програм/застосунків ШІ з високим ризиком;
– формування вимог до оцінки відповідності до того, як система ШІ буде введена в експлуатацію або виведена на ринок;
– виконання вимог нормативно-правових актів після виведення такої системи ШІ на ринок;
– формування структури управління на європейському та національному рівнях.
Підхід на основі ризиків запропонований у чотирирівневому форматі.
Рівень неприйнятного ризику, на якому всі системи ШІ, які вважаються явною загрозою безпеці, засобам існування та правам людей, будуть заборонені – від інструментів соціального оцінювання, що використовуються урядами, до іграшок із голосовою допомогою, що формують небезпечний досвід.
Рівень високого ризику, до якого до якого можуть спричинитися системи ШІ, визначені як високоризикові, що використовується в:
– критичній інфраструктурі (наприклад, транспорт), що може загрожувати життю та здоров’ю громадян;
– освітній або професійній підготовці, що може визначати доступ до освіти та професійних курсів у чиємусь житті (наприклад, оцінка іспитів);
– компонентах безпеки в продуктах (наприклад, застосування ШІ в хірургії з допомогою роботів);
– працевлаштуванні, управлінні працівниками та доступі до самостійної роботи (наприклад, програмне забезпечення для сортування резюме для процедур підбору персоналу);
– основних приватних та державних послугах (наприклад, кредитний бал, що формує відмову громадянам у можливості отримати позику);
– правоохоронних органах, що може порушувати основні права людей (наприклад, оцінка достовірності доказів);
– управлінні міграцією, притулками та прикордонним контролем (наприклад, перевірка справжності проїзних документів);
– здійсненні правосуддя та демократичних процесах (наприклад, застосування закону до конкретної сукупності фактів).
Системи ШІ з високим ступенем ризику будуть підлягати жорстким зобов’язанням, перш ніж їх можна буде випустити на ринок, серед яких:
– адекватні системи оцінки та пом’якшення ризиків;
– висока якість наборів даних, що завантажуються в систему для мінімізації ризиків та дискримінаційних результатів;
– протоколювання діяльності для забезпечення простежуваності результатів;
– детальна документація, що містить всю необхідну інформацію про систему та її призначення для органів влади для оцінки її відповідності;
– чітка та адекватна інформація для користувача;
– відповідні заходи з нагляду за людьми для мінімізації ризику;
– високий рівень надійності, безпеки і точності.
Зокрема, всі системи віддаленої біометричної ідентифікації вважаються високоризиковими та мають суворі вимоги. Їхнє використання в громадських місцях для цілей правопорядку заборонено в принципі. Незначні винятки суворо визначаються та регламентуються (наприклад, там, де це суворо необхідно для пошуку зниклої дитини, для запобігання конкретній та неминучій терористичній загрозі або для виявлення або притягнення до відповідальності винного або підозрюваного у тяжкому кримінальному злочині). Таке використання підлягає санкціонуванню судом або іншим незалежним органом, а також відповідним обмеженням у часі, географічному охопленні та баз даних, у яких здійснюватиметься пошук.
Рівень обмеженого ризику включає системи ШІ з конкретними зобов’язаннями щодо прозорості: користуючись системами ШІ, такими як чат-боти, користувачі повинні знати, що вони взаємодіють із машиною, щоб вони могли прийняти обґрунтоване рішення щодо продовження або припинення спілкування.
На рівні мінімального ризику дозволяється безкоштовно використовувати такі програми/застосунки, як відеоігри або спам-фільтри з підтримкою ШІ. Переважна більшість систем ШІ, які зараз використовуються в ЄС, потрапляють до цієї категорії з мінімальним або відсутнім ризиком.
Після того, як система ШІ виходить на ринок, органи влади починають здійснювати ринковий нагляд, користувачі забезпечують нагляд та моніторинг із боку людини, а провайдери мають впровадити систему пост-ринкового моніторингу. Провайдери та користувачі також повідомлятимуть про серйозні випадки та несправності.
Оскільки штучний інтелект – це технологія, що надзвичайно швидко розвивається, пропозиція базується на перспективному підході, що дає змогу правилам адаптуватися до технологічних змін. ШІ програми/застосунки повинні залишатися надійними навіть після їх потрапляння на ринок. Це вимагає постійного управління якістю та ризиками з боку провайдерів.
Пропозицію щодо регулювання ШІ висунуто Європейською Комісією у квітні 2021 року, а в другій половині 2022 року вона може набути чинності в рамках перехідного періоду. У цей час будуть встановлюватися та розроблятися стандарти і почнуть свою діяльність новостворені структури управління. Друга половина 2024 року – це найближчий час, коли нові правила регулювання можуть набути повної чинності.