Зв'язатися з нами

штучний інтелект

Акт ЄС про штучний інтелект: перша норма про штучний інтелект 

ДОПОВНЕННЯ:

опублікований

on

Ми використовуємо вашу реєстрацію, щоб надавати вміст у спосіб, на який ви погодилися, і покращити наше розуміння вас. Ви можете будь -коли відписатися.

Використання штучного інтелекту в ЄС регулюватиметься законом про штучний інтелект, першим у світі комплексним законом про штучний інтелект. Дізнайтеся, як це захистить вас, суспільство.

У рамках своєї цифрова стратегія, ЄС хоче регулювати штучний інтелект (ШІ), щоб забезпечити кращі умови для розробки та використання цієї інноваційної технології. ШІ може створити багато переваг, як-от покращення охорони здоров’я; безпечніший і чистіший транспорт; більш ефективне виробництво; і дешевша та більш стійка енергія.

У квітні 2021 року Європейська комісія запропонувала першу нормативно-правову базу ЄС щодо ШІ. У ньому сказано, що системи ШІ, які можна використовувати в різних програмах, аналізуються та класифікуються відповідно до ризику, який вони становлять для користувачів. Різні рівні ризику означатимуть більше чи менше регулювання. Після затвердження це будуть перші у світі правила щодо ШІ.

Дізнатися більше про що таке штучний інтелект і як він використовується.

Що парламент хоче від законодавства щодо ШІ

Пріоритет парламенту полягає в тому, щоб переконатися, що системи ШІ, які використовуються в ЄС, є безпечними, прозорими, доступними для відстеження, недискримінаційними та екологічно чистими. Системи штучного інтелекту повинні контролюватися людьми, а не автоматизацією, щоб запобігти шкідливим результатам.

Парламент також хоче встановити технологічно нейтральне, єдине визначення штучного інтелекту, яке можна було б застосовувати до майбутніх систем ШІ.

Дізнатися більше про Робота парламенту над ШІ і її бачення майбутнього ШІ.

реклама

Закон про штучний інтелект: різні правила для різних рівнів ризику

Нові правила встановлюють зобов'язання для провайдерів і користувачів залежно від рівня ризику від штучного інтелекту. Хоча багато систем ШІ становлять мінімальний ризик, їх потрібно оцінити.

Неприйнятний ризик

Системи штучного інтелекту з неприйнятним ризиком – це системи, які вважаються загрозою для людей і будуть заборонені. Вони включають:

  • Когнітивне поведінкове маніпулювання людьми або окремими вразливими групами: наприклад, голосові іграшки, які заохочують небезпечну поведінку дітей
  • Соціальна оцінка: класифікація людей на основі поведінки, соціально-економічного статусу чи особистих характеристик
  • Системи біометричної ідентифікації в реальному часі та віддалені, наприклад розпізнавання обличчя

Можуть бути дозволені деякі винятки: наприклад, «поштові» дистанційні системи біометричної ідентифікації, де ідентифікація відбувається після значної затримки, будуть дозволені для переслідування серйозних злочинів, але лише після схвалення суду.

Високий ризик

Системи штучного інтелекту, які негативно впливають на безпеку або фундаментальні права, вважатимуться високим ризиком і розділятимуться на дві категорії:

1) Системи ШІ, які використовуються в продуктах, що підпадають під законодавство ЄС щодо безпеки продукції. Це включає в себе іграшки, авіацію, автомобілі, медичне обладнання та ліфти.

2) Системи штучного інтелекту, що належать до восьми конкретних областей, які потрібно буде зареєструвати в базі даних ЄС:

  • Біометрична ідентифікація та категоризація фізичних осіб
  • Управління та експлуатація критичної інфраструктури
  • Освіта та професійна підготовка
  • Працевлаштування, управління працівниками та доступ до самозайнятості
  • Доступ і користування основними приватними та державними послугами та перевагами
  • Правозастосування
  • Управління міграцією, притулком та прикордонним контролем
  • Допомога в правовому тлумаченні та застосуванні законодавства.

Усі системи штучного інтелекту з високим рівнем ризику будуть оцінені перед виведенням на ринок, а також протягом усього життєвого циклу.

Генеративний ШІ

Генеративний ШІ, як ChatGPT, повинен відповідати вимогам прозорості:

  • Розкриваючи, що контент створено ШІ
  • Розробка моделі для запобігання створенню незаконного вмісту
  • Публікація зведень захищених авторським правом даних, які використовуються для навчання

Обмежений ризик

Системи штучного інтелекту з обмеженим ризиком повинні відповідати мінімальним вимогам щодо прозорості, що дозволить користувачам приймати обґрунтовані рішення. Після взаємодії з додатками користувач може вирішити, чи хоче він продовжувати ним користуватися. Користувачі повинні бути обізнані, коли вони взаємодіють з ШІ. Це включає системи штучного інтелекту, які створюють або обробляють зображення, аудіо- чи відеовміст, наприклад глибокі фейки.

Наступні кроки

14 червня 2023 року євродепутати прийняли Переговорна позиція парламенту щодо Закону про штучний інтелект. Тепер почнуться переговори з країнами ЄС у Раді щодо остаточної форми закону.

Мета – досягти угоди до кінця цього року.

Більше про цифрові заходи ЄС

Briefing 

Поділіться цією статтею:

EU Reporter публікує статті з різних зовнішніх джерел, які висловлюють широкий спектр точок зору. Позиції, зайняті в цих статтях, не обов’язково відповідають EU Reporter.

Тенденції