додому ПОЛІТИКА ЄВРОПЕЙСЬКИЙ ПАРЛАМЕНТ УХВАЛИВ ПЕРШИЙ У СВІТІ ЗАКОН ПРО ШТУЧНИЙ ІНТЕЛЕКТ

ЄВРОПЕЙСЬКИЙ ПАРЛАМЕНТ УХВАЛИВ ПЕРШИЙ У СВІТІ ЗАКОН ПРО ШТУЧНИЙ ІНТЕЛЕКТ

30

У середу, 13 березня, Європейський парламент ухвалив «Закон про штучний інтелект». Документ покликаний гарантувати безпеку і дотримання основних прав громадян та водночас не стримує розвитку інновацій. Під заборону потрапили системи біометричної ідентифікації та маніпуляцій із поведінкою людей. А от штучно створені зображення відтепер треба позначати спеціальними примітками, щоб не вводити користувачів в оману. 

За «Закон про штучний інтелект» проголосувала більшість депутатів — 523. Проти були 46, а утрималися ще 49. Документ має стати глобальним дороговказом для урядів країн ЄС, які прагнуть контролювати стрімкий розвиток технологій.

«ЄС досяг результатів. Ми пов’язали концепцію штучного інтелекту з фундаментальними цінностями, які є основою наших суспільств. Однак попереду ще багато роботи, яка виходить за рамки самого Закону про штучний інтелект. ШІ змусить нас переосмислити суспільний договір, який лежить в основі наших демократій, наші моделі освіти, ринки праці та способи ведення війни. Закон про штучний інтелект є відправною точкою для нової моделі управління, побудованої навколо технологій. Зараз ми маємо зосередитися на тому, щоб цей закон був реалізований», — заявив перед голосуванням депутат від Румунії Драгош Тудораке. 

Закон набирає чинності за двадцять днів після публікації в офіційному журналі ЄС, а ще через 24 місяці почнуть діяти всі його положення. 

Закон підтримала більшість депутатів Європарламенту  © Jean-Francois Badias / AP

Що під забороною

Закон забороняє певні застосунки ШІ, які загрожують правам громадян. Серед них, зокрема, системи біометричної ідентифікації на основі конфіденційних даних. Також буде під забороною нецільове збирання зображень облич із інтернету чи записів камер відеоспостереження з метою створювати бази даних розпізнавання облич.

Забороняється розпізнавати за допомогою штучного інтелекту емоції на робочому місці та в закладах освіти, а також — маніпулювати поведінкою людей. Окрім того, не можна використовувати ШІ для так званого поліційного прогнозування. Воно використовує алгоритми, щоб аналізувати величезні обсяги інформації для передбачення та запобігання ймовірним майбутнім злочинам.

Утім, для правоохоронних органів передбачені винятки. Вони можуть використовувати біометричні системи ідентифікації, але лише в певних випадках, наприклад, для пошуку зниклих осіб чи запобігання терактами. Та навіть тоді потрібно попередньо отримати судовий або адміністративний дозвіл. 

Регулювання ризиків

Документ регулює використання систем ШІ з високим ступенем ризику. Це ті, що покликані оцінювати та зменшувати ризики в роботі обʼєктів критичної інфраструктури, освіти, працевлаштування, державних послуг, правоохоронних органів, правосуддя тощо. Але гарантувати безпеку під час роботи цих систем зможе тільки людина, яка має їх контролювати. Водночас громадяни отримують право подавати скарги на системи штучного інтелекту та отримувати пояснення щодо їхніх рішень.

Системи ШІ з високим ступенем ризику мають перебувати під контролем людини  © Freepik

Таким чином, що більше ризиків може нести програма, то ретельніше її перевірятимуть. Проте більшість систем ШІ матиме низькій рівень небезпеки та стосуватиметься простих питань, як, наприклад, фільтрування спаму чи добирання рекомендацій. У цьому випадку компанії, що їх використовують, можуть самостійно розробити кодекси поведінки. 

Генеративний ШІ

У законі також є положення щодо генеративних моделей штучного інтелекту, прикладом яких є ChatGPT OpenAI. Вони здатні спілкуватися з користувачами, давати відповіді на запитання та створювати реалістичні зображення. 

Відтепер розробники таких моделей мають надати детальний перелік текстів, зображень, відео та інших джерел, які використовували для навчання ШІ. Та, звісно, вони повинні дотримуватися законодавства ЄС. І це стосується навіть таких гігантів, як OpenAI та Google.

У Європарламенті такі заходи пояснюють побоюваннями, що генеративний штучний інтелект може поширювати «шкідливі упередження» і в такий спосіб впливати на людей.

Повна прозорість 

Ще одна вимога до роботи систем штучного інтелекту — прозорість їхнього функціонування. Зокрема розробники мають дотримуватися законодавства ЄС щодо авторського права та оприлюднити зміст матеріалів, які використовується для навчання моделей ШІ.

До більш потужних моделей штучного інтелекту, які можуть створювати системні ризики, висуваються додаткові вимоги. Розробники мають досліджувати моделі, оцінювати їх, пом’якшувати системні ризики і звітувати про інциденти.

Крім того, створені штучно зображення, аудіо- чи відеоконтент (так звані «дипфейки») повинні бути чітко позначені як такі.

У Європарламенті побоюються, що генеративний штучний інтелект може поширювати «шкідливі упередження»  © rawpixel.com

На національних рівнях країни ЄС мають створити «регуляторні пісочниці» (контрольовані середовища, у межах яких компанії-розробники ШІ зможуть розвивати свій продукт. — Ред.), доступні для всіх компаній і стартапів. 

Кожна країна Євросоюзу має створити власну службу нагляду за ШІ. Туди громадяни зможуть звертатися зі скаргами, якщо вважають, що стали жертвою порушення правил. А у Брюсселі створять Управління штучного інтелекту, яке має стежити за дотриманням законодавства.

За порушення Закону про штучний інтелект передбачені штрафи в розмірі до €35 млн, або 7% світового доходу компанії.

А що в інших країнах?

Проблемами регулювання систем штучного інтелекту займається не лише Європейський Союз. Так, у жовтні 2023 року президент США Джо Байден підписав розпорядження щодо ШІ. Ним зобов’язали провідних розробників, серед іншого, ділитися результатами перевірок безпеки та іншою інформацією з урядом. Зараз Сполучені Штати працюють над власним законодавством. 

Не лишився осторонь і лідер Китаю Сі Цзіньпін, який запропонував Глобальну ініціативу з управління штучним інтелектом, після чого презентували добірку тимчасових заходів. Найперше, що вимагають від розробників ШІ, — дотримуватися «основних соціалістичних цінностей». А от будь-яка діяльність, що може спричинити підрив державної влади чи зашкодити національній єдності, суворо заборонена. Втім, про що саме йдеться, не уточнено. 

Інші країни, від Бразилії до Японії, а також глобальні спільноти на кшталт ООН та Великої сімки теж працюють над правилами використання штучного інтелекту. А от як воні всі поєднуватимуться та функціонуватимуть разом, поки що невідомо. 

Автор: Олена ДЯЧУК

Джерело тут

НАПИСАТИ ВІДПОВІДЬ

введіть свій коментар!
введіть тут своє ім'я