В ЄС приймають закон для роботів і штучного інтелекту. І це – не фейк

У ЧОМУ СПРАВА?

Майбутнє, яким ми його знаємо з фантастичних фільмів, вже настало. В Європейському Союзі підготували директиву про етичний підхід до розробки в галузі штучного інтелекту. Над документом кілька місяців працювала група з 52 незалежних експертів.

ЦЕ ЩОСЬ НА КШТАЛТ «ТРЬОХ ЗАКОНІВ РОБОТОТЕХНІКИ» АЙЗЕКА АЗІМОВА?

Ні. Проект директиви Єврокомісії – це не «моральний кодекс робота» і не звід правил поведінки для штучного інтелекту. Йдеться про набір юридичних та етичних правил, які виникають в суспільстві через появу «розумних» технологій. Справа в тому, що штучний інтелект впроваджується в такі сфери, як, наприклад, охорона здоров’я, освіта або споживання. Отже, це вже не просто технологічна, а етична проблема.

ЯКЩО ЦЕ ПРОБЛЕМА, МОЖЕ, КРАЩЕ ВЗАГАЛІ БЕЗ ШТУЧНОГО ІНТЕЛЕКТУ?

Європейці так не думають. У Єврокомісії впевнені, що штучний інтелект може принести значну користь людству. Наприклад, у сферах медицини, енергетики, автомобільної безпеки і сільського господарства. Крім того, «розумні» машини здатні допомогти вирішити проблему зміни клімату і прораховувати фінансові ризики. Нарешті, штучний інтелект дасть можливість правоохоронним органам ефективніше боротися з кібер-злочинністю.

ПРО ЩО ЙДЕТЬСЯ В ДИРЕКТИВІ?

Остаточний текст директиви ще не підготували. Поки експерти тільки визначили сім головних вимог, яким повинні відповідати майбутні системи штучного інтелекту. Ось вони:

людське сприяння і нагляд: штучний інтелект не повинен обмежувати самостійність людини, маніпулювати людьми або примушувати їх до чогось. Своєю чергою, люди повинні мати можливість втручатися і контролювати кожне рішення, прийняте програмою;

надійність і безпека: алгоритми і системи штучного інтелекту повинні справлятися з помилками і невідповідностями на всіх етапах і бути стійкими до зовнішніх атак;

конфіденційність даних: особисті дані людини, які використовуються машинами, повинні залишатися конфіденційними і не використовуватися на шкоду людям;

прозорість: усі рішення, прийняті програмою, повинні бути зрозумілими і контролюватися людьми;

різноманітність, відсутність дискримінації і справедливість: послуги, що надаються системами штучного інтелекту, повинні забезпечувати доступність для всіх і враховувати весь спектр людських здібностей, навичок і вимог;

соціальний добробут і екологічна безпека: системи штучного інтелекту повинні використовуватися для позитивних соціальних змін і відповідати екологічним нормам;

підзвітність: повинні бути створені механізми, що забезпечують відповідальність за системи штучного інтелекту та результати їх роботи.

КОЛИ ДИРЕКТИВА НАБУДЕ ЧИННОСТІ?

Судячи з усього, не скоро. Розроблені експертами принципи не мають юридичної сили, але вони можуть сприяти появі нових європейських законів. Крім того, крім етичних принципів, експерти розробили список питань для достовірної оцінки штучного інтелекту. Така оцінка допоможе виявити потенційні слабкі місця і небезпеки в програмах, що використовують алгоритми штучного інтелекту. Єврокомісія вже запропонувала промисловим компаніям, дослідним інститутам і державним адміністраціям протестувати цей перелік. Після цього (не раніше початку 2020 року) ЄС планує ініціювати формування міжнародного консенсусу щодо штучного інтелекту, орієнтованого на людину.

Поделиться
Висловити своє враження
Love
Haha
Wow
Sad
Angry

Залишити коментар

Увійти через соціальний аккаунт
опитування

Найважливіше — в одному листі. Новини, реформи, аналітика — коротко і по суті.

Підпишись, щоб бути в курсі.

Дізнавайся все найцікавіше першим — слідкуй за нашими новинами у соцмережах

Дякую, я вже з вами