Чому штучний інтелект загрожує правам людини?

Штучний інтелект робить наше життя зручнішим і комфортнішим. Але він також, вірніше, способи його застосування несуть загрозу нашим правам і свободам. В усякому разі, в цьому впевнений професор Центрально-Європейського університету Камеран Ашраф.

ЗВОРОТНІЙ БІК ПРОГРЕСУ. Ще в 1970-х роках, коли навіть слова «інтернет» ще не придумали, радикальний мислитель Герберт Маркузе передрікав появу якихось нових технологій, здатних змінити світ. З одного боку, вони відкриють нові перспективи для свободи, але з іншого – створять нові форми відчуження і дадуть державі і корпораціям нові механізми контролю над людьми.

Тоді над мислителем потішалися. Але сьогодні його пророцтво, схоже, здійснюється. Професор Камеран Ашраф заснував рух Access Now, який займається захистом прав і свобод людей в епоху цифрових технологій. Він говорить, що технології можуть служити справі свободи і демократії. Наприклад, з їх допомогою можна поширювати інформацію, яку уряд вважав за краще б приховати. Але ті ж самі технології несуть у собі й загрозу для свободи і демократії.

ПІД НАГЛЯДОМ. Ми вже звикли до того, що соціальні медіа аналізують нашу активність в мережі і на основі наших інтересів пропонують нам ті чи інші товари або події. Це може здатися безневинним або навіть зручним. Однак інформацію, зібрану про вас через соціальні мережі, можуть використовувати на шкоду вашим інтересам, а то й зовсім у злочинних цілях (EtCetera вже докладно писав про це). У будь-якому випадку, подібний збір інформації можна розцінити як посягання на право на приватність і недоторканність особистого життя.

Чому штучний інтелект загрожує правам людини?

ВЛАДА СТЕРЕОТИПІВ. Комп’ютерні програми і алгоритми вже вміють ставити діагнози і визначати, чи варто давати людині банківський кредит. А в Новому Орлеані (США) поліція за допомогою штучного інтелекту визначає, в які райони міста потрібно направляти більше патрулів для запобігання злочинів. Однак, як виявилося, програма відправляє більше патрулів у райони, де живуть афроамериканці – просто тому, що так запрограмований алгоритм. Щось подібне виявилося в корпорації Amazon, яка використовує штучний інтелект для підбору співробітників. З’ясувалося, що, наприклад, у чоловіка на ім’я Джеральд шансів влаштуватися на роботу більше, ніж у чоловіка на ім’я Кемерон. Такі випадки цілком можна назвати проявами дискримінації.

Чому штучний інтелект загрожує правам людини?

У ВЛАСНОМУ СОКУ. Алгоритми Фейсбуку і Інстраграма включають у вашу стрічку новин, в першу чергу, новини і пости від людей, схожих на вас за різними ознаками – за професією, національністю або політичними поглядами. Наприклад, якщо ви поділилися кількома постами з критикою чинного президента, то поступово у вашій стрічці буде з’являтися все більше новин опозиційного характеру. Так само працюють і пошукові системи. Вони аналізують ваші розташування і історію пошуку і будуть показувати вам тільки ту інформацію, яка узгоджується з вашими вподобаннями.

Все це створює ефект, який інтернет-активіст Ілай Парайзер назвав «міхуром фільтрів». Ми замикаємося в колі собі подібних, починаємо вважати, що наші погляди і думки – це і є погляди і думки більшості, і просто не дізнаємося про нові ідеї та іншу важливу ​​інформацію.

Ефект «міхура фільтрів» призводить до небажання і невміння слухати чужу думку. Тому користувачі соцмереж все частіше скаржаться на політичні посади, що суперечать їхнім поглядам. В результаті алгоритм починає сприймати подібний контент як образливий для інших і менше його показувати. Тим самим обмежуючи право на свободу вираження поглядів.

Чому штучний інтелект загрожує правам людини?

ЩО РОБИТИ? Та все це не має нічого спільного з «повстанням машин», яким лякали нас автори фантастичних фільмів минулого. Алгоритм штучного інтелекту – це всього лише набір правил, який створюють люди.

На думку Камерана Ашарафа, розробку штучного інтелекту потрібно зробити більш різноманітною, щоб не виходило так, що кілька людей закладають в алгоритм тільки свої уявлення та ідеї. Крім того, потрібні нові закони і норми, які регулюватимуть сферу цифрових технологій. Нарешті, і самі алгоритми повинні стати більш прозорими для користувачів: ми повинні розуміти, як вони працюють.

За матеріалами Центру інформації про права людини

Поделиться
Висловити своє враження
Love
Haha
Wow
Sad
Angry

Залишити коментар

Увійти через соціальний аккаунт
опитування

Найважливіше — в одному листі. Новини, реформи, аналітика — коротко і по суті.

Підпишись, щоб бути в курсі.

Дізнавайся все найцікавіше першим — слідкуй за нашими новинами у соцмережах

Дякую, я вже з вами