Зв'язатися з нами

Комп'ютерні технології

OASI - перша пошукова система, яка знайшла алгоритми, які уряди та компанії використовують для громадян

ДОПОВНЕННЯ:

опублікований

on

Ми використовуємо вашу реєстрацію, щоб надавати вміст у спосіб, на який ви погодилися, і покращити наше розуміння вас. Ви можете будь -коли відписатися.

  • Створена Фондом Етікас, Обсерваторія алгоритмів із соціальним впливом (OASI) збирає інформацію з десятків алгоритмів, які використовуються державними адміністраціями та компаніями по всьому світу, щоб дізнатися більше про їхній соціальний вплив.
  • Мета полягає в тому, щоб, серед інших характеристик, надати громадськості доступ до інформації як про уряди, так і про алгоритми компаній, а також дізнатися, хто їх використовує, хто розробляє, які загрози вони представляють і чи були вони перевірені.
  • Упередженість алгоритму та дискримінація зазвичай виникають на основі віку, статі, раси чи інвалідності, серед інших цінностей, але через загальну відсутність прозорості досі неможливо дізнатися всі її наслідки для постраждалих груп.

Некомерційна організація Eticas Foundation, яка пропагує відповідальне використання алгоритмів та систем штучного інтелекту (ШІ), створила Обсерваторію алгоритмів із соціальним впливом (OASI). Ця обсерваторія представляє пошукову систему, щоб дізнатися більше про інструменти, які приймають важливі автоматизовані рішення щодо громадян, споживачів та користувачів у всьому світі.

В даний час і компанії, і державні адміністрації автоматизують рішення завдяки алгоритмам. Однак, його розробка та введення в експлуатацію не супроводжуються зовнішнім контролем якості, ані настільки прозорими, наскільки це повинно бути, що залишає населення незахищеним. За допомогою цієї пошукової системи кожен може дізнатися більше про ці алгоритми: хто їх розробив, хто їх використовує, сферу їх застосування, чи були вони піддані аудиту, їх цілі чи соціальний вплив та загрози, які вони представляють.

В даний момент, OASI збирає 57 алгоритмів, але розраховує досягти 100 у наступні місяці. Серед них 24 вже подаються заявками у США та великими технологічними компаніями у США. Наприклад, ShotSpotter, інструмент алгоритму, розгорнутий Департаментом поліції Окленда для боротьби та зменшення насильства зі зброї за допомогою мікрофонів для моніторингу звуку, та алгоритм передбачення потенційного насильства та бездоглядності над дітьми, який використовується в окрузі Аллегені, штат Пенсільванія. Іншим прикладом корпорації є Rekognance, система розпізнавання облич Amazon, яка була перевірена Медіалабораторією Массачусетського технологічного інституту на початку 2019 року і виявила, що вона виявляється значно гіршою при ідентифікації статі особи, якщо вона жіночої статі або з темношкірою шкірою.

Найчастіше дискримінація відбувається за ознакою віку, статі, раси чи інвалідності, створено ненавмисно розробниками, яким бракує соціально -економічних навичок, щоб зрозуміти вплив цієї технології. У цьому сенсі ці інженери розробляють алгоритми лише на основі технічних навичок, а оскільки немає зовнішніх засобів управління і, здається, працює належним чином, алгоритм продовжує вчитися на основі дефіцитних даних.

Враховуючи відсутність прозорості щодо функціонування деяких з цих алгоритмів, Eticas Foundation, окрім запуску OASI, розробляє проект зовнішнього аудиту. Перший - це VioGén, алгоритм, який використовується Міністерством внутрішніх справ Іспанії для призначення ризику жінкам, які звертаються за захистом після випадків домашнього насильства. Eticas проводитиме зовнішній аудит за допомогою зворотних інженерних та адміністративних даних, інтерв’ю, звітів або сценаріїв проекту для збору масштабних результатів. Все це з метою виявлення можливостей для покращення захисту цих жінок.

"Незважаючи на існування алгоритмічних методів контролю та аудиту, щоб гарантувати, що технологія поважає чинні норми та основні права, Адміністрація та багато компаній продовжують не чути про запити громадян та установ про прозорість", - заявила Джемма Галдон, засновник Eticas Foundation . «На додаток до OASI, після кількох років, протягом яких ми розробили більше десятка аудитів для таких компаній, як Alpha Telefónica, ООН, Koa Health або Міжамериканський банк розвитку, ми також опублікували Посібник з алгоритмічного аудиту, щоб кожен міг їх виконати. Завдання - завжди підвищити обізнаність, забезпечити прозорість та повернути довіру до технологій, що саме по собі не повинно бути шкідливим ».

У цьому сенсі алгоритми, які навчаються за допомогою технологій машинного навчання, використовують велику кількість історичних даних, щоб «навчити» їх вибирати на основі минулих рішень. Зазвичай ці дані не є репрезентативними для соціально -економічної та культурної реальності, в якій вони застосовані, але в багатьох випадках вони відображають несправедливу ситуацію, яка не має наміру продовжуватись. Таким чином, алгоритм технічно буде приймати «правильні» рішення відповідно до своєї підготовки, навіть якщо реальність така, що його рекомендації чи прогнози є упередженими або дискримінаційними.

реклама

Про Фонд Eticas

Фонд Eticas працює над переведенням у технічні специфікації принципів, що керують суспільством, таких як рівні можливості, прозорість та недискримінація, які є у технологіях, які приймають автоматизовані рішення щодо нашого життя. Він шукає баланс між змінами суспільних цінностей, технічними можливостями останніх досягнень та правовою базою. З цією метою він перевіряє алгоритми, перевіряє, чи правові гарантії застосовуються до цифрового світу, особливо до штучного інтелекту, та проводить інтенсивну роботу щодо підвищення обізнаності та поширення потреби у відповідальних, якісних технологіях.

Поділіться цією статтею:

EU Reporter публікує статті з різних зовнішніх джерел, які висловлюють широкий спектр точок зору. Позиції, зайняті в цих статтях, не обов’язково відповідають EU Reporter.

Тенденції