'ІІ дискримінує': нове дослідження про етику штучного інтелекту

зображення: john lamb; getty; the new scientist

Зображення: John Lamb; Getty; The New Scientist

Зростаючий обсяг досліджень показує, що технології штучного інтелекту, пов’язані з розпізнаванням осіб, рясніють упередженістю і дискримінацією, відображаючи і посилюючи нерівність, існуюче в реальному світі, пише видання “USA Today”. Вчені Інституту штучного інтелекту Нью-Йоркського університету в своєму новому дослідженні “дискримінує системи: стать, раса, влада в ІІ” визначають ключову причину ситуації, що склалася: люди, що створюють подібні ІІ-алгоритми, в переважній більшості - “білі чоловіки з високим статусом”.

Використання технологій штучного інтелекту, який аналізує величезні обсяги особистих даних в пошуках закономірностей, швидко розширюється в критично важливих сферах життя, таких як освіта, зайнятість, охорону здоров’я і робота правоохоронних органів. Все більш потужним інструментам штучного інтелекту доручають вирішувати, хто надійде в школу, хто отримає роботу, хто заплатить дорожче за страховку. Ні при цьому алгоритми штучного інтелекту недосконалі і рясніють вадами, привнесеними їх творцями.

“Сучасне життя ґрунтується на інтелектуальних алгоритмах. Поглинають величезні обсяги даних, які самовдосконалюються комп’ютерні програми, що лежать в основі революції в області штучного інтелекту, вже визначають результати пошукової видачі Google, новинні стрічки Facebook і рекомендації онлайн-покупок, - пише оглядач видання” The New Scientist “, Даніел Коссінс, - Все частіше вони вирішують, наскільки легко ми отримаємо іпотечний кредит або пройдемо співбесіду при прийомі на роботу.

Російська компанія “Superjob” створила ІІ-алгоритм (нейросеть), який сам заповнить резюме на основі аналізу фотографії здобувача. Алгоритм “визначить” стать, вік, досвід роботи і професію людини, а також наявність у нього вищої освіти, і, “якщо здобувач дорого одягнений”, алгоритм “пропише” йому в резюме високу зарплату.

Заодно, ІІ-алгоритми визначають шанси на, що по дорозі додому нас зупинять поліцейські і підданий обшуку, і яке покарання нам загрожує, якщо ми зробимо злочин. Така відповідальність повинна була б означати, що алгоритми ІІ будуть нейтральними і бездоганними в прийнятті рішень. Але це не так. Спотворені вихідні дані, помилкова логіка або просто упередження їх розробників призводять до того, що ІІ легко відтворює і навіть посилює людські упередження.

“Проблема відсутності різноманітності при розробці технологій, очевидно, не нова, але тут вона досягла свого нового піку. Число жінок і людей різного кольору шкіри в сфері штучного інтелекту зменшилася в той час, як сама сфера ІІ утвердилася в якості” цитаделі “багатства і влади, - говорить Мередіт Уіттакер, автор дослідження і співзасновник Інституту “AI Now”. - Коротше кажучи, проблема тут в тому, що ті, хто “знаходиться в кімнаті”, коли створюється ІІ, і ті, хто отримує вигоду з швидкого поширення систем ІІ, являють собою чр езвичайно вузьку частину населення. Це в основному чоловіки, в основному вони технічно освічені, і вони в основному білі. Це не відображає різноманіття людей, які великою мірою залежать створюваних ними систем “. Поки ж найбільш поширені алгоритми штучного інтелекту, що розробляються в надрах великих технологічних компаній, таких як “Facebook”, “Google”, “Amazon”, “Microsoft”, а також університетських лабораторій, створюються, переважно, “білими, високо статусними чоловіками”, і їх переважання стає все більше.

зображення: eric gay; ap

Зображення: Eric Gay; AP

Виходить, що за минулі роки ці технологічні компанії так і не виконали амбітних обіцянок про те, що зможуть зробити “понад інтелектуальні машини”. І хоча машини навчилися розпізнавати об’єкти на фотографії або переводити онлайн-повідомлення на десятки мов, а ІІ-алгоритми досягли значного прогресу в таких критичних областях, як медична діагностика і персоналізована медицина, але, в той же час, системи розпізнавання осіб продовжують погано розпізнавати людей з темним кольором шкіри, а кредитні інструменти встановлюють більш високі процентні ставки для латиноамериканців і афроамериканців. Алгоритми винесення вироків або рішень щодо дострокового звільнення дискримінують чорношкірих. Негативні емоції частіше присвоюються чорношкірим чоловікам особам, присвоюються частіше, ніж білим. Системам комп’ютерного зору для автомобілів з самостійним водінням важче виявляти пішоходів з темнішими відтінками шкіри.

“Синтез двох підходів може стати проривом у створенні ІІ” третьої хвилі “. Читати
Розвиток ІІ в ЄС: “етика”, “витік мізків” і недолік фінансування. Читати
“Ии-” Єдиноріг “допомагають китайської поліції ловити злочинців. Читати

Люди часто думають про комп’ютерні алгоритми і інших автоматизованих системах як про нейтральні або наукових, але дослідження все більше розкривають, як системи штучного інтелекту можуть обмежувати права менш представлених груп і тих, у кого менше впливу.

За словами Мередіт Уіттакер, що дискримінують “артефакти” в алгоритмах штучного інтелекту можна усунути, лише разнообразив групи технічної розробки більшою кількістю жінок і людей різних етнічних груп.

Сподобався пост? Поставте 👍 або поділіться ним у соціальній мережі, щоб ми могли розповісти ще більше про нові технології.
Підпишіться на наш ресурс “ Розумна безпеку ” ( @smartsafecity ) в телеграм, щоб дізнатися більше новин про нові технології.


ЩЕ ПОЧИТАТИ