Предубеждения алгоритмов
Как искусственный интеллект принимает решения? Почему алгоритм,
написанный для банка, одобряет кредит одному, но отказывает другому
клиенту? Дело только в доходах, кредитной истории или в чем-то еще?
Сегодня нейросети
Предсказательные алгоритмы, которые используют полиция и суды, —
популярный сюжет про конфликт технологий и прав человека. В
Лос-Анджелесе, штатах Атланта и Филадельфия, алгоритмы
В Human Rights Watch сделали вывод, что программа способствует укреплению расовых предрассудков среди американских полицейских. Сейчас американская компания PredPol переименована в Geolitica, ее программа — одна из самых популярных в США. Стоит упомянуть, что правозащитники сообщали, что алгоритмы использовались для фиксации наркопреступлений, но, по словам гендиректора PredPol Брайана Макдональда, программы не используются для борьбы с наркотиками, а используют данные о таких преступлениях, как нападение, грабеж и угон автомобилей, именно для того, чтобы избежать предвзятости, обнаруженной Human Rights Watch.
Большая часть алгоритмов для судов и полиции из подборки "плохих
технологий" используется в США и Китае (пример в Китае —
использование технологий для видеослежки за уйгурами — населением
китайского региона Синьцзян,
Еще один пример использования алгоритмов в системе
наказаний —
Почему IBM отказался делать системы распознавания лиц?
Программы в целом склонны к предвзятости в отношении чернокожих,
это выяснено во многих исследованиях. Причем не только
вышеуказанные, а, например, алгоритмы распознавания лиц, причем они
просто хуже распознают людей не с белым цветом кожи. Как признался
глава полиции в Детройде, эти алгоритмы
Системы распознавания лиц — одна из технологий, вызывающих самые
большие споры. С каждым годом становится все больше требований
общества и правозащитных организаций отказаться от таких
алгоритмов. В прошлом году компания IBM решила
Почему программа в Amazon отказывала женщинам в работе?
На дискриминации женщин при приеме на работу
"поймали" программу, которая несколько лет помогала отделу
кадров в Amazon
Как алгоритмы стали расистскими? Почему они начали
дискриминировать женщин при приеме на работу?
Идеальная пара: он старше и статуснее. Так считает алгоритм
Дискриминация из-за алгоритмов — это не то, что происходит где-то далеко от нас — в американском полицейском участке или в офисе Amazon. Скорее всего, вы тоже столкнулись с ней. Например, если использовали Tinder. Пару лет назад французская журналистка Джудит Дюпортай опубликовала результаты расследования о секретных алгоритмах соцсети. Дюпортай выяснила, что Tinder присваивает пользователям секретный индекс привлекательности, на основе которого показывает потенциальных кандидатов (а вовсе не рандомно) и тех, кто географически ближе. Алгоритм вычислял уровень доходов (ради этого искал разную информацию о пользователях в других соцсетях), уровень интеллекта (насколько пользователь умный, он выяснял на основании лексики, которую он использует в переписке).
На индекс привлекательности мужчин и женщин влияли разные
характеристики — если мужчинам с высокими доходами и хорошим
образованием алгоритм повышал рейтинг, то образованным и хорошо
зарабатывающим женщинам, наоборот, понижал. Идеальная пара для
алгоритма выглядела так: мужчина старше и статусом выше, женщина
моложе и статусом ниже. "Я уверена, что в штаб-квартире Tinder
никто не заявил бы сознательно: "А давайте сделаем сексистское
приложение!" Но я думаю, что разработчики закодировали свои
представления и ценности в его алгоритме. Я почти не сомневаюсь,
что своим сестрам и подругам они бы тоже от всего сердца пожелали
найти себе видного мужчину постарше и побогаче — не задаваясь
вопросом об идеологии, которая стоит за этим пожеланием", —
рассказывала Джудит Дюпортай в интервью, опубликованном
на
Что не так с программой, написавшей колонку для The Gardian?
Один из главных скандалов в ИИ-индустрии в прошлом году —увольнение из Google исследовательницы Тимнит Гебру. В Google есть направление по исследованию этики искусственного интеллекта, где Гебру вместе с коллегами работала над публикацией по теме этики больших нейросетевых языковых моделей (таких как BERT и GPT-3). По правилам компании, научные статьи сотрудников проходят перед публикацией премодерацию в отделе PR & Policy. Эта работа ее не прошла — было рекомендовано отозвать статью или убрать сотрудников компании из списка авторов.
Гебру
Алгоритмы-менеджеры
Часто люди боятся, что искусственный интеллект отберет у них
работу. Как насчет того, что вы будете трудиться больше под
присмотром программ? В начале прошлого года в
Сотрудникам IT-компании в Ханчжоу выдали
Уже упомянутая Amazon — одна из компаний, где технологии
помогают загружать сотрудников работой по максимуму. Во многих
автомобилях доставки установлены камеры видеонаблюдения, следящие
за водителем. При остановке или отклонении от маршрута ему звонит
диспетчер, чтобы уточнить причину задержки. На складах работникам
нельзя отлучаться больше чем на 15 минут. За нарушение —
санкции и штрафы. В офисах за сотрудниками следят другие программы,
но с той же целью. Переработки и изматывающий график в Amazon —
известная проблема. Недавно
Социальная дилемма
Почему люди так легко становятся зависимыми от социальных сетей?
Разработчики продумали их такими, зная нашу психологию. В прошлом
году Netflix выпустил документальный фильм "Социальная дилемма",
где бывшие топ-менеджеры и разработчики IT-компаний рассказывают,
как разрабатывали популярные соцсети вроде Twitter и придумывали,
например, кнопку "лайк", а впоследствии осознали, насколько
разрушительно эти манипуляции влияют на общество. Один из героев
фильма — Тристан Харрис, программист, в 2013 году он работал в
Google. Одним вечером он разослал коллегам манифест с идеями об
ответственности перед пользователями и уважении их
времени. Главный тезис Харриса — сегодня популярные соцсети и
сервисы требуют слишком много нашего внимания. С помощью
своего устройства — вроде лайков и постоянных уведомлений —
они манипулируют нами, чтобы мы постоянно ныряли в онлайн из
офлайна. "Netflix, YouTube или Facebook автоматически воспроизводят
следующее видео, а не ждут, пока вы сделаете сознательный выбор (в
случае, если вы этого не сделаете)", —
В чем проблема рекомендательных алгоритмов
Сегодня на всех популярных сайтах работают рекомендательные алгоритмы. Благодаря им вы видите в лентах то, что интересно вам. Выводы об этих интересах они делают исходя из информации о пользователях: истории просмотров и активности на площадке (и не только, трекеры популярных соцсетей работают и на других сайтах). Чем активнее вы совершаете действия в соцсети — шерите, лайкаете, комментируете, — тем больше алгоритмы знают о вас.
Есть две проблемы. Первая — рекомендательные алгоритмы разносят
проблемный контент (от фейков до псевдонаучной
и противоправной информации). Простой пример: в соцсетях есть
много групп противников вакцинации. Не так важно — как вы
относитесь к вакцинации, если вы лайкаете и шерите родительский
контент — вам покажут группу антипрививочников. "То, что противники
вакцинации встречаются в интернете, — проблема интернета. То, что
Facebook рекомендует матерям
Вторая проблема — рекомендательные алгоритмы помещают
пользователя в информационный пузырь. Возможно, у вас так, что вы
рассказывали другу о той истории, которую в вашем Facebook
обсуждают третий день, а он не слышал об этом. Его лента новостей
выглядит иначе — в ней нет тех споров, которые занимают вас и ваше
окружение, но есть другие, по его интересам. Ни вы, ни ваш друг не
идете целенаправленно искать что-то совсем другое. Соцсети,
показывающие нам контент, который соответствует нашим
предубеждениям, ускоряют поляризацию общества. Сегодня американцы
более поляризованы, чем когда-либо, — по крайней мере, по некоторым
параметрам,
Анастасия Акулова
Комментарии