Сексизм, расизм и другие формы дискриминации уже встроены в алгоритмы машинного обучения, которые определяют, как нас категоризировать и что нам рекламировать.

По мнению некоторых выдающихся фигур из мира технологий, искусственный интеллект может угрожать существованию человечества: предупреждение от таких корифеев, как Элон Маск и Бостром, по «сингулярности» - когда машины станут умнее, чем люди - привлекли миллионы долларов и породили множество конференций.

Но это беспокойство только отвлекает от вполне реальных проблем, связанных с искусственным интеллектом, которые уже сегодня углубляют неравенство на рабочих местах, дома, в наших правовых и судебных системах. Сексизм, расизм и другие формы дискриминации уже встроены в алгоритмы машинного обучения, которые лежат в основе многих «умных» систем, определяющих, как нас категоризировать и что нам рекламировать.

Возьмем маленький пример, который произошел в прошлом году: пользователи заметили, что фотодополнение от Google, который автоматически прикрепляет метки к фотографиям в цифровых альбомах, классифицировал изображение темнокожих людей как горилл. Google извинился и сказал, что это было непреднамеренно.

Но похожи ошибки возникали и в программном обеспечении камеры Nikon, которой показалось, что азиаты на фотографиях моргают. Веб-камера Hewlett-Packard также имела проблемы с распознаванием людей с темными оттенками кожи. По сути, эта проблема наборов данных. Разработчики учат алгоритмы, пропуская сквозь них определенные изображения, которые часто выбирают инженеры, - и система строит модель мира на основе этих изображений. Если система учится на фото, подавляющее большинство которых - это изображение белых людей, то ей будет сложнее распознать небелые лица.

Очень серьезный пример был обнаружен в расследовании, опубликованном ProPublica в прошлом месяце. Оно показало, что очень распространено программное обеспечение, которое оценивает риск рецидивизма среди преступников, во вдвое большей вероятностью ошибочно определяло темнокожих обвиняемых как имеющих высокий риск совершить преступление в будущем. Белые обвиняемые также вдвое чаще ошибочно были оценены как имеющие меньший риск рецидива.

До сих пор неизвестно, почему эти предсказания настолько неточны, поскольку компании, отвечающие за эти алгоритмы, держат формулы в тайне и частную интеллектуальную собственность. Судьи по-разному учитывают автоматизированные оценки риска - некоторые совсем на них не обращает внимания - но, в любом случае, у них нет возможности понять логику, которой руководствуются эти машинные алгоритмы. Полицейские участки по всей территории США также используют основанные на данных средства для предсказания рисков в рамках основанных на прогнозах мероприятий по предупреждению преступлений. Во многих городах, в частности в Нью-Йорке, Лос-Анджелесе, Чикаго и Майами, программное обеспечение анализирует большие массивы исторических данных о преступности и использует их для предсказания возможных криминальных «горячих точек». Именно в эти кварталы затем направляют полицию.

По меньшей мере, это программное обеспечение рискует усилить уже имеющееся порочный круг, в котором полиция увеличивает свое присутствие в тех же местах, где она уже и так (иногда чрезмерно) присутствует, тем самым гарантируя, что еще больше арестов состоятся именно в этих районах. В США это может привести к усилению надзора в традиционно бедных, «небелых» районах, в то время как богатые и «белые» районы будут проверять еще менее тщательно. Качество прогностических программ зависит от качества баз данных, на которых они «натренированные» - а эти данные имеют сложную историю.

История дискриминации может храниться на цифровых платформах, и если ее не проверяют, она становится частью логики повседневных алгоритмических систем. Недавно состоялся очередной скандал: оказалось, что доставка Amazon, которая выполняет заказы в тот же день, была недоступна для почтовых индексов в основном «черных» кварталов. Эти проигнорированы районы были удивительно похожи на тех, которые пострадали от массового отказа предоставлять ипотечные кредиты в середине ХХ века. Amazon пообещал исправить несправедливость, но это еще одно подтверждение того, что системное неравенство может влиять на машинный интеллект.

Также существуют случаи гендерной дискриминации. В июле прошлого года исследователи из университета Карнеги-Меллон выяснили, что Google реже показывает рекламу высокооплачиваемой работы женщинам, чем мужчинам. Из-за сложности алгоритмов, которые показывают целевую рекламу пользователям, трудно сказать, почему так произошло: это рекламные агентства предпочитают именно мужчинам, или это непреднамеренный результат работы алгоритмов, сообщает newsli.ru.

Как бы то ни было, такие недостатки в алгоритмах сложно выявить: ведь как женщина может подаваться на вакансии, которые она никогда не увидит? Как может темнокожая община обнаружить, что избыток полиции вызванный решением программного обеспечения? Мы должны быть бдительными с тем, как мы разрабатываем эти системы машинного обучения и данные вкладываем в них, иначе рискуем развить формы дискриминации, встроенные в искусственный интеллект будущего.

Как и все технологии во все времена, искусственный интеллект отражает ценности своих создателей. Поэтому важна инклюзивность на всех уровнях - от тех, кто проектирует технологию, к тем, кто входит в совет директоров - и выбор этических перспектив, которые при этом будут учтены. Иначе мы рискуем сконструировать искусственный интеллект, который отражает взгляды узкого привилегированного слоя общества, полного старых и таких привычных стереотипов.

Если мы уже сейчас выясним, как такие системы могут поддерживать дискриминацию, то в будущем мы сможем проектировать значительно более справедливый искусственный интеллект. Но это требует гораздо большей подотчетности от технологического сообщества. Государство и общественные институты также должны сыграть свою роль: не только инвестировать в прогностические технологии, но и следить за справедливостью и соблюдением надлежащих процедур.

Хотя технологии машинного обучения могут предложить неожиданные идеи и новые удобства, все мы должны работать над текущими последствиями такого прогресса для общин, которые имеют меньше влияния - для тех, кто не доминирует среди элиты Кремниевой долины. Сейчас в дискуссиях на тему потенциальных угроз искусственного интеллекта громче слышны голоса привилегированных белых мужчин, для которых наибольшим риском действительно потенциальное становления искусственного интеллекта доминантного хищника.

Но для тех, кто и так есть являются жертвами маргинализации и предубеждения, угроза уже воплощается в жизнь.