Русские Вести

Робот-кадровик Амазон дискриминирует женщин


Корпорация Амазон столкнулась с очередным скандалом в сфере труда: выяснилось, что автоматический алгоритм, который подбирает сотрудников на основе машинного обучения, не любит женщин и предпочитает нанимать мужчин:

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

По сведениям Reuters, проект автоматического подбора претендентов на работу в Амазон был запущен в 2014 году. В алгоритм, с одной стороны, загружалась данные о соискателях, а с другой стороны, информация о том, кого именно в прошлом приняли на работу обычные кадровики.

Робот детально изучил массив информации и научился автоматически отбирать наиболее подходящих кандидатов, выставляя им оценки от одной до пяти звёзд (по той же шкале покупатели в Амазон выставляют оценки продуктам).

Однако уже в 2015 году стало ясно, что автоматический алгоритм оказался сексистом. Презирая принцип гендерной нейтральности, он упорно давал мужчинам более высокие оценки.

Причина этого достаточно очевидна: большинство работников в технологической отрасли — это мужчины. За редким исключением, именно они занимают в Amazon самые ответственные и высокооплачиваемые позиции. В общей сложности, мужчины составляют около 60% рабочей силы Амазона (в других технологических компаниях мужская доля ещё выше — 64% в Facebook, 68% — в Apple, 69% — в Google, 74% — в Microsoft).

Поскольку робот обучался на основе резюме нанятых сотрудников, он сделал соответствующие выводы: мужской пол является положительным признаком при приёме на работу, женский% — менее желательным.

Робота даже попытались специально настроить так, чтобы он менее негативно реагировал на слова «женщина» или «женский» в тексте резюме, но он всё равно предпочитал мужчин.

В итоге руководство Амазон решило отказаться отказаться от данного проекта, заявив, что компания поддерживает «разнообразие и равенство» (diversity and equality).

Это на самом деле не проблема ИИ, это проблема любой алгоритмической системы, которая не учитывает «неудобные» для многих современных политиков и активистов статистические закономерности. Аналогичные проблемы были с тестами на IQ, с образовательными требованиями, с психологическими тестами, ибо они все отсеивали слишком много женщин и представителей различных меньшинств.

К сожалению, рано или поздно это закончится тем, как минимум на Западе, что в автоматические системы будут введены ограничения, которые будут производить «обратную дискриминацию», то есть отдавать предпочтения различным меньшинствам. Это тоже вряд ли можно считать по-настоящему справедливым решением.

Финист Фролов

Источник: finfront.ru