Извините, но тут ничего не будет про новый...

Извините, но тут ничего не будет про новый год. Я терпеть не могу этот праздник и стараюсь его игнорировать. Будет про дискриминацию и машинное обучение.
У меня в ленте был пост про алгоритмы, которые при принятии решений учитывают пол, расу и т.п., и в результате дискриминируют определенные группы. В комментарии понабежали всякие технари (в какой момент они вместо in-group стали для меня out-group?) и стали говорить о том, что тупые политкорректные морализаторы довели все до абсурда, и что, конечно, machine learning и bias понятия несовместимые, решения рекомендуемые алгоритмами оптимальные с рациональной точки зрения, и все в таком духе.

Все это говорится с плохо скрываемым презрением и чувством несомненного интеллектуального превосходства. Которое особенно нелепо смотрится с учетом того, что никакого превосходства нет и что они не способны увидеть довольно тривиальные вещи.

Тут сейчас будет небольшая модель. Новый год, 3 часа ночи, все такое, так что вы простите меня за ее несовершенство. Пусть у нас есть две группы людей, А и Б. Начальная производительность труда в этих группах распределена нормально и одинаково. Пусть теперь мы можем продвинуть какую-то часть из этих людей и увеличить их начальную производительность в два раза. Если нас интересует суммарная производительность, то нам, разумеется, выгодно продвинуть людей с максимальной начальной производительностью независимо от того из группы А они или Б. Продвигая человека с производительностью 0.1 мы выигрывает 0.1, продвигая человека с производительность 4, мы выигрываем в 40 раз больше.

Предположим, что наблюдать мы можем только итоговую производительность (начальную + продвижение) и не знаем, кто именно был продвинут, а кто нет. Тогда если исторически группа Б продвигалась гораздо чаще другой, то наблюдаемая производительность этой группы будет выше. Тут приходят наши технари любители машинного обучения, которые ничего не знают и не хотят знать про неравенство, механизмы его воспроизводства и все такое, строят свой замечательный алгоритм на исторических данных, который говорит им, что в следующем поколении продвигать нужно группу Б. В результате такого продвижения в этом следующем поколении наблюдаемая производительность группы Б снова оказывается больше (сюрприз-сюрприз), круг замыкается, и мы оказываемся в ловушке воспроизводства неравенства. Как бы рациональный выбор, который однозначно диктуется алгоритмами, на самом деле вовсе не максимизирует производительность.

Несложно заметить, что именно это и происходит в нашем обществе. Например, из-за того, что женщинам был ограничен доступ к образованию и различным видам деятельности, мы недосчитались огромного количества выдающихся ученых, деятельниц искусства и т.д. Человечество в целом потеряло очень многое. И если доверить принятие решений недалеким людям, научившимся делать gradient descent, мы будем продолжать многое терять.
Sorry, but there will be nothing about the new year. I can not stand this holiday and try to ignore it. It will be about discrimination and machine learning.
I had a post in the ribbon about algorithms that take gender, race, etc., when making decisions, and as a result discriminate certain groups. In the comments, any techies were ponaberable (at what point did they replace the out-group for me in-group?) And began to say that stupid politically correct moralizers brought everything to absurdity, and that, of course, machine learning and bias are incompatible concepts, solutions recommended by algorithms optimal from a rational point of view, and stuff like that.
 
All this is said with ill-concealed contempt and a sense of undoubted intellectual superiority. Which looks especially ridiculous given the fact that there is no superiority and that they are not able to see rather trivial things.
 
There will now be a small model. New Year, 3 o'clock in the morning, all that, so you forgive me for its imperfection. Suppose we have two groups of people, A and B. The initial labor productivity in these groups is distributed normally and equally. Let now we can promote some part of these people and increase their initial productivity twice. If we are interested in total productivity, then it is, of course, advantageous for us to promote people with maximum initial productivity, regardless of whether they are from group A or B. By promoting a person with a productivity of 0.1, we win 0.1, by promoting a person with productivity 4, we win 40 times more.
 
Suppose that we can only observe the final performance (initial + promotion) and do not know who exactly was promoted and who was not. Then, if historically group B advanced more often than the other, then the observed performance of this group will be higher. Here, our techies come to machine learning enthusiasts who know nothing and do not want to know about inequality, the mechanisms of its reproduction and all that, build their remarkable algorithm on historical data, which tells them that in the next generation you need to promote group B. As a result of this advancing in this next generation, the observed performance of group B is again greater (surprise-surprise), the circle closes, and we find ourselves trapped in the reproduction of inequality. As if a rational choice, which is uniquely dictated by algorithms, in fact does not at all maximize productivity.
 
It is easy to see that this is exactly what is happening in our society. For example, due to the fact that women had limited access to education and various types of activities, we have missed a huge number of eminent scientists, artists, etc. Humanity as a whole has lost a lot. And if we entrust decision making to minded people who have learned to make gradient descent, we will continue to lose a lot.
У записи 48 лайков,
5 репостов,
1347 просмотров.
Эту запись оставил(а) на своей стене Иван Смирнов

Понравилось следующим людям