#МыслиВслух Мечтают ли алгоритмы об электроюзерах? Ну, хорошо,...

#МыслиВслух

Мечтают ли алгоритмы об электроюзерах?

Ну, хорошо, скажете вы, чисто на интуитивном уровне все эти уловки, так или иначе, считываются, и всё это, скорее, признаки сетевой монополии, чем какая-то цифровая антиутопия, и существует же, в конце концов, антимонопольное регулирование или пытаются же контролировать тот же Facebook, обязывая его хранить данные российских пользователей на территории РФ, есть вообще китайский путь с полным запретом зарубежных IT-гигантов. Да, всё это действительно есть, но, по сути, ничего не меняет.

Опасность больших интернет-компаний в том, что гигантские массивы данных, которые те аккумулируют, наделяют их слишком большой властью, и не так важно в чьих конкретно руках эта власть в итоге окажется сосредоточена. Злоупотреблять ею может кто угодно, кто заинтересован в мощном инструменте пропаганды и социального манипулирования. Ведь не секрет, что многие алгоритмы, отвечающие за то, что показывать каждому конкретному пользователю, работают на базе машинного обучения, а, значит, непрозрачны. Они обучаются на массиве имеющихся данных, анализируют закономерности внутри этих данных и потом применяют эти закономерности уже к новой поступающей информации. Короче говоря, если нужно заставить юзера кликнуть на рекламу, пост или рекомендованное видео, алгоритм это сделает, но чем он при этом будет руководствоваться никому не известно. Еще один аспект осветил в своей новой книге "21 урок для XXl века" известный нынче израильский историк-футуролог Юваль Ной Харари. Там есть интересные измышления на тему автоматизации и алгоритмов, в том числе и про новую потенциальную проблему - индивидуальную дискриминацию. Это такое необычное явление будущего, когда алгоритмы на базе машинного обучения, скажем, будут отказывать вам во время поиска работы по каким-то критериям - вот только непонятно это объективные критерии или это критерии, в которых есть дискриминационный момент. Поскольку алгоритмы непрозрачны, вы не сможете это выяснить и, соответственно, не можете подать в суд.

В общем, это такой сложный математический черный ящик, чьё содержимое неподвластно даже программисту, его написавшему. Это создаёт ситуацию, при которой в случае злоупотребления такими технологиями распознать сие практически невозможно, а сценарий недобросовестного использования придумать довольно легко, ведь манипулируя новостным потоком, можно, например, заставить человека симпатизировать определенным брендам - и это в лучшем случае. А в худшем - например, политикам или общественным деятелям. Или, наоборот, сделать так, чтобы все ополчились на кого-то конкретного - да-да, опять "Черное зеркало"! Часто подобные манипуляции настолько утонченны, что едва заметны. Три года назад перед избранием нового президента Америки предвыборная кампания Трампа в Facebook была нацелена не столько на публикацию компромата на Хиллари Клинтон (хотя и на это тоже), но, по большей части, на то, чтобы уговорить сомневающийся электорат просто не прийти на выборы, убедить их в том, что их голос ничего не решает, и лучше сидеть дома. В итоге чашу весов в пользу республиканцев склонили всего какие-то 100000 голосов...

Алгоритмы на базе машинного обучения уже сейчас, анализируя посты в соцсетях, могут ставить медицинские диагнозы их авторам, определять их политическую позицию и даже сексуальную ориентацию. И не трудно представить, что такая информация может использоваться как инструмент шантажа. Печальность ситуации в том, что благодаря маркетингу мы продолжаем верить в этот технологический миф о том, что все на свете обязательно требует некоего технологического решения, и продолжаем обвешивать себя умными часами, браслетами, ставить какие-то новые приложения, с оптимизмом ждем интернет-вещей будущего, ну а потом с упоением смотрим презентации, чтобы нам объяснили зачем все это нужно. Эта беда формулируется выражением "Solution in Search of a Problem" ("Решение в поиске проблемы"). По факту же, мы ничего не решаем, а просто приумножаем свой так называемый Digital Footprint, тот самый массив персональных данных, даже обсуждая эту насущную проблему здесь, в соцсети.

Многие известные антиутопии неслучайно используют образ книги. Тоталитарная власть те запрещает, сжигает и так далее. Но, на самом деле, это ведь не столько книга сколько метафора способности и желания человека заглянуть сквозь эти наросты технологической гиперреальности на истинную природу вещей. И пока что правы оказываются писатели вроде Хаксли, предполагавшие, что люди откажутся от книг добровольно, променяв их на технологические удобства и досуг, и не заметят как сами запрут себя в цифровой матрице. Впрочем, есть мнение, что настоящие проблемы начнутся потом, когда технологические компании смогут и вовсе обходиться без пользователей, когда все необходимые для монетизации данные будут собираться в пассивном режиме сенсорами в каждом квадратном сантиметре вашего окружения. Так или иначе, всё идёт к тому, что каждый человек в обозримом будущем будет вынужден выбирать себе место в новой цифровой экономике, если, конечно, к тому времени технологии еще не лишат его этого выбора...
#Thinking out loud

Do algorithms dream of electric use?

Well, okay, you say, purely on an intuitive level, all these tricks are read, one way or another, and all these are more likely signs of a network monopoly than some kind of digital dystopia, and there is, after all, antitrust regulation or trying To control the same Facebook, obliging it to store the data of Russian users on the territory of the Russian Federation, there is generally a Chinese way with a complete ban on foreign IT giants. Yes, all this really exists, but, in fact, it does not change anything.

The danger of large Internet companies is that the gigantic amounts of data that they accumulate endow them with too much power, and it is not so important in whose particular hands this power will end up concentrated. It can be abused by anyone interested in a powerful tool of propaganda and social manipulation. It's no secret that many of the algorithms responsible for what to show to each specific user are based on machine learning, and, therefore, are opaque. They are trained on the array of available data, analyze the patterns within this data and then apply these patterns to new incoming information. In short, if you need to force a user to click on an advertisement, post or recommended video, the algorithm will do it, but no one knows what will guide him. Another aspect was highlighted in his new book "21 Lessons for the XXl Century" by the famous Israeli futurist historian Yuval Noah Harari. There are interesting fabrications on the topic of automation and algorithms, including about a new potential problem - individual discrimination. This is such an unusual phenomenon of the future, when algorithms based on machine learning, for example, will refuse you while searching for a job according to some criteria - only it is not clear whether these are objective criteria or these are criteria in which there is a discriminatory moment. Since the algorithms are opaque, you won't be able to figure it out and, therefore, you can't sue.

In general, this is such a complex mathematical black box, whose contents are beyond the control of even the programmer who wrote it. This creates a situation in which, in the event of abuse of such technologies, it is almost impossible to recognize this, and it is quite easy to come up with an unfair use scenario, because by manipulating the news stream, you can, for example, make a person sympathize with certain brands - and this is at best. And at worst - for example, politicians or public figures. Or, on the contrary, to make everyone take up arms against someone specific - yes, the Black Mirror again! Often such manipulations are so subtle that they are barely noticeable. Three years ago, before the election of the new president of America, Trump's Facebook campaign was aimed not so much at publishing incriminating evidence on Hillary Clinton (although this too), but, for the most part, at persuading the doubting electorate to simply not come to the polls. convince them that their voice does not solve anything, and it is better to stay at home. As a result, only some 100,000 votes tipped the balance in favor of the Republicans ...

Algorithms based on machine learning now, analyzing posts in social networks, can diagnose their authors with medical diagnoses, determine their political position and even sexual orientation. And it is not difficult to imagine that such information can be used as a tool of blackmail. The sadness of the situation is that, thanks to marketing, we continue to believe in this technological myth that everything in the world necessarily requires some kind of technological solution, and we continue to weigh ourselves with smart watches, bracelets, put some new applications, we are optimistic about Internet of things of the future, and then we enthusiastically watch the presentations to explain to us why all this is needed. This misfortune is formulated by the expression "Solution in Search of a Problem" ("Solution in search of a problem"). In fact, we do not solve anything, but simply multiply our so-called Digital Footprint, the very array of personal data, even discussing this pressing problem here on the social network.

Many famous dystopias use the image of a book for a reason. The totalitarian government forbids those, burns them, and so on. But, in fact, this is not so much a book as a metaphor for a person's ability and desire to look through these outgrowths of technological hyperreality at the true nature of things. And so far, writers like Huxley are right, assuming that people will give up books voluntarily, exchanging them for technological conveniences and leisure, and will not notice how they themselves will lock themselves in a digital matrix. However, it is believed that the real problems will begin later, when technology companies can do without users altogether, when all the data necessary for monetization will be collected passively by sensors in every square centimeter of your environment. One way or another, everything goes to the fact that every person in the foreseeable future will
У записи 2 лайков,
0 репостов,
151 просмотров.
Эту запись оставил(а) на своей стене Michael Polishchuk

Понравилось следующим людям