Подрывные технологии распознавания лиц ????
Вокруг темы распознавания лиц и информации, полученной на этой основе, кипит много дискуссий. Основной аргумент против — это нарушение приватности и страх манипуляций. В экстремальных случаях в потенциале это может зайти до гонений на почве нетерпимости: в контексте нетрадиционных сексуальных ориентаций, например.
Некий стэнфордский профессор Михаль Козински на основе нейронных сетей построил «гейдар». Эта штука по фоткам лица определяет сексуальную ориентацию. Алгоритм обучался на онлайн-сайтах знакомств. Его достижения такие: он дает 91% точности в случае мужчин и 83% с женщинами. Для анализа было достаточно проанализировать пару-тройку фоток одного человека.
Если технология станет доступной в нелиберальных странах — особенно там, где свирепствует нетерпимость, она может угрожать даже личной безопасности.
Какой бы ни была скользкой тема и сколько препятствий бы ни ставилось для развития подобных технологий, тем не менее будущее за алгоритмами, которые скоро будут знать нас лучше, чем мы себя сами.
Но сами технологии нейтральны. Вопрос как их использовать — во благо или деструктивно.
Вокруг темы распознавания лиц и информации, полученной на этой основе, кипит много дискуссий. Основной аргумент против — это нарушение приватности и страх манипуляций. В экстремальных случаях в потенциале это может зайти до гонений на почве нетерпимости: в контексте нетрадиционных сексуальных ориентаций, например.
Некий стэнфордский профессор Михаль Козински на основе нейронных сетей построил «гейдар». Эта штука по фоткам лица определяет сексуальную ориентацию. Алгоритм обучался на онлайн-сайтах знакомств. Его достижения такие: он дает 91% точности в случае мужчин и 83% с женщинами. Для анализа было достаточно проанализировать пару-тройку фоток одного человека.
Если технология станет доступной в нелиберальных странах — особенно там, где свирепствует нетерпимость, она может угрожать даже личной безопасности.
Какой бы ни была скользкой тема и сколько препятствий бы ни ставилось для развития подобных технологий, тем не менее будущее за алгоритмами, которые скоро будут знать нас лучше, чем мы себя сами.
Но сами технологии нейтральны. Вопрос как их использовать — во благо или деструктивно.
Disruptive face recognition technology ????
Around the topic of face recognition and information obtained on this basis, there is a lot of discussion. The main argument against this is a violation of privacy and fear of manipulation. In extreme cases, in potential this can go as far as intolerance: in the context of non-traditional sexual orientations, for example.
A certain Stanford professor Michal Kozinski built a “geydar” based on neural networks. This thing on the photos of the face determines sexual orientation. The algorithm was trained on online dating sites. His achievements are as follows: he gives 91% accuracy in the case of men and 83% with women. For analysis it was enough to analyze a couple of pictures of one person.
If technology becomes available in illiberal countries - especially where intolerance is rampant, it could even threaten personal safety.
No matter how slippery the topic is and how many obstacles may be posed for the development of such technologies, nonetheless, the future lies with algorithms that will soon know us better than ourselves.
But the technology itself is neutral. The question is how to use them - for good or destructively.
Around the topic of face recognition and information obtained on this basis, there is a lot of discussion. The main argument against this is a violation of privacy and fear of manipulation. In extreme cases, in potential this can go as far as intolerance: in the context of non-traditional sexual orientations, for example.
A certain Stanford professor Michal Kozinski built a “geydar” based on neural networks. This thing on the photos of the face determines sexual orientation. The algorithm was trained on online dating sites. His achievements are as follows: he gives 91% accuracy in the case of men and 83% with women. For analysis it was enough to analyze a couple of pictures of one person.
If technology becomes available in illiberal countries - especially where intolerance is rampant, it could even threaten personal safety.
No matter how slippery the topic is and how many obstacles may be posed for the development of such technologies, nonetheless, the future lies with algorithms that will soon know us better than ourselves.
But the technology itself is neutral. The question is how to use them - for good or destructively.
У записи 11 лайков,
0 репостов,
476 просмотров.
0 репостов,
476 просмотров.
Эту запись оставил(а) на своей стене Денис Буркацкий