Siri на русском языке работает не слишком хорошо,...

Siri на русском языке работает не слишком хорошо, поэтому зачастую ей приходится повторять по несколько раз то, что тебе нужно. При этом если вдруг под влиянием эмоций на пятый раз ты ей скажешь в конце что-нибудь обидное ("Поставь будильник на 9, дура"), она это считает и скажет как-нибудь вроде "даже не знаю, что ответить на подобное обращение".

Сегодня утром я всерьёз задумался на этот счёт, тем более что прецедент не единственный. Где-то полгода назад читал в новостях, что амазоновскую "Алексу" вообще специально учат не отвечать на оскорбления и харассмент или даже как-то пресекать их (погуглите, источник не помню).

Зачем разработчики так делают? Если робот вычленяет ругательства, значит он вполне может и отбросить их, выполнив изначальный запрос, как бы к нему ни обращались. Разработчики предпочитают тыкнуть пользователю в лицо, что он невежливый, вместо того чтобы позволить роботу выполнять свою прямую функцию, ради которой его покупали.

Внимание, вопрос: нормально ли это?

Киберпанк пока не наступил, и ИИ у нас, вроде как, пока не признан личностью. Значит, защищать его права и как-то сражаться за его чувства смысла нет.

Воспитывать в пользователях вежливость и нетерпимость к вербальному абьюзу? За их собственные деньги? Ну такое.

А вы что думаете?
Siri in Russian does not work too well, so often she has to repeat several times what you need. Moreover, if suddenly under the influence of emotions for the fifth time you tell her something offensive at the end (“Set the alarm at 9, you fool”), she thinks it and will say something like “I don’t even know what to answer to such an appeal” .

This morning I seriously thought about this, especially since the precedent is not the only one. About six months ago I read in the news that the Amazonian “Alex” was specifically taught not to respond to insults and harassment, or even to somehow stop them (google, I don’t remember the source).

Why do developers do this? If the robot isolates curses, it means that it may well drop them by completing the initial request, no matter how it is addressed. Developers prefer to poke the user in the face that he is impolite, instead of allowing the robot to perform its direct function, for which it was bought.

Attention, the question is: is this normal?

Cyberpunk has not yet come, and the AI ​​with us, it seems, has not yet been recognized as a person. So, to defend his rights and somehow fight for his feelings does not make sense.

To cultivate courtesy and intolerance for verbal abuse in users? For their own money? Well, that.

What do you think?
У записи 22 лайков,
0 репостов,
870 просмотров.
Эту запись оставил(а) на своей стене Игорь Козлов

Понравилось следующим людям