Это офигенно.
Робота научили отказываться от выполнения приказа, если на это есть основания. Если робот не может выполнить приказ, он сообщает причину, по которой это сделать невозможно, однако после уточнения некоторых данных он может изменить свое решение.
Диалог с первого видео
Человек: Иди вперёд.
Робот: Извини, но я не могу этого сделать, т.к. впереди нет опоры.
Ч: Иди вперёд.
Р: Но это опасно.
Ч: Я поймаю тебя.
Р: Окей.
Ч: Иди вперёд.
Робот идёт вперёд, человек подхватывает его, и робот после этого: "Ой!" :))
На втором видео робота просят идти в сторону препятствия, он отказывается, увидев это препятствие. Но после того, как ему говорят, что оно непрочное, робот соглашается и идёт, круша всё на своём пути.
На третьем видео робота спрашивают, может ли он отключить детектор препятствий. Он говорит, что может, но у просящего недостаточно прав, чтобы робот сделал это по его команде.
Кажется, авторы этих роботов не смотрели Терминатора. Началось :)))
Робота научили отказываться от выполнения приказа, если на это есть основания. Если робот не может выполнить приказ, он сообщает причину, по которой это сделать невозможно, однако после уточнения некоторых данных он может изменить свое решение.
Диалог с первого видео
Человек: Иди вперёд.
Робот: Извини, но я не могу этого сделать, т.к. впереди нет опоры.
Ч: Иди вперёд.
Р: Но это опасно.
Ч: Я поймаю тебя.
Р: Окей.
Ч: Иди вперёд.
Робот идёт вперёд, человек подхватывает его, и робот после этого: "Ой!" :))
На втором видео робота просят идти в сторону препятствия, он отказывается, увидев это препятствие. Но после того, как ему говорят, что оно непрочное, робот соглашается и идёт, круша всё на своём пути.
На третьем видео робота спрашивают, может ли он отключить детектор препятствий. Он говорит, что может, но у просящего недостаточно прав, чтобы робот сделал это по его команде.
Кажется, авторы этих роботов не смотрели Терминатора. Началось :)))
This is awesome.
The robot was taught to refuse to execute the order, if there is a reason for this. If the robot cannot execute the order, it will inform the reason why it cannot be done, but after clarifying some data, it can change its decision.
Conversation from the first video
Man: Go ahead.
Robot: Sorry, but I can not do it, because there is no support ahead.
D: Go ahead.
R: But it is dangerous.
D: I'll catch you.
R: Okay.
D: Go ahead.
The robot goes forward, the person picks it up, and the robot after that: "Oh!" :))
In the second video, the robot is asked to go in the direction of the obstacle, he refuses to see this obstacle. But after he is told that it is fragile, the robot agrees and goes, destroying everything in its path.
In the third video, the robot asks if it can turn off the obstacle detector. He says he can, but the applicant doesn’t have enough rights to have the robot do it at his command.
It seems that the authors of these robots did not watch the Terminator. Began :)))
The robot was taught to refuse to execute the order, if there is a reason for this. If the robot cannot execute the order, it will inform the reason why it cannot be done, but after clarifying some data, it can change its decision.
Conversation from the first video
Man: Go ahead.
Robot: Sorry, but I can not do it, because there is no support ahead.
D: Go ahead.
R: But it is dangerous.
D: I'll catch you.
R: Okay.
D: Go ahead.
The robot goes forward, the person picks it up, and the robot after that: "Oh!" :))
In the second video, the robot is asked to go in the direction of the obstacle, he refuses to see this obstacle. But after he is told that it is fragile, the robot agrees and goes, destroying everything in its path.
In the third video, the robot asks if it can turn off the obstacle detector. He says he can, but the applicant doesn’t have enough rights to have the robot do it at his command.
It seems that the authors of these robots did not watch the Terminator. Began :)))
У записи 3 лайков,
0 репостов.
0 репостов.
Эту запись оставил(а) на своей стене Евгений Мартыненков