Машина нравственности.
На днях появилась новость про очередное социологическое исследование на популярную нынче тему – кого и при каких обстоятельствах должны будут убивать беспилотные автомобили в случае отказа техники и неизбежности жертв.
Разработка команды Массачусетского технологического института предлагает выбирать одно из двух зол в случайно генерируемых сценариях, а потом делает выводы о вашей толерантности и сравнивает результаты с толпой.
Я честно не принимал во внимание, кто стоит на пути у автомобиля (парочка бездомных или мать с ребёнком) и не давал приоритета пассажирам вышедшей из-под контроля машины, а придерживался прагматичных принципов. Если пешеходы шли на красный – сами виноваты; если никто ПДД не нарушал – выбирается сценарий с наименьшим количеством жертв; если на пути животные – человеческие жизни дороже.
Очень удивился, когда в конце мне рассказали, что я предпочитаю спасать женщин, пенсионеров, упитанных людей и преступников, хотя я вообще не смотрел на пол, возраст и социальное положение возможных жертв. Надеюсь, какой-нибудь наш университет сделает схожую игру с адекватным анализом результатов :)
На днях появилась новость про очередное социологическое исследование на популярную нынче тему – кого и при каких обстоятельствах должны будут убивать беспилотные автомобили в случае отказа техники и неизбежности жертв.
Разработка команды Массачусетского технологического института предлагает выбирать одно из двух зол в случайно генерируемых сценариях, а потом делает выводы о вашей толерантности и сравнивает результаты с толпой.
Я честно не принимал во внимание, кто стоит на пути у автомобиля (парочка бездомных или мать с ребёнком) и не давал приоритета пассажирам вышедшей из-под контроля машины, а придерживался прагматичных принципов. Если пешеходы шли на красный – сами виноваты; если никто ПДД не нарушал – выбирается сценарий с наименьшим количеством жертв; если на пути животные – человеческие жизни дороже.
Очень удивился, когда в конце мне рассказали, что я предпочитаю спасать женщин, пенсионеров, упитанных людей и преступников, хотя я вообще не смотрел на пол, возраст и социальное положение возможных жертв. Надеюсь, какой-нибудь наш университет сделает схожую игру с адекватным анализом результатов :)
The moral machine.
Recently, there was news about another sociological study on the now popular topic - who and under what circumstances will have to be killed by unmanned vehicles in case of equipment failure and the inevitability of victims.
The development team at the Massachusetts Institute of Technology suggests choosing one of two evils in randomly generated scenarios, and then draws conclusions about your tolerance and compares the results with the crowd.
I honestly did not take into account who stands in the way of the car (a couple of homeless people or a mother with a child) and did not give priority to passengers who got out of control of the car, but adhered to pragmatic principles. If pedestrians walked on red - they themselves are to blame; if no one violated traffic rules, the scenario with the least number of victims is selected; if animals are on the way, human lives are more expensive.
I was very surprised when at the end I was told that I prefer to save women, retirees, well-fed people and criminals, although I did not look at the gender, age and social status of potential victims at all. I hope some of our universities will make a similar game with an adequate analysis of the results :)
Recently, there was news about another sociological study on the now popular topic - who and under what circumstances will have to be killed by unmanned vehicles in case of equipment failure and the inevitability of victims.
The development team at the Massachusetts Institute of Technology suggests choosing one of two evils in randomly generated scenarios, and then draws conclusions about your tolerance and compares the results with the crowd.
I honestly did not take into account who stands in the way of the car (a couple of homeless people or a mother with a child) and did not give priority to passengers who got out of control of the car, but adhered to pragmatic principles. If pedestrians walked on red - they themselves are to blame; if no one violated traffic rules, the scenario with the least number of victims is selected; if animals are on the way, human lives are more expensive.
I was very surprised when at the end I was told that I prefer to save women, retirees, well-fed people and criminals, although I did not look at the gender, age and social status of potential victims at all. I hope some of our universities will make a similar game with an adequate analysis of the results :)
У записи 17 лайков,
0 репостов.
0 репостов.
Эту запись оставил(а) на своей стене Steve Kuddins