Навигация

Итоги года

Другие ссылки


Реклама

Счётчики


Самоуправляющиеся автомобили и этика

28.10.2015 Среда 15:14

Сейчас поучаствовал в контакте в интересной дискуссии, касающейся столь стремительно развивающейся прямо у нас на глазах индустрии самоуправляемых автомобилей. Там подняли вопрос, который мне до этого совершенно не приходил в голову. Суть следующая. Понятно, что прогресс в этой области налицо, и рано или поздно автомобили будут ездить полностью сами. При этом, я уверен, что они будут делать это намного более безопасно, чем люди. Особенно если по дорогам будут ездить только самоуправляемые машины. Но тут возникает интересный момент. Допустим, самоуправляемая машина попадает в аварийную ситуацию, в которой есть только два выхода: или убить внезапно выбежавшего на дорогу ребёнка, но спасти водителя, или направить машину в дорогу/столб/бензовоз и убить водителя, но спасти жизнь ребёнку. Что ему делать? Ответ на этот вопрос, как нетрудно догадаться, придётся давать не компьютеру, а людям, которые его программируют. И как им его "правильно запрограммировать"?

На самом деле, я думаю, перед компьютером такой судьбоносный выбор будет стоять на несколько порядков реже, чем перед человеком. Ибо быстродействие и способность анализировать ситуацию, имеющую место не только непосредственно перед автомобилем, а вообще везде в зоне видимости, даёт автомобильному компьютеру существенное преимущество перед человеческим мозгом в плане прогнозирования развития ситуации. Это так же как программирование компьютера для игры в комбинаторные игры — шахматы, например. Человек в таких играх, конечно, на многое способен, но перед прямым перебором вариантов, осуществляемым с огромной скоростью, он бессилен. Так же и при вождении автомобиля — компьютер сможет не попасть в 98% аварийных ситуаций, в которые человек бы попал. Но в остальных двух процентах случаев выбор о том, кого убить, а кого оставить в живых, ему придётся делать, это да. Точнее, опять же, не ему, а программисту. И это действительно проблема. Этическая.

#1 Alexp
28.10.2015 Среда 15:53

Ну разве это проблема? Проблема, это когда на дороге внезапно возникают ребёнок, негр и гей и объехать их невозможно. И кого тогда давить? ...А если это один человек? :D

#2 Escaper
28.10.2015 Среда 18:20

Для таких ситуаций должна быть предусмотрена система экстренного самоуничтожения.

#3 Escaper
28.10.2015 Среда 18:23

В контакте интересный сценарий предложили. Способ сводить счёты при помощи интеллектуальных машин. :)

1. В робомашине едет человек, которого я хочу убить.
2. Я узнаю маршрут машины.
3. Беру 5 детей и вместе с ними в охапку выбегаю перед машиной.
4. Робот принимает решение: 6>1 и сворачивает в обрыв
5. ???
6. PROFIT

#4 Escaper
28.10.2015 Среда 18:25

Интересно, будет ли этичным такое решение. Компьютер должен сосчитать количество людей, внезапно появивишихся на дороге, и сравнить его с количеством людей в машине. И тупо принять решение, в котором пострадают потенциально меньше людей. А если количество людей одинаково и там, и там, использовать генератор случайных чисел, чтобы выбрать случайную жертву. :)

#5 тов.Коллега
29.10.2015 Четверг 17:47

Такие машины обязательно будут ограничены по скорости. Я бы сделал 50 км/ч. На такой скорости запрограммироваться врезаться в столб/обрыв , и водитель останется живым даже при современной системе безопасности машины, не говоря уже о будущей.
Выбор появляется, когда у столба n+1 человек, т.е. давить выбежавшего или стоя́щих.