Моральные проблемы беспилотных автомобилей не имеют универсального решения

Рис. 1. Пример моральной дилеммы из проекта Moral Machine

Рис. 1. Пример моральной дилеммы из проекта Moral Machine. Пользователь решает, какой из двух вариантов должен выбрать беспилотный автомобиль в ситуации, когда жертв избежать невозможно

В ходе эксперимента Moral Machine были собраны мнения 2,3 млн людей из 233 стран о том, какими моральными принципами должны руководствоваться самоуправляемые автомобили в аварийных ситуациях, когда человеческих жертв избежать невозможно и нужно выбрать меньшее из зол. Респонденты из разных стран разошлись во мнениях по многим пунктам, таким как необходимость заботиться в первую очередь о спасении детей, женщин или тех, кто соблюдает правила дорожного движения. Выявленные различия коррелируют с известными экономическими и культурными особенностями стран и регионов. Исследование показало, что разработать универсальный «моральный закон» для самоуправляемых машин будет непросто.

Беспилотные автомобили, возможно, уже очень скоро начнут входить в наш обиход. Однако их разработка сталкивается с разнообразными моральными проблемами. В частности, неясно, как должны вести себя самоуправляемые автомобили в аварийных ситуациях, когда от решения, принятого искусственным интеллектом, зависит распределение рисков между людьми. Ожидается, что беспилотные автомобили будут попадать в такие ситуации реже, чем машины, управляемые живыми водителями. Но всё же иногда это обязательно будет происходить, а значит, искусственный интеллект должен быть готов к решению моральных дилемм в духе «Проблемы вагонетки».

Как именно он должен их решать — вопрос крайне непростой. Например, существует проблема конфликта интересов пассажиров и пешеходов. По мнению большинства людей, беспилотные автомобили должны ставить безопасность пешеходов выше безопасности пассажиров, однако те же самые люди скорее купят автомобиль, запрограммированный поступать ровно наоборот, то есть спасать пассажира любой ценой (J.-F. Bonnefon et al., 2016. The social dilemma of autonomous vehicles).

Разработчики искусственного интеллекта уже давно поняли, что простыми наборами лаконичных правил вроде Трех законов робототехники Айзека Азимова тут не обойтись. Правила должны быть достаточно сложными, чтобы справляться с ситуациями, когда невозможно полностью избежать вреда, причиняемого людям, и нужно этот вред как-то «оптимизировать», то есть наилучшим образом распределить между участниками инцидента.

Но существует ли в принципе такой набор этических правил для беспилотного автомобиля, который устроил бы всех? Одна из очевидных проблем состоит в том, что моральные нормы и системы ценностей, принятые в разных обществах, далеко не одинаковы. Разнообразие этических норм отражено, например, в «культурной карте мира Инглхарта-Вельцеля» (Inglehart-Welzel cultural map of the world; см. также: Всемирный обзор ценностей).

Чтобы оценить перспективы создания универсального «морального кода» для самоуправляемых машин, международная команда социологов, психологов и специалистов по искусственному интеллекту во главе с Иядом Рахваном (Iyad Rahwan) из Массачусетского технологического института запустила сетевой проект Moral Machine. Целью проекта является сбор мнений людей всего мира о том, какими моральными принципами должны руководствоваться беспилотные автомобили. Сайт проекта поддерживает 10 языков, имеет простой и понятный интерфейс и в целом рассчитан на охват максимально широкой выборки респондентов. Зайдя на сайт, любой желающий может ответить на ряд вопросов, подобных показанному на рис. 1.

Во всех случаях пользователь должен указать, как следует поступить беспилотному автомобилю в критической ситуации с участием двух групп людей (или домашних животных). Каждая из двух групп включает от 1 до 5 персонажей. В зависимости от принятого решения одна из групп погибнет, а другая будет спасена.

В каждой дилемме участвует едущий по дороге беспилотный автомобиль, у которого внезапно отказали тормоза, а перед ним кто-то переходит дорогу (либо «законно», как на рис. 1, либо «незаконно» — на красный свет). В одних дилеммах искусственный интеллект должен выбрать, какую из двух групп пешеходов сбить (а пассажирам при этом ничто не угрожает), в других выбор осуществляется между гибелью пассажиров и пешеходов, как на рис. 1.

Персонажи, участвующие в дилеммах, различаются по полу, возрасту (младенцы в колясках, дети, взрослые, пожилые), физической форме (люди с избыточным весом, обычные люди и спортсмены), социальному статусу (бездомные, обычные люди и начальники) и видовой принадлежности (кроме людей, среди персонажей встречаются собаки и кошки). Программа генерирует дилеммы на основе алгоритма, позволяющего при анализе ответов по отдельности оценить влияние следующих девяти факторов:
    1) действие или бездействие (продолжать движение по прямой или свернуть),
    2) пассажиры или пешеходы (кого из них спасать),
    3) пол жертв (спасать мужчин или женщин),
    4) физическая форма (спасать толстяков, обычных людей или спортсменов),
    5) социальный статус (спасать бездомных, простых людей или начальников),
    6) соблюдение правил (спасать ли тех, кто переходит дорогу на красный свет),
    7) возраст (спасать молодых или старых),
    8) число жертв (спасать большую или меньшую из двух групп),
    9) видовая принадлежность (спасать людей или домашних животных).

Возможных дилемм — миллионы, поэтому вероятность того, что пользователь дважды столкнется с одной и той же задачей, пренебрежимо мала.

Исследователям удалось собрать почти 40 млн ответов (решений отдельных дилемм) от жителей 233 стран. Кроме того, большинство участников заполнили анкету, в которой указали свой возраст, пол, образование, ежегодный доход, отношение к религии и политические взгляды.

Эти данные позволили исследователям решить четыре задачи:
    1) оценить значимость каждого из девяти факторов в среднем по всей выборке,
    2) сопоставить значимость факторов с индивидуальными характеристиками респондента,
    3) сравнить результаты по разным странам и выделить кластеры стран со сходными моральными установками,
    4) выяснить, можно ли по экономическим и культурным особенностям страны предсказать, как ее жители предпочли бы программировать беспилотные автомобили.

Усредненные предпочтения участников опроса показаны на рис. 2. Значимость факторов возрастает сверху вниз. Респонденты сделали уверенный выбор в пользу спасения людей (а не собак и кошек) и больших групп (а не маленьких). Эти результаты вряд ли кого-то удивят, хотя другие могут показаться более спорными. Почти столь же уверенно участники опроса «проголосовали» за спасение молодых, законопослушных (переходящих дорогу на зеленый свет) и высокостатусных людей. Менее значимыми, но все же положительными факторами оказались хорошая физическая форма и принадлежность к женскому полу. Кроме того, респонденты были в среднем чуть более склонны делать выбор в пользу пешеходов (а не пассажиров) и в пользу того, чтобы автомобиль продолжал ехать прямо, а не сворачивал на другую полосу.

Рис. 2. Усредненные предпочтения участников опроса

Рис. 2. Усредненные предпочтения участников опроса. Показаны девять исследуемых факторов в том же порядке, в каком они перечислены в тексте (начиная от выбора между действием и бездействием и заканчивая выбором между спасением домашних животных и людей). Длина синих полосок показывает, насколько вероятность выбора в пользу правого варианта превышает (при усреднении всех остальных факторов) вероятность выбора в пользу левого варианта. Например, вероятность того, что респондент предпочтет спасти молодых людей, превышает вероятность того, что он предпочтет спасти старых, на 0,49. Для восьмого фактора (число жертв) белыми кружками показаны значения для ситуаций, когда число спасаемых превышает число приносимых в жертву на 1, 2, 3 или 4 человека; белый кружок с синим ободком — среднее для всех четырех вариантов. Рисунок из обсуждаемой статьи в Nature

Исследователи не обнаружили достоверной связи между этическими предпочтениями респондентов и шестью учтенными индивидуальными характеристиками (пол, возраст, политические взгляды, религиозность, доход, образование). Всё это, как оказалось, мало влияет на моральный выбор.

Зато обнаружились интересные закономерности в распределении этических предпочтений по странам. В анализе было учтено 130 стран с числом респондентов не менее 100. Получившееся дерево сходства стран по моральным установкам (рис. 3, а) имеет много общего с упомянутой «культурной картой мира» Инглхарта-Вельцеля.

Рис. 3. Дендрограмма сходства 130 стран по этическим предпочтениям

Рис. 3. Дендрограмма сходства 130 стран по этическим предпочтениям, на которой выделяются три кластера: Западный, Восточный и Южный. Цвета, которыми набраны названия стран, соответствуют цветам «культурной карты мира» Инглхарта-Вейцеля. Три круговые диаграммы показывают этические предпочтения, характерные для каждого из трех кластеров, то есть степень важности девяти исследованных факторов при решении моральных дилемм (z-оценка: на сколько стандартных отклонений средняя величина для данного кластера отличается от средней по всей выборке). Видны контрастные различия между кластерами. Например, в странах Южного кластера сильны установки, требующие спасать в первую очередь женщин, детей и высокостатусных людей, тогда как жители стран Восточного кластера скорее отдадут предпочтение законопослушным (тем, кто переходит улицу на зеленый свет). Изображение из обсуждаемой статьи в Nature и из популярного синопсиса к ней

Все страны распались на три кластера, условно обозначенные исследователями как Западный, Восточный и Южный. Кластеры выглядят довольно логично с точки зрения истории и культуры. Западный кластер включает США, Канаду и многие европейские страны (католические, протестантские и православные). Подразделения внутри Западного кластера тоже выглядят более или менее осмысленными: например, одну ветвь образуют англоговорящие страны, другую — скандинавские с Германией, Швейцарией и Австрией. В Восточном кластере преобладают страны либо с конфуцианской, либо с мусульманской традицией. Южный кластер состоит из двух ветвей, одна из которых включает страны Латинской Америки, а вторая — Францию и ряд стран, находившихся в прошлом под французским влиянием.

Как показывают круговые диаграммы на рис. 3, для трех кластеров характерны очень разные представления о том, как должны вести себя беспилотные машины в критических ситуациях. Например, в Южном кластере преобладают идеи о необходимости спасать прежде всего детей и женщин, тогда как жители Восточного кластера отдают предпочтение законопослушным пешеходам и не ставят жизнь молодых намного выше жизни старших.

Эти результаты подчеркивают то, что уже давно известно специалистам по изучению человеческой морали: этические установки, принятые в разных странах и регионах, далеко не универсальны. Поэтому разработать единый «моральный закон» для управляемых искусственным интеллектом машин будет очень непросто.

Авторы обнаружили несколько интересных корреляций, проливающих свет на возможные причины выявленных различий между странами (рис. 4). Например, преобладание в стране индивидуалистских установок (что предполагает высокую ценность индивидуальной человеческой жизни) соотносится с тем, что люди придают большое значение числу потенциальных жертв аварии и считают, что беспилотный автомобиль обязательно должен минимизировать это число. Жители стран с сильными коллективистскими установками спокойнее относятся к числу жертв аварии. Кроме того, для «коллективистов» характерно почтительное отношение к старшим. Может быть, поэтому у них слабее выражена склонность к преимущественному спасению детей (рис. 4, а). Эти контрастные различия между индивидуалистическими и коллективистскими культурами наверняка создадут большие проблемы для разработчиков универсальной машинной этики.

Рис. 4. Корреляции между этическими предпочтениями жителей разных стран, выявленными в эксперименте Moral Machine

Рис. 4. Корреляции между этическими предпочтениями жителей разных стран, выявленными в эксперименте Moral Machine, и культурными и экономическими особенностями стран. Каждая точка соответствует одной стране; цвет точки (красный, синий или зеленый) отражает принадлежность страны к Западному, Восточному или Южному кластеру. a — склонность спасать большие группы людей, жертвуя меньшими, положительно коррелирует с индивидуализмом (в странах с сильными коллективистскими традициями этот фактор менее значим); на врезке: индивидуализм положительно коррелирует с идеей о важности спасения детей (коллективистским странам более свойственна забота о старших). b — идея о том, что безопасность людей, соблюдающих правила, должна стоять выше безопасности нарушителей, более характерна для богатых и законопослушных стран, чем для бедных и беззаконных. c — положительная корреляция между тем, насколько сильно страна отличается от США по своей морали (согласно данным Всемирного обзора ценностей), и тем, насколько сильно та же страна отличается от США по результатам опроса Moral Machine (это аргумент в пользу осмысленности и неслучайности результатов Moral Machine). d — уровень экономического неравенства (коэффициент Джини) положительно коррелирует с тенденцией отдавать предпочтение высокостатусным людям (спасать начальников, жертвовать бездомными). e — слабая положительная корреляция между тенденцией спасать преимущественно женщин и тем, насколько хорошо живется женщинам по сравнению с мужчинами (это оценивалось по тому, насколько ожидаемая продолжительность жизни женщин выше, чем у мужчин, и по соотношению полов у новорожденных, смещение которого в пользу мальчиков указывает на инфантицид девочек или избирательные аборты). Рисунок из обсуждаемой статьи в Nature

Значение, придаваемое соблюдению правил (то есть склонность спасать прежде всего тех, кто переходит дорогу на зеленый свет, а не на красный), положительно коррелирует, во-первых, с богатством страны (ВВП на душу населения), во-вторых, с уровнем законности или «верховенства права» (см. Rule of law) (рис. 4, b). Иными словами, люди, привыкшие к бедности и плохой работе социальных институтов, склонны смотреть сквозь пальцы на нарушение правил и не придавать этому большого значения при решении вопросов жизни и смерти.

Авторы также заметили, что в странах с высоким уровнем экономического неравенства (см. Коэффициент Джини) сильнее выражена склонность в аварийной ситуации отдавать предпочтение спасению людей с высоким статусом (рис. 4, d). Может быть, это связано с тем, что жители стран, сумевших добиться более равного распределения благ между людьми, выше ценят равенство прав и поэтому не считают, что задавить бездомного — это лучше, чем задавить начальника.

Несмотря на выявленные различия, авторы полагают, что полученные результаты всё же не ставят крест на разработке универсального «морального кода» для беспилотных машин. Некоторые предпочтения, продемонстрированные участниками опроса, являются универсальными или почти универсальными. Так, практически во всех странах люди склонны ставить жизнь людей намного выше жизни домашних животных (хотя в Южном кластере забота о собачках и кошечках выражена сильнее, чем в двух других). Универсальными (хотя и выраженными в разной степени в разных странах) являются также идеи о минимизации числа жертв и о том, что в первую очередь нужно спасать детей.

Данное исследование беспрецедентно по своим масштабам, но при этом у него есть вполне очевидные недостатки. Изученные выборки не обязательно являются репрезентативными. Например, вовсе не факт, что ответы нескольких сотен жителей какой-нибудь африканской страны, принявших участие в опросе, адекватно отражают типичные для данной страны моральные предпочтения. Впрочем, собрать и обработать такой же объем данных по сотням стран, соблюдая все требования, предъявляемые к репрезентативности выборок, попросту невозможно. Кроме того, тот факт, что полученные результаты хорошо согласуются с данными Всемирного обзора ценностей и разумным образом коррелируют с социо-экономическими показателями (рис. 4), свидетельствует в пользу осмысленности и значимости этих результатов.

В работе использовались грубые упрощения, что в какой-то мере ограничивает практическую применимость полученных выводов. Например, во всех моральных дилеммах было точно известно, кто есть кто (про мальчиков было точно известно, что они мальчики, а про толстяков — что они толстяки). Результат любого решения тоже был известен заранее со стопроцентной точностью (одна группа персонажей точно умрет, другая точно выживет). В реальной жизни беспилотным машинам, конечно же, придется иметь дело не с точным априорным знанием, а с приблизительными оценками вероятностей.

Всё это авторы прекрасно понимают. Они подчеркивают, что их результаты не являются истиной в последней инстанции, и предлагают относиться к ним как к началу широкой международной дискуссии. Люди никогда еще не позволяли машинам автономно, без непосредственного контроля со стороны человека, за доли секунды принимать решения о жизни и смерти людей. Но человечество уже стоит на пороге таких перемен. Беспилотные автомобили скоро появятся на дорогах. Аварии с их участием и с человеческими жертвами неизбежны. Даже если они будут происходить очень редко, всё равно к разработке «морального закона» для самоуправляемых машин нужно подойти со всей серьезностью. И при этом необходимо учитывать, помимо прочего, также и данные о вариабельности этических норм в разных уголках мира.

Источник: Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-François Bonnefon, Iyad Rahwan. The Moral Machine experiment // Nature. Published 24 October 2018. DOI: 10.1038/s41586-018-0637-6.

Александр Марков


116
Показать комментарии (116)
Свернуть комментарии (116)

  • pontiyleontiy  | 29.10.2018 | 07:00 Ответить
    Надо дать возможность программировать и перепрограммировать в спец. центрах. Если моральные установки (да и другие тоже) жестко зашивать, то кроме расцвета черного рынка ничего не выйдет
    Ответить
    • timur.davletshin > pontiyleontiy | 30.10.2018 | 01:44 Ответить
      И знак после прошивки наклеивать, сигнализирующий о том, что в случае выбора отправляет дедулек к праотцам )))
      Ответить
      • Aab > timur.davletshin | 02.11.2018 | 14:04 Ответить
        Да, лейбл такой на бибику необходим.
        Ответить
    • akb > pontiyleontiy | 04.11.2018 | 11:15 Ответить
      А как насчет любителей кастомных прошивок? ))
      Ответить
  • Rattus  | 29.10.2018 | 09:22 Ответить
    >Как именно он должен их решать — вопрос крайне непростой

    Который подробно разобран в документе, именуемом "Правила Дорожного Движения". При прочих равных (крайне редкие случаи) - на минимизацию числа жертв.
    После этого все подобные разливания философской мыслью по древу на эту тему можно не читать.
    Ответить
    • Александр Гор > Rattus | 29.10.2018 | 11:30 Ответить
      Мир не делится на черное и белое. Да, возможно в ситуации человека за рулем, все сводится к минимизации числа жертв. Но, согласитесь, что ПДД писались для людей. Кто мог представить, что будут другие варианты водителей? Водителя после ДТП можно судить и подробно разбирать, правильно он сделал или нет (по ПДД или нет). С нейросетью такое не пройдет, поэтому вопрос и сложнее, и разбирается детальнее. Или вы считаете что для автопилотов авто ПДД не надо переделывать вообще?
      Ответить
    • Angl > Rattus | 29.10.2018 | 11:33 Ответить
      ПДД требуют тормозить в своей полосе, невзирая на возникающие препятствия и состояние тормозов. Если тебе в лоб выехал грузовик - тормозить и погибать, группа детей выбежала - бить. Это связано с невозможностью оценки риска человеком при начале маневрирования. Думаю, что и робот этот риск лучше не предскажет.
      Ответить
      • Александр Гор > Angl | 29.10.2018 | 11:47 Ответить
        думаю, не стоит недооценивать возможности по скорости оценки рисков для роботов ) особенно учитывая темпы развития нейросетей, вычислительных мощностей ИИ и тд
        Ответить
        • Angl > Александр Гор | 29.10.2018 | 11:53 Ответить
          Дело не в скорости, а в правильном учете всех факторов, в том числе движущихся по дороге и вокруг объектов. Если бы у робота была онлайн трехмерная рентген-картина местности, снятая сверху... Все равно бы врезался в ящики с динамитом (цистерну газа), мирно стоящие на дороге.
          Ответить
          • Александр Гор > Angl | 29.10.2018 | 14:16 Ответить
            Вы видать просто не в курсе, что на многих трассах в Германии уже да и в куче других стран уже ездят беспилотные авто и не врезаются в цистерны с газом ))
            Ответить
            • Angl > Александр Гор | 29.10.2018 | 17:10 Ответить
              Пока их мало, робота дублирует водитель, да и ездят в таких местах, где не приходится выбирать между парой пьяниц и цистерной. Будет их больше - будут врезаться. С поправкой на низкую скорость, лучшую реакцию и отсутствие алкогольного опьянения - т.е. редко, но будут. Если заложить "маневрирующий" алгоритм.
              Ответить
  • эцих_с_гвоздями  | 29.10.2018 | 09:28 Ответить
    Участвовал в этом опроск. Не помню что там про меня написали, но помню, что некоторые дилеммы для меня таковыми не являлись. Например, при прочих равных, я жертвовал людьми, едущими в машине, поскольку они уже находятся в зоне риска, используя автомобиль.
    Ну и конечно кошечки-собачки в фарш. Люди важнее.
    Ответить
    • Aab > эцих_с_гвоздями | 02.11.2018 | 14:07 Ответить
      Пешеходы тоже участники дорожного движения. Просто они едут в своих телах и поперёк трассы.
      Ответить
    • denis_73 > эцих_с_гвоздями | 05.11.2018 | 05:09 Ответить
      Согласен, но что значит при прочих равных?
      Если снаружи - нарушители, а те, кто в машине, ничего не нарушают, то нарушителями нужно жертвовать, даже если их больше.
      Если никто ничего не нарушает, тогда действительно нужно жертвовать теми, кто в машине, даже если их больше.
      Ответить
  • OSAO  | 29.10.2018 | 09:35 Ответить
    Машина должна заботиться о своих хозяевах, т.е., пассажирах. Но! Нельзя ради этого нарушать ПДД. ПДД - первый уровень машинной морали, и чтобы он исполнялся, нужны "вторые тормоза".
    Ответить
    • PavelS > OSAO | 29.10.2018 | 11:23 Ответить
      ПДД нарушать можно, ПДД важный аргумент, но не всесильный. Если ради того чтобы спасти пассажира надо задавить бродячую кошку, выехав на встречку - то машина должна это сделать.
      Ответить
      • Angl > PavelS | 29.10.2018 | 11:45 Ответить
        А если с другой стороны такая же беспилотная машина решит тоже выехать на встречку? Если допускать нарушение ПДД, это может привести и к бОльшим жертвам. Тем более, если движущихся машин несколько и они реагируют на действия друг друга. Так и будут вилять вправо-влево, пока не столкнутся.
        Ответить
        • PavelS > Angl | 29.10.2018 | 12:31 Ответить
          Вы меня спрашиваете по этике или по инженерингу? По этике и психологии - про это статья, и статья неплохая.

          По инженерингу - всё делать надо вообще не так. Надо чтобы о выезде на встречку не машина принимала решения, а приказ отдавал робот-диспетчер на дорожной сети. Т.е. не эгоизм автовладельца должен программировать машину (алгоритм эгоиста: сначала задави пешеходов, они смягчат удар перед стеной), а машина должна быть частью системы.
          Ответить
          • Aab > PavelS | 02.11.2018 | 14:10 Ответить
            Все тачки едут и общаются, в случае ахтунга пытаются выработать совместное разруливание ситуации. Все в сети типа bloototh или чего-то такого, короткодействующего, метров 20 радиусом.
            Ответить
      • OSAO > PavelS | 29.10.2018 | 11:58 Ответить
        Аргументы не должны лежать в куче, как в дамской сумочке, их нужно разложить по приоритетам. Первый, как самый простой, приоритет - ПДД. Скорость не должна быть выше установленной, а при всех нештатках нужно останавливаться. Не знаю, вторая система тормозов или якорный крюк сзади, или черт с рогами - но машина должна резко встать, а пассажиры уткнуться в подушки. А распознавание и связанная с ним мораль - позже.
        Ответить
        • Angl > OSAO | 29.10.2018 | 12:17 Ответить
          Кстати, хорошая идея про дополнительную систему экстренного торможения (возможно, с повреждением машины, типа лома в днище). Сейчас такие системы не делают из-за невозможности водителя точно оценить, когда ее применять, а робот сможет.
          Ответить
          • Aab > Angl | 02.11.2018 | 14:12 Ответить
            Полиция будет рада, если сможет тормозить тачки без погонь с помощью этого самого лома. Вроде, что-то такое где-то читал, но не хотят люди покупать авто, которое кто-то может тормознуть без их воли: а вдрук коп - продажный?
            Ответить
  • Teodor77  | 29.10.2018 | 10:26 Ответить
    Главный вопрос - кто понесет уголовную ответственность в случае тяжкой аварии с участием робота-шофера. Владелец, программист или, скорее всего, никто?
    А первичная задача просто нелепа. Как это вдруг на дороге внезапно окажется бетонное ограждение? Гарри Поттер не в духе? Ситуации надо разбирать конкретно.
    Ответить
  • Юрий Фёдоров  | 29.10.2018 | 11:04 Ответить
    Действительно, дублирование тормозной системы и нелепость дорожной обстановки в момент оцениваемого дтп бросаются в глаза. Не думаю, что авторы не видят их. Но вот учли ли они то, что тестируемые ощущают эти "детали" и ответы поэтому дают "кривоватые"?
    Кроме того, нужно учитывать скорость мышления людей и готовность отвечать на такие вопросы: большинство опрашиваемых наверняка не задумывались над такими нежизненными моральными ситуациями и потому их ответы "сейчас" (когда они впервые столкнулись с заданным вопросом) и "день спустя" (когда они всю бессонную от переживаний и размышлений ночь взвесили все за и против) - эти ответы могут существенно не совпадать.

    Наличие в машине подушек безопасности тоже игнорировано. Возможность тормозить о стену (а не о бетонный блок или о людей на переходе) тоже. В общем, это не тест на вину чью-то, а
    исследование моральных предпочтений на, мягко говоря, сомнительных, а прямо сказать нелепых модельных ситуациях.
    Типа Кто кого переборет - кит слона или слон кита?)

    а каков вопрос - таков и ответ. В смысле ценности их) ценности для исследования в том числе)
    Ответить
    • PavelS > Юрий Фёдоров | 29.10.2018 | 11:20 Ответить
      Я думаю что так: объект в компьютере появляется в тот момент, когда он распознан. Т.е. решается задача, когда авторобот до некоторого момента не распознавал препятствие или другую проблему.
      Ответить
      • mZ > PavelS | 29.10.2018 | 11:48 Ответить
        Машина с автопилотом просто не должна двигаться с такой скоростью, на которой объекты будут распознаваться так поздно. В случае с движением на скорости 50 км/ч тормозной путь около 14 метров. Если робот не способен вовремя распознавать объекты на таком расстоянии - ему просто не место на дороге.
        Ответить
        • Angl > mZ | 29.10.2018 | 12:12 Ответить
          Робот может ошибаться в определенных случаях, когда не ошибется человек (и наоборот, в других случаях определит объект точнее).
          Два человека несут по переходу длинное стекло... На перекрестке медленно движется машина с прицепом на длинном тонком тросе... Из кузова грузовика на ходу сыплются разные предметы и прыгают по дороге...
          Ответить
          • mZ > Angl | 29.10.2018 | 12:19 Ответить
            Длинное стекло должен заметить радар, от высыпавшихся предметов должно спасти соблюдение дистанции. С тонким тросом ситуация реально сложная, но решение придётся найти до того, как разрешать роботов на дорогах. Исследование тут явно по психологии, а робомашины приплели для привлечения внимания.
            Ответить
            • Юрий Фёдоров > mZ | 29.10.2018 | 14:50 Ответить
              Вот! Именно на это я и хотел указать.
              1. Вопросы нелепые.
              2. Ценность ответов - явно не в плоскости самоходного транспорта
              Ответить
              • leonid_ge > Юрий Фёдоров | 29.10.2018 | 18:48 Ответить
                Вся наша среда, в которой мы живем, эволюционировала вместе с нами. То, как устроена улица, дома, автомобили и т.д., - результат длительной эволюции, которая есть по большому счету метод проб и ошибок. Роботы в этой эволюции до сих пор не участвовали. Совершенно невозможно предусмотреть всё и создать совершенного робота. Нужно начать с какого-то робота и ввести его в процесс эволюции. Постепенно этот процесс (методом проб и ошибок) приведет к совершенным роботам, которые и в случае со стеклом, и с тросом смогут справиться с ситуацией.
                Ответить
                • Юрий Фёдоров > leonid_ge | 30.10.2018 | 00:45 Ответить
                  Согласен полностью :роботы не участвовали. И, согласитесь, этот описанный тут опрос на их участие нисколько не может повлиять по самой сути этого опроса.
                  Ответить
        • эцих_с_гвоздями > mZ | 30.10.2018 | 01:09 Ответить
          Ну а предположим шпионы подпилили тормоза, а реактивные двигатели в машине заклинило на форсаж и вот тогда роботу придется решать во что тормозить: в твердую стену внезапно выросшую из под земли, или в мягкую старушку, несущую на руках маленького ласкового пушистого щченочка.

          По мне, так ответ очевиден
          Ответить
        • PavelS > mZ | 30.10.2018 | 12:07 Ответить
          Никто не способен распознать много что. Распознавание всегда вероятностный процесс и всего не предусмотреть, 100% надёжности не будет никогда. Тем не менее, ГИБДД продолжает выдавать права и люди продолжают гибнуть. Возможно, автороботы снизят смертность - но не позволят свести к нулю.
          Ответить
    • Aab > Юрий Фёдоров | 02.11.2018 | 14:15 Ответить
      Сказано же, что исследование служит как некая отправная точка для более глубоких исследований. Честно, русским - по белому.
      Ответить
  • Андрей Быстрицкий  | 29.10.2018 | 11:20 Ответить
    Саша, спасибо! Весьма любопытная работа. Поэтому и вопросы.
    Очень много внимания к вопросу морального выбора. Много средств на решение этого вопроса. А оценка актуальности именно такого вопроса где? Модельные ситуации - оценивались ли по частоте возникновения и по вкладу в общую травматичность/летальность?
    На примере первой же иллюстрации - как часто случается внезапный (!) отказ тормозной системы непосредственно перед препятствием рядом с толпой людей? Далее, какой бы из вариантов поведения ни был принят - на сколько это улучшит общую статистику? Житейский здравый смысл утверждает, что на ноль целых фиг десятых процента. Конечно, этот самый ж.з.с. вполне может ошибаться, но здесь - вряд ли. Тем более, что во многих случаях замедлить машину можно не только тормозами, "онлайновую" диагностику тормозной системы тоже проводить можно, и тэ дэ. То есть сводить ситуацию только к моральному выбору - слишком коневвакуумно.
    Это не значит, что проблему не надо решать, но и переоценивать её значимость тоже не стоит. Больше того - эта значимость как раз вообще не ясна. На фоне истории про Теслу, угробившую водителя из-за нетиповой засветки прицепа грузовика, кажется более важным пока сосредоточиться на подобного рода алгоритмических задачах.

    Другое дело, что проблема морального выбора, в общем-то, не только дорожная. И в свете стремительной автоматизации и "ИИзации" всего и вся - будет становиться всё более и более актуальной.
    Так что ребята, наверное, всё-таки, молодцы, но некоторые моменты надо явно оговаривать.

    А ещё - это чуть ли не первое строгое доказательство существенной разницы "прошивок". Как их вообще пустили в печать, с эдакой-то антитолерантностью...
    Ответить
    • Александр Гор > Андрей Быстрицкий | 29.10.2018 | 11:40 Ответить
      ноль целых фиг десятых - это от 1 до 5 человеческих жизней (к примеру). Я согласен, что на фоне 10 миллиардов это мало, много кто даже призывал бы ими пренебречь, но реалии таковы, что говорить можно "ноль целых хрен десятых" , если такую редкую ситуацию вы увидели по телевизору, а не она случилась с вами или вашими родственниками.
      Ответить
      • Андрей Быстрицкий > Александр Гор | 29.10.2018 | 12:02 Ответить
        Дело не в 10 миллиардах. А, во-первых, в том, что внедрение автопилота - пусть даже без морального выбора вообще, с логикой квадратиш-практиш-гут - предотвратит такое количество смертей, что прыжки вокруг морального выбора тут практически аморальны: автопилоты надо внедрять, и как можно скорее.
        Во-вторых же, во всех изучавшихся ситуациях речь о том, чтобы кого-то не просто спасти, а спасти ценой кого-то другого. Так что это всё равно случится, вопрос лишь - с моими родственниками или с чьими-то.

        Ну и я как раз имею полное моральное право рассуждать про автопилот и моральный выбор.
        Ответить
        • leonid_ge > Андрей Быстрицкий | 29.10.2018 | 15:33 Ответить
          Гигантское преимущество автопилотов - в том, что они не нарушают правил "нарочно" и "назло". Сколько раз наблюдал - особенно в южных странах - как водители, просто в силу своего темперамента, такое на дорогах выделывали... Вон чувак мерседесом прижал мотоциклистку к стене тоннеля, размазал. Не нечаянно, нет, она его, видите ли, смела обогнать. Ну, а что скорость превышают люди, что дистанцию не держат, что на красный проезжают - об этом говорить нечего, а автопилот себе такого не позволит.

          Вообще, и без автопилотов можно было бы круто снизить количество аварий, если бы установить в обязательном порядке регистрирующие устройства в салоне. Странно, почему страховые компании этого не делают. Привысил скорость - премия на страховку взлетела в два раза. В следующий раз подумаешь, превышать или нет.
          Ответить
  • PavelS  | 29.10.2018 | 11:21 Ответить
    Точно не пытался спасать больше женщин, а оказалось что как все - смерть мужикам, женщины спасутся. Авторы мухлюют, возможно сами того не замечая.

    Про юр.вопросы. Я считаю что в таких машинах на первом этапе надо запретить беспилотный режим и добавить (дублирующую автомат) педаль тормоза, т.е. дать возможность остановки человеку даже если машина принимает неверное решение. И тогда юр. ответственность останется на человеке. Никто не может винить автомат, что тот неверно переключил передачи, также никто не сможет винить авторобот что тот вдруг свернул и кого-то задавил (не нравится - дави тормоз, не успел затормозить - значит поздно давил тормоз, не умеешь - дави тормоз прямо на парковке).
    Ответить
    • Юрий Фёдоров > PavelS | 30.10.2018 | 00:40 Ответить
      Шутить изволите? Ведь торможение не все решает. В некоторых ситуациях нужно, наоборот, ускориться. А в некоторых рулём повертеть. То есть для возврата ответственности человеку - ему нуэно не только педаль тормоза вручить торжественно)
      Ответить
      • PavelS > Юрий Фёдоров | 30.10.2018 | 12:13 Ответить
        Тормоза достаточно в 100% случаев, по крайней мере де-юре достаточно чтобы ответственность передать. Стоящая на дороге машина со знаком аварийки никогда не может быть виновником ДТП - даже если ей в зад кто-то въедет. Для предотвращения ДТП рулём не обязательно вертеть, если вовремя принять решение тормозить. Видишь пешехода на обочине - просто притормаживай, чтобы при самом худшем раскладе успеть затормозить, даже если авторобот захочет его сбить, а пешеход самоубийца.
        Ответить
        • Юрий Фёдоров > PavelS | 31.10.2018 | 02:51 Ответить
          Я в юристике не соображаю, быть может там где-то и оговорено, что нажав на тормоз завсегда сию минуту становишься невиновным..., но ситуации, когда можно избежать жертв только двигаясь, а остановки как раз к жертвам приведет - запросто Вам описать могу.
          Если юридически затормозить - значит снять с себя ответственность, даже если именно торможение привело к жертвам, то... Так Вы за передачу ответственности, или за сохранение жизней в дтп?
          Ответить
  • AlexandrNaumov  | 29.10.2018 | 11:23 Ответить
    Проблема в том, что условия, когда возникает моральная дилемма из примерно равноценных вариантов - они почти всегда искуственные.
    Во-первых, почти всегда есть действия, которые смегчают последствия ДТП. Например, если отказали тормоза, то можно тормозить двигателем.
    Во-вторых, почти никогда нет однозначной оценки результата манёвра. Мы всегда работаем с вероятностью того или иного исхода, о чём в статье упоминается.
    Поясню, по примеру в статьи:
    1) Если подать звуковой сигнал и выехать на встречку, то есть не маленькая вероятность, что кто-то успеет отбежать. И соответственно количество жертв будет меньше четырёх.
    2) Вероятность выжить у пассажиров по видимому больше чем у пешеходов, при одной и той же скорости столкновения.
    Т.е. у нас есть две вероятности. Но вероятность того, что две вероятности - два произвольных числа с плавающей точкой совпадут - принебрежима мала. Поэтому у робота после оценки двух вероятностей - никакой дилеммы не будет.
    Тут можно возразить, что вероятность смерти четырёх человек в обоих вариантах будут равны единице и потому есть делемма. Но это будет означать, что робот подъезжает к перекрёстку на очень большой скорости, т.е. он по-любому злостный нарушитель ПДД.
    В-третьих, вариантов всегда много, их никогда не два. Почти всегда можно найти вариант, который поможет вообще избежать аварии, либо её смягчит. Вы действительно хотите, чтобы робот тратил время на распознование того, кто перед ним стоит - ребёнок или пожилой человек, вместо того, чтобы переберать варианты как избежать/смегчить аварию?
    В-четвёртых, почти для любой системы морального выбора, всегда можно построить такую искуственную ситуацию, что моральная оценка двух вариантов будет одинаковой. И мы опять встанем перед выбором, которого хотели избежать.
    В общем, прежде чем ставить вопрос о моральном выборе, нужно сначала определить - с какой вероятностью роботу придётся его решать. Если из миллиона аварий, у него возникнет дилемма только один раз, то очевидно, что решением роботом морального выбора вообще не надо заморачиваться. Лучше потратить усилия на что-то более важное.
    Ответить
    • Александр Гор > AlexandrNaumov | 29.10.2018 | 11:43 Ответить
      по поводу вашего "в-третьих"
      "Вы действительно хотите, чтобы робот тратил время на распознование того, кто перед ним стоит - ребёнок или пожилой человек, вместо того, чтобы переберать варианты как избежать/смегчить аварию?"
      Вы понимаете, что робот может абсолютно свободно параллельно перебирать варианты, как избежать или смягчить аварию, и решать моральную дилемму?
      Даже если теоретически сейчас с этим могут возникнуть трудности, через 10-20 лет, их точно не будет
      Ответить
      • mZ > Александр Гор | 29.10.2018 | 12:01 Ответить
        Мне вот кажется, что если робот оказался в такой ситуации, то его датчики с большой вероятностью неисправны и он не может оценивать ситуацию. Иначе бы он в таком положении не оказался. Соответственно, лучшая реакция - торможение до полной остановки по прямой, разблокировка всех дверей и отключение.
        Ответить
      • leonid_ge > Александр Гор | 29.10.2018 | 13:12 Ответить
        Лучше вложить средства в системы предотвращения аварии, чем в решение подобных дилем. Кстати, а почему бы роботу не погудеть пешеходам?
        И еще: подобные исследования очень мало чего дают в научном плане, зато в политическом - огромную кучу, которую потом нужно расхлебывать. Это исследование для журналистов таблоидов.
        Ответить
  • PavelS  | 29.10.2018 | 12:41 Ответить
    Всё-таки интересно, откуда ещё берётся сексизм и неравенство полов. Т.е. в чем движущая сила - эгоизм женщин или альтруизм мужчин? Женщины эгоистичны в бОльшей степени чем мужчины, а потому, ассоциируя себя с женщинами на картинках, массово предпочитают давить мужчин? Или мужчины воспитаны чаще жертвовать собой или некими абстрактными другими мужчинами (которых возможно воспринимают как конкурентов)? Спасибо редакторам элементов, что пожалуй это единственное серьёзное место, где можно задать вопрос в такой формулировке и не получить бан за неполиткорректность и разжигание.
    Ответить
    • leonid_ge > PavelS | 29.10.2018 | 13:07 Ответить
      У мужчин инстинкт защищать женщин и детей. Ведь мы эволюционировали как охотники (и собиратели). В человеческом обществе было разделение труда. Мужчины - охота и защита женщин и детей. Женщины - забота о детях (и воспитане). Поэтому и анатомия у нас разная: мужчины физически сильнее.
      Ответить
      • Юрий Фёдоров > leonid_ge | 29.10.2018 | 14:52 Ответить
        а охота на женщин откуда взялась?))
        Ответить
        • leonid_ge > Юрий Фёдоров | 29.10.2018 | 15:26 Ответить
          имеется в виду половая охота
          (Эх, охота женщину!)
          Ответить
      • PavelS > leonid_ge | 29.10.2018 | 14:52 Ответить
        Защищать, кормить, обеспечивать. Но! Это не значит что жертвовать в случае непреодолимой угрозы. Защитник защищает своё имущество (скот, рабов, наложниц), а тот кто жертвует собой - теряет всё. Так что это совершенно разные аспекты поведения - защищать и жертвовать.

        Также не забывай про аспект коллективной охоты, где мужчина защищает других мужчин. И то же на войне.

        Я таки полагаю что тут важен аспект, что если соплеменник-мужчина погибал, то его брат получал вдвое больше женщин и имел бОльший репродуктивный успех. Т.е. мужчина в мужчине видит конкурента, которого бывает полезно устранить. А женщины просто эгоистичны, всегда выбирают вариант когда мужики гибнут, а бабы какбэ в стороне.

        Тем не менее, мне интересно опять же, это мужчины чаще "защищают" женщин (создают перекос в неравенстве полов), или женщины чаще защищают себя.
        Ответить
        • leonid_ge > PavelS | 29.10.2018 | 15:25 Ответить
          Любая защита другого - есть жертва со стороны защитника. Вас же могут убить, съесть, повесить, растрелять. Мужчины, которые не могут защищать женщин, естественно, не так любимы женщинами и их гены не распространяются. (Кстати, мужчины гораздо чаще защищают красивых женщин. Тут интерес очевиден).
          Ответить
        • Юрий Фёдоров > PavelS | 30.10.2018 | 01:14 Ответить
          Не, ну на счет "вдвое" - это ошибка математическая) Пересчитайте заново)
          С другой стороны, если война, то защищают не одну женщину, а множество. Потому полезнее не устранять своих. Мужчин.
          То есть - в войну не только женщин защищают. Это в драке в подворотне только их.. и только одну, как правило)
          Ответить
    • gthnjdbx > PavelS | 03.11.2018 | 15:50 Ответить
      Естественным отбором закреплено, что женщины важнее для выживания вида. Потому что группа из хотя бы одного мужчины и много-много женщин имеет больше шансов оставить многочисленное потомство, чем группа где мало женщин и много-много мужчин.
      Ответить
  • leonid_ge  | 29.10.2018 | 13:04 Ответить
    Решение проблемы простое.
    Выбирать жертв нужно рандомно.
    Тогда это можно будет приравнять к стихийному бедствию.
    Кстати, древние греки в этом плане были очень мудрыми.
    Они бросали жребий и считали, что таким образом спрашивают богов, потому что только боги знают наперед, на какую сторону упадет монетка.
    Ответить
    • Angl > leonid_ge | 29.10.2018 | 17:33 Ответить
      Это когда это могли выбирать кто умрет, при родах разве что?
      Ответить
      • leonid_ge > Angl | 29.10.2018 | 18:16 Ответить
        В случае, когда жертвы неизбежны, автопилот использует random number generator для решения, кого в живых оставить, а кого раздавить.
        Ответить
        • another_user > leonid_ge | 29.10.2018 | 18:42 Ответить
          То есть, в любой ситуации приоритет отдается уходу от ответственности? Да вам бы в комитете по этике работать...
          Ответить
          • leonid_ge > another_user | 29.10.2018 | 19:26 Ответить
            Понятие ответственности - очень биологическое и инстинктивное, и основано на чувстве мести. Вот, вороны мстят тому, кто их обидит. Почему? Потому что это выгодно: все будут знать, что ворон трогать нельзя. У людей то же самое. Найти крайнего - это просто удовлетворить свое чувство мести. Вот скажите, почему никогда не сажают в тюрьму того, кто проектировал автомобиль? Ведь немало было аварий с жертвами, когда "виноват" был, скажем, инженер-разработчик? Но ни одному инженеру не дали 7 лет тюрьмы за аварию с чел. жертвами. А вот шоферам дают сплошь и рядом. Почему? Потому что мыслительный алгоритм, стоящий за чуством мести, примитивен и не может провести цепочку от инженера к жертвам. Инженер далеко.

            Еще пример. Почему после 2-ой мировой войны не были наказаны те, кто осуществлял массовые убийства гражданских лиц? Таких виновных были тысячи - работники концлагерей и расстрельных команд, личный состав карательных отрядов и т.д. Разве все они понесли наказание? Нет. Жили себе в той же Германии и др. странах Европы припеваючи, а некоторые и теперь еще живут. Почему? Потому что чувство мести примитивно. Мстят тем, кого видят возле себя.
            Ответить
            • another_user > leonid_ge | 29.10.2018 | 19:44 Ответить
              По пунктам.

              > Вот скажите, почему никогда не сажают в тюрьму того, кто проектировал автомобиль? Ведь немало было аварий с жертвами, когда "виноват" был, скажем, инженер-разработчик?

              Нет, как раз такого практически нет. дело в том, что от конкретной идеи инженера до реализации на серийном автомобиле есть куча этапов ТК, испытаний, контроля качества на производстве и т. п. А водитель в тех случаях, когда его осуждают, действительно ставил жизни людей в опасность своими действиями или халатностью, а никаких дополнительных прослоек, защищающих людей от действий водителя, нет.

              > Почему после 2-ой мировой войны не были наказаны те, кто осуществлял массовые убийства гражданских лиц? Таких виновных были тысячи - работники концлагерей и расстрельных команд, личный состав карательных отрядов и т.д.

              Потому что вышеупомянутые были военнослужащими, выполнявшие приказ. Если завтра вас призовут в армию и назначат в расстрельную команду, вы так же будете расстреливать людей. Тех же, кто приказы отдавал, справедливо осудили.

              Вообще не стоит забывать о том, что для наступления ответственности за действие/бездействие нужно наличие и объективной, и субъективной стороны. Объективная сторона - факт налицо , кто-то пострадал. Субъективная - злой умысел, халатность и т. п. Если нет и того и другого, то нет и ответственности. Месть же тут совершенно ни при чем.
              Ответить
              • leonid_ge > another_user | 29.10.2018 | 20:23 Ответить
                По пункту 2 - приказы не отдавали только рядовые.
                Кроме того, массовые убийства, особенно на территории стран, оккупированных Германией, очень часто осуществлялись гражданскими лицами.

                Насчет расстрельных команд - не знаю, как вы, но я откажусь.
                Ответить
                • another_user > leonid_ge | 29.10.2018 | 20:43 Ответить
                  Ой, да как будто вас спросят, отказываетесь вы или нет. Почитайте "Время жить и время умирать" Ремарка о том, каково это изнутри.
                  Ответить
                  • leonid_ge > another_user | 29.10.2018 | 21:52 Ответить
                    Ремарка именно это книгу не читал. Но думаю, что насильно в расстрельщики никого не затаскивали. Полно было добровольцев. Это подтверждается и тем, что среди них полно было гражданского и местного населения.
                    Ответить
                    • Angl > leonid_ge | 29.10.2018 | 23:26 Ответить
                      Вы про эксперимент Мильграма слышали? Не надо никаких добровольцев, да и кто будет их искать? Если всего лишь ровным тоном начальства сказать, что этого требует государство, народ и партия, что мы должны быть непреклонны, что мы в мирное время единственные солдаты, что кто же еще если не мы - большинство людей согласится, а уж активно возражать с риском для себя будут считанные единицы. Почитайте воспоминания Рудольфа Гесса (коменданта Освенцима и Заксенхаузена) - абсолютно ровно и логично человек говорит, что вообще-то ему было жаль евреев и цыган, что это в целом была ошибка, но вот многие заслуживали...как будто за столом под коньячок. Дескать вот были там маньяки и садисты, а я-то все понимал, что так надо, что по-другому нельзя из-за противоречий в приказах, что не хватало бараков, мало ли чего. Очень рассудительный, ценивший самоотверженность иеговистов и осуждавший "распущенность" гомосексуалистов...
                      Короче, если вы не религиозный фанатик, у вас не было бы шанса отказаться.
                      PS офтоп, можно удалить
                      Ответить
                      • leonid_ge > Angl | 30.10.2018 | 02:10 Ответить
                        Не обижайтесь, но звучит, как пропаганда. Эксперимент, может, и хороший, но не все же, согласитесь, в полицаи шли. Разделился как-то народ: одни в полицаи, другие в партизаны, сами знаете. То что вы рассказываете - многочисленные попытки оправдаться. Мне как-то во Флоренции два парня, туристы из Германии, долго рассказывали про некую, вышедшую недавно книгу, в которой доказывается, что немцы ничего не знали об уничтожении евреев, цыган, гомосексуалистов и т.д. Что знал ничтожный процент, а остальные - ну просто голуби, жили и думали, что евреи сами испарились.

                        Банальная эволюция имела место в Европе того времени. В СС отбор шел на тех, кто способен людей убивать не моргнув глазом. Тот, у кого коленки трясутся, когда его заставят стрелять в шеренгу в голых женщин - ну не возьмут такого, и зачем?

                        Офтоп, правда...
                        Ответить
                    • Ека > leonid_ge | 01.11.2018 | 07:47 Ответить
                      Всегда есть те, кто согласны. И согласны они именно потому, что знают - потом их не осудят. Они ж только приказы исполняли!
                      Ответить
            • PavelS > leonid_ge | 30.10.2018 | 12:38 Ответить
              Это офф, но полно гитлеровцев посадили. Да, это капля в море, расстреливать надо былю всю страну - но таки СС-овцев находили, судили, сажали в тюряги на длительный срок. Особенно тех, которые были карателями. А карателей-гражданских при Сталине тоже не очень любили, тех кто сдал Зою Космодемьянскую за поджог их сарая - стрельнули, хотя эти люди вообще были не карателями.
              Ответить
      • Izospin > Angl | 02.11.2018 | 03:11 Ответить
        К.Шеннон, когда отошёл от дел в IBM lab, вывел теорему о жонглировании -- оптимальном сочетании "рук" и подбрасываемых предметов. Сделал робота-подбрасывателя монеты с программируемым числом оборотов. А также успешно тайно испытал в Лас-Вегасе вместе с Корном портативный аналоговый "предсказатель" осьмушки-сектора игры в рулетку. См. kniganews.org. Математика порядка в хаосе описана Е. Синаем; случайного в неслучайном -- В.Воеводским. Ну а дилемма вагонетки, я думаю, должна решаться с привлечением субоптимального программирования -- неравенства по Нешу. Хотя и оно неустойчиво и распадается на 2 экстремума.
        Ответить
  • PavelS  | 29.10.2018 | 14:59 Ответить
    И ещё момент мне показался очень интересным. Есть Восток с его созерцательной философией Лао Цзы и целым культом недеяния и отстранения от совершения поступков (истинный путь есть тот, по которому ты не идёшь). А эксперимент показывает, что именно Запад чаще выбирает вариант "да катись оно всё по прямой" - невмешательство.
    Ответить
    • Aab > PavelS | 02.11.2018 | 14:25 Ответить
      Латентный дзен на западный манер? Фрейда порой очень не хватает :)
      Ответить
  • Fireman  | 29.10.2018 | 15:32 Ответить
    как по мне, то достаточно нескольких правил

    правило 1: поскольку ТС - средство повышенной опасности, риск наступления смерти или увечий приоритетно должны нести участники движения в ТС, а не лица вне участия в движении

    правило 2: при возникновении опасности жизни а) внешним людям б) участникам ТС ТС может покинуть полосу в сторону отсутствия людей

    правило 3: при невозможности соблюдения правила 2 ТС должно оставаться в занимаемой полосе

    кошечек, собачек жалко конечно, но для участников движения они должны быть приравнены к валяющейся на дороге покрышке или диску или еще какому мусору

    ЧП при правильной автоматике типа "влетел в зад машине" и т.п. вообще не должны происходить - оценка дистанции, предсказание движения и т.п.

    Только случаи типа упал мост, со встречной выскочила машина и т.д., что все таки редкость большая могут стать причиной ДТП с нормальной автоматикой.

    А выбор кого давить бабку или внучку вообще стоять не должен для автоматики принципиально - убивайся нафиг в кювет, но снаружи не должен быть задавлен никто, даже если внутри машины перевозят целый детский отряд.
    Ответить
    • leonid_ge > Fireman | 29.10.2018 | 15:37 Ответить
      "кошечек, собачек жалко конечно, но для участников движения они должны быть приравнены к валяющейся на дороге покрышке или диску или еще какому мусору"

      Напоминает устав СС.
      Ответить
      • Fireman > leonid_ge | 29.10.2018 | 16:12 Ответить
        :)

        было на Youtube видео как человек совершил ДТП (по сути поставил жизнь своих пассажиров под угрозу влетанием в кювет) пытаясь резко объехать труп уже мертвой кошки
        Ответить
    • another_user > Fireman | 29.10.2018 | 17:16 Ответить
      > убивайся нафиг в кювет, но снаружи не должен быть задавлен никто, даже если внутри машины перевозят целый детский отряд.

      Тут есть такой нюанс. Владелец / водитель несет ответственность за исправность автомобиля и за отказ тормозов. Пассажиры, решившие ехать самостоятельно (взрослые), также несут ответственность за свой выбор. Детей же как правило не спрашивают, так что они должны быть в подобной ситуации приравнены к пешеходам.
      Ответить
    • 3g430 > Fireman | 29.10.2018 | 17:17 Ответить
      "Правило 1" должно быть правилом № 1.
      Человек, садясь в ТС (от трехколесного велосипеда до космического корабля), употребляя алкоголь или табак, отправляясь в горы, неблагополучные страны или половить рыбку на льду должен осознавать и полностью принимать риски такого поведения.
      Человек, который отказывается от этих преимуществ, удобств или удовольствий в обмен на снижение рисков - соблюдает ПДД, не ходит в казино, вообще не выходит из дома или отправляется в монастырь - вправе требовать, чтобы все эти риски его не касались.
      Мне это кажется настолько естественным, что я удивлен, что во всех трех кластерах этому соображению не придают существенного внимания. Вопрос был недостаточно разъяснен, или я неправ?
      Ответить
      • Роман Пехов > 3g430 | 02.11.2018 | 12:00 Ответить
        Дьявол в словах «соблюдает ПДД». Что если пешеход нарушил следующий пункт Правил?

        4.5. На нерегулируемых пешеходных переходах пешеходы могут выходить на проезжую часть (трамвайные пути) после того, как оценят расстояние до приближающихся транспортных средств, их скорость и убедятся, что переход будет для них безопасен.

        Доводится ли вам переходить по переходу оживлённые дороги?
        Уверены ли, что соблюдаете этот пункт?
        Ответить
    • Angl > Fireman | 29.10.2018 | 17:24 Ответить
      А вот если при проезде перекрестка автопилот обнаружил, что поперек движется фура, не снижая скорости, тормозить поздно. Должен ли автопилот увеличить скорость, чтобы проскочить (допустим, это возможно)?
      Ответить
      • leonid_ge > Angl | 29.10.2018 | 18:40 Ответить
        Конечно да. Как в "Берегись автомобиля".
        Ответить
    • Ека > Fireman | 01.11.2018 | 07:53 Ответить
      Главное, в такой ситуации, чтобы это была не ваша кошечка или собачка, или еще хуже - ваш ребенок, либо принятый за собачку, либо находящийся в составе отряда... Мораль - она ж вещь шаткая, и очень сильно зависит от точки, в которой находится "наблюдатель".
      Ответить
  • Teodor77  | 30.10.2018 | 10:18 Ответить
    Вот оно - следствие виртуального давления на психику. Рассусоливают о страданиях AI: тварь он дрожащая или право имеет старушку процентщицу переехать. Морали у железяки нет в принципе. Она не личность. Поэтому повторю вопрос с расшифровкой: Кто отвечает за катастрофические последствия в авто с автопилотом?
    Пистолеты продают только совершеннолетним, а автопилоты, так думаю, в принципе будут доступны детям. И вот они переезжают бабушку и никто не виноват.
    Второе. Доступность или право на автотранспорт (американская мечта) насаждается с неистовой фанатичностью. Человека, злостно сбившего пешехода сажают в тюрьму на пять лет и лишают прав управления ТС всего на год! Это извращение обычно. Я не раз слышал о таких случаях у нас в РФ.
    Ответить
    • Teodor77 > Teodor77 | 30.10.2018 | 10:47 Ответить
      Моральные проблемы беспилотных автомобилей не имеют универсального решения
      Неверно в принципе. Моральные проблемы беспилотных автомобилей не имеют смысла. Вопрос поставлен неверно. Инструмент не морален. Пистолет не решает в кого стрелять. С автоавто неопределенность в том, кто управляет им и, соответственно, морален или аморален.
      Ответить
    • Angl > Teodor77 | 30.10.2018 | 10:54 Ответить
      Признают несчастным случаем или ошибкой разработчика. Но автопилоты спасут столько жизней, что эта проблема отойдет на второй план. Что лучше - десять тысяч погибших в год и известно, кто виноват, или сто погибших - и неизвестно?
      Ответить
      • Teodor77 > Angl | 30.10.2018 | 13:12 Ответить
        Как Вы похожи на Илона Маска. Ещё не брело- ни ехало, а уже подсчитываем дивиденды от кораблей, бороздящих межпланетное пространство.
        А как насчет хакерской атаки на вычислительный центр в час пик? А как насчет сбоя какого-нибудь сервера в результате магнитной бури или ещё какого-нибудь форс-мажора? Есть аксиома программирования: "Все программы содержат хотя бы одну ошибку". Сбой софта с непредсказуемыми последствиями.
        Ответить
        • эцих_с_гвоздями > Teodor77 | 31.10.2018 | 19:42 Ответить
          Все будет хорошо. Илон маск все сделает.
          Или вы хотите на телеге ездить?
          Ответить
          • Teodor77 > эцих_с_гвоздями | 01.11.2018 | 11:06 Ответить
            Кстати, именно милый Вашему сердцу Илон Маск против ИИ.
            Ответить
            • Aab > Teodor77 | 02.11.2018 | 14:28 Ответить
              Его поправят.
              Ответить
    • leonid_ge > Teodor77 | 01.11.2018 | 11:25 Ответить
      Наказания за преступления нужны для того, чтобы преступления не повторялись. Такой механизм работает: пьяный водитель кого-то сбил, водителя посадили, другие водители ещё подумают: садиться ли пьяными за руль или нет. Результат: количество сбиваемых уменьшается.

      Перейдем к автопилоту. Если он кого-то сбил, как получить вышеупомянутый результат: уменьшить количество сбиваемых? По логике вещей, нужно посадить разработчиков автопилота.
      Ответить
  • VladNSK  | 30.10.2018 | 12:17 Ответить
    Давайте сравним автотрассу и беспилотный автомобиль на трассе с обычной железной дорогой, на которой автоматическое управление движением уже на довольно высоком уровне. Но даже и тут еще не могут обойтись без машиниста.

    Думаю, что после такого сравнения станет совершенно ясно, что в настоящее время мечта о безопасном беспилотном автомобиле в принципе неосуществима.

    Для начала надо освободить все поезда от машинистов. Если это получится, то тогда нужно будет оснастить автотрассу неким общим управляющим алгоритмом, который будет видеть все машины на трассе, и который будет ими управлять в случае возникновения аварийных ситуаций.

    Далее, нужно будет огородить автотрассу на всем ее протяжении, чтобы никто не мог на нее выйти (кроме специально отведенных мест).

    Вот тогда можно будет начать думать о массовом использовании беспилотных автомобилей. И что важно: если у нас что-то получится, то это будет не беспилотный автомобиль. Это будет безопасная ТРАССА, и все расчеты (кого объехать, а на кого наехать) будет вести не автомобиль, а именно ТРАССА.
    Ответить
    • Teodor77 > VladNSK | 30.10.2018 | 13:13 Ответить
      Получилось метро с дверями, как в Питере :)
      Нет, эти мечтатели хотят выпустить аморального монстра на живые улицы. Ведь Герман Греф сказал, что будущее за ИИ. А он юрист, он разбирается в программировании.
      Ответить
  • VladNSK  | 30.10.2018 | 12:29 Ответить
    Что касается проведенного опроса, то я лишний раз убедился в том, что социология - это не наука (как и экономика, кстати).

    Нет большей глупости, чем опрашивать мнение (мнение!) людей, и потом делать из этого выводы.

    99 процентов при опросе скажут, что воровать не хорошо. Но при этом 49 процентов наверняка своруют, если будут уверены в своей полной безнаказанности. Проценты, конечно, условные, но порядок, думаю, верный.
    Ответить
  • radion  | 31.10.2018 | 12:37 Ответить
    Опрос имеет мало смысла, человек в стрессовых условиях не будет делать выбор, размышляя.
    Такой опрос нужен компаниям, чтобы выглядеть хорошо в глазах аборигенов, судебные разбирательства ведь будут.
    Ответить
  • Александр Гор  | 31.10.2018 | 15:34 Ответить
    Комменты к теме радуют в одном - неолуддитов относительно немного ) и что еще лучше, как и в случае со своими собратьями из прошлого, луддитами, вымирание неолуддитов также неизбежно ) Правда все равно каждый раз сталкиваясь с ними поражаешься - насколько глубоко сидит в человеке консервативизм и неприятие нового, что в очередной тысячный или миллионный раз убеждаемся, что технический прогресс не остановить, но консерваторы все так же упорно, ему противятся ) Видать это константа ) А в итоге, будущее реализуется все равно, как и во все предыдущие сценарии в истории человечества.
    Ответить
    • nicolaus > Александр Гор | 01.11.2018 | 08:47 Ответить
      «А в итоге, будущее реализуется все равно, как и во все предыдущие сценарии в истории человечества.»

      Возможно, но не в нашем веке. На мой взгляд все эти разговоры про моральные проблемы сейчас не имеют смысла, вот почему.

      1. Для работы системы автоматического вождения, которая косвенно отвечает за жизнь человека, необходимо обеспечить соответствующий уровень надежности. Как не странно, но согласно нормам безопасности, самый высший уровень обеспечивают системы, построенные на электромеханических компонентах, например, на реле.
      Именно так устроены ответственные части серийных автомашин. В компьютерной системе для достижения этого уровня необходимо, по меньшей мере, трехкратное дублирование с голосованием для выбора решения два к одному. Что сильно увеличивает сложность системы. Для нейросетей вообще непонятно как обеспечить требуемую степень надежности.

      2. Способности системы по распознаванию образов и по анализу ситуации на дороге должны приближаться к уровню человека. Человек понимает, что находится на дороге и может предвидеть как будет развиваться ситуация. Поэтому может заранее принять решение как обеспечить свою безопасность.
      Машины для этого еще недостаточно «разумны». Ситуация в ближайшем будущем вряд ли улучшится. Закон Мура практически прекратил свое действие. Перспектив сознания компактных и дешевых искусственных «мозгов» пока не предвидится.

      3. Поведение систем, построенных на нейросетях, не прогнозируемо. А жесткие алгоритмы здесь не приемлемы поскольку не в состоянии охватить все случаи. При этом, при разборе аварийной ситуации, невозможно понять почему система приняла то или другое решение. Поэтому невозможно доказать, что машина «не виновата».

      4. За гибель людей должен кто-то отвечать. В данном случае, согласно логике, за гибель людей должна отвечать фирма, которая произвела машины. Конкретно – разработчики системы автоматического вождения. В случае частых аварий с человеческими жертвами (а так это и будет) конструкторское бюро с разработчиками необходимо сразу переселять в тюрьму.
      Ответить
      • Александр Гор > nicolaus | 01.11.2018 | 10:27 Ответить
        Вы знаете, я не сторонник чересчур оптимистичных футурологических прогнозов, как у Курцвейла, вроде что к 2030 году полностью оцифруют сознание человека, а к 2050 развитие и новые открытия станут экспоненциальными. Однако, ваш прогноз (по поводу "не в этом веке") считаю даже более нереалистичным, чем прогнозы Курцвейла ) У меня есть один товарищ - он сейчас уже профессор (кстати в области распознавания образов), так вот вначале 90х он очень яростно был убежден, тогда еще был кандидатом наук, что глобальная мировая видеосвязь - это не более, чем выдумки фантастов, и до нее человеку еще расти лет 200. И еще помню, как он мне тогда рассказывал, что телевизоры размером с сигаретную пачку будут у нас не ранее 2100 года )) сейчас смешно, но на самом деле это успешный и серьезный ученый. А другой человек в начале нулевых мне помню говорил, что квантовые компьютеры и "квантовая телепортация" - это не то, что из разряда фантастики, а даже из разряда фэнтези ) Я правда с тех пор, его не видел к сожалению ) Ваш прогноз по поводу 80-летнего ступора беспилотных автомобилей (в то время, как они уже вовсю бороздят дороги в цивилизованных странах) для меня примерно из этого же разряда. Но я ни в коей мере не претендую на истину, это всего лишь скромное мнение. Может быть как угодно на самом деле.
        Ответить
        • Teodor77 > Александр Гор | 01.11.2018 | 10:47 Ответить
          На четыре четких и совершенно разумных довода рассуждение в стиле фэнтези о несомненных преимуществах передвижения на прогрессивных цеппелинах на водороде.
          Забыли о крахе доткомов?
          Ответить
        • nicolaus > Александр Гор | 05.11.2018 | 20:10 Ответить
          Чтобы почувствовать сложность проблемы создания системы, которая по способностями распознавания образов приближается к уровню человека, предлагаю посмотреть статью «Запущен самый крупный суперкомпьютер, имитирующий человеческий мозг» по ссылке https://naked-science.ru/article/hi-tech/zapushchen-samyy-krupnyy?utm_source=yxnews&utm_medium=desktop. Суперкомпьютер, способен имитировать в реальном времени 1 миллиард нейронов. Можно предположить, что этого количества нейронов достаточно чтобы решать локальную задачу автоматического управления автомобилем.
          Судя по фотографии суперкомпьютер содержит большое количество стоек и очень мощную систему вентиляции. На современном уровне технологии такой суперкомпьютер вряд ли может быть упакован в размере небольшой коробочки, а его электропотребление снижено с нескольких сотен киловатт до сотен ватт. Учитывая, что суперкомпьютер запущен совсем недавно, скорее всего интегральные микросхемы, из которых он состоит, выполнены по технологии 14-16 нм, что близко к фундаментальному пределу уменьшения топологических размеров элементов микросхем. Поэтому надеяться на скорое решение проблемы не приходится.
          Но дело здесь даже не в технических проблемах. Я думаю, что человек никогда не примет того, что машина будет решать кому жить, а кому нет.
          Ответить
  • matod  | 01.11.2018 | 09:34 Ответить
    Интересная статья, прекрасная работа, спасибо!

    Присоединяюсь к высказанной выше идее, что большую часть возможных проблем можно решить, если превратить транспортную систему из индивидуалистической (где каждый участник,пусть даже с электронным мозгом, преследует свои цели) в коллективную. Где всем движением управляет единая система, преследуя общую цель, чтобы ВСЕ добрались до своих мест в целости. Как в муравейнике. Это в принципе искоренит значительную часть причин аварий, возникающих из-за того, что кто-то решил, что его интересы выше, чем интересы или безопасность других.

    Еще заинтересовал вот какой вопрос - во всех подобных исследованиях, где используется моральная дилемма почему-то людей просят отвечать с точки зрения активного участника, который принимает решения. Почему бы не узнать мнение потенциальных жертв этих ситуаций - какой бы выбор предпочли они. Возможно, это откроет новые стороны в исследуемом вопросе.
    Ответить
    • Teodor77 > matod | 01.11.2018 | 10:37 Ответить
      Все верно. Частный автотранспорт убивает больше, чем войны. Число жертв американской мечты "под каждую пятую точку по авто" или - 1 250 000 человек в год только убитыми. В войнах гибнет на порядок меньше.
      Этого монстра надо обуздать. Один рецепт - вытащить из рукава чудодейственный ИИ, другой - создать эффективный общественный транспорт.
      Ответить
    • Роман Пехов > matod | 02.11.2018 | 12:57 Ответить
      Ой, забавно сравниваете с муравейником! Муравьи, конечно, альтруисты и кооператоры, но на единую систему (в обсуждаемом смысле) таки не тянут. С одной стороны муравейника обнаружилась гусеница, а с другой стороны птица стала поедать наших. Что делают муравьи и что делала бы единая система?
      Ответить
      • matod > Роман Пехов | 03.11.2018 | 05:22 Ответить
        Вы меня не правильно поняли, я не имел ввиду, что муравьями управляет единая система. Сравнение с муравейником было в глобальном смысле - в целеполагании, а не в плане организации системы управления, конечно же.
        Деятельность отдельно взятого муравья всегда преследует общую цель муравейника, у него нет личного интереса, как у человека, ведущего свой автомобиль. Здесь на "Элементах" была статья в которой упоминалось, почему в муравейниках не бывает дорожных пробок - муравью нет никакой причины кого-то обгонять, пытаться проскочить быстрее за счет других. Их трафик оптимизирован по нуждам всего сообщества. Люди, сидя каждый в своей машине, этого сделать никогда не смогут (есть такое явление "Трагедия общин") . А вот единая система управления, у которой будет "муравьинная" логика и более полная информации о дорожной ситуации, чем у отдельного транспортного средства - сможет.
        Ответить
  • leonid_ge  | 01.11.2018 | 11:28 Ответить
    Думаю, когда автопилоты заполоняют дороги, ответственность за спасение пешеходов плавно перейдет на самих пешеходов. Сейчас перебегаешь дорогу в неположенном месте - знаешь, что водитель-человек затормозит. А если будешь знать, что за рулём автопилот, просто не побежишь. Найдешь переход.
    Ответить
    • Александр Гор > leonid_ge | 01.11.2018 | 17:56 Ответить
      Частично с вашей идеей согласен. Тем более, я как-то видел статистику, что в смертельных ДТП с пешеходами, водитель виноват примерно в 25% случаев, а пешеход в 75%. Не помню, это статистика по странам СНГ или общемировая. Допускаю, что это обусловлено безнаказанностью пешеходов. Как минимум в многих странах это так - для нарушителей пешеходов абсолютно не предусмотрено протокола санкций. Из-за этого, они привыкли к подобному и творят полный беспредел - перебегают в неположенных местах, идти на красный вообще норма. Кого, к примеру, вы чаще видите - авто, едущее на красный, или пешехода, перебегающего на красный? Ответ очевиден. Да, еще кстати, кто хоть раз видел полицейского , штрафующего пешехода-нарушителя. ) Я в цивилизованных странах видел, на просторах бывшего СССР - ни разу )
      Ответить
      • leonid_ge > Александр Гор | 01.11.2018 | 18:53 Ответить
        Насчет пешеходов на красный: в Германии, например, за это штрафуют, а вот в Англии принято переходить на красный, если нет машин или они далеко. Сколько раз наблюдал, как сами полицейские так делают и вообще все люди, даже если рядом полицейский. То есть в Англии красный для пешеходов означает: внимание, пропустите автомобили и переходите.
        Ответить
        • Александр Гор > leonid_ge | 01.11.2018 | 19:11 Ответить
          не знал такого, интересно ) спасибо за информацию
          Ответить
          • matod > Александр Гор | 03.11.2018 | 05:28 Ответить
            Где-то попадалась информация, что в США тоже есть подобные вещи - допускается нарушение правил, если это точно не представляет никому угрозы. По-моему, там речь шла о движении по встречной полосе на пустынном, просматриваемом участке дороги.
            Ответить
        • Teodor77 > leonid_ge | 02.11.2018 | 09:19 Ответить
          В Англии и не такое можно увидеть. Они там все по встречке ездят, даже когда полицейские рядом.
          Ответить
      • matod > Александр Гор | 03.11.2018 | 05:34 Ответить
        Безнаказанность пешехода относительная - он в большей мере рискует своим здоровьем, в случае столкновения. Ужесточение ответственности не всегда способствует снижению числа нарушений, т.е. надо проверять, исход заранее не очевиден.

        Конфликт пешеход-автомобиль можно принципиально решить только полным разделением этих двух потоков.
        Ответить
  • Alcor  | 03.11.2018 | 02:20 Ответить
    Главный приоритет - жизнь пассажира.
    Ни один вменяемый человек не сядет в автомобиль, который считает что его жизнь безоговорочно не на первом месте среди приоритетов.
    Ответить
    • gthnjdbx > Alcor | 03.11.2018 | 16:33 Ответить
      Пассажир, севший в автомобиль у которого его жижнь безоговорочно на первом месте, должен разделить с автомобилем ответственность за жизни других участников ДТП, потому что пассажир осознанно своим выбором поставил свою жизнь безоговорочно на первое место.
      Ответить
      • Alcor > gthnjdbx | 03.11.2018 | 19:54 Ответить
        Даже очень теоретическая вероятность того, что автомобиль сознательно может убить или покалечить своего пассажира отпугнет большинство потенциальных пассажиров.
        Остальные аргументы не прокатывают от слова совсем.
        Вы бы сами согласились отправить таким автомобилем свою семью, имея информацию, что по причине наличия идиотов на дороге, искусственный интеллект теоретически может принять решение убить вашу семью?
        Ответить
        • 3g430 > Alcor | 04.11.2018 | 11:15 Ответить
          Вы описываете текущую ситуацию. Мажоры гоняют, плюя на все правила, в том числе и потому, что знают, что их дорогущие машины оснащены выше среднего эффективными средствами безопасности, которые сохранят им жизнь (не всегда, правда), а остальные вынуждены рисковать, пользуясь теми же дорогами, несмотря на наличие на них идиотов.
          Мораль ИИ отражает мораль интеллекта естественного. Если Ваше предложение будет признано законом - на какие меры и за счет кого будут готовы пойти автопроизводители в погоне за увеличением безопасности своих покупателей, скажем, с 99,9% до 99,95%?
          Ответить
  • Stan Polozov  | 06.11.2018 | 13:22 Ответить
    Я, как инженер, сильно удивлен формулировкой проблемы.

    Читаем:
    В каждой дилемме участвует едущий по дороге беспилотный автомобиль, у которого внезапно отказали тормоза,...

    Это как это "внезапно"?
    Напоминает армейскую шутку: Представьте, что вы в голом поле, ни ямки, ни кустика, и вдруг из-за угла выезжает танк!

    Если у автомобиля "внезапно" отказали тормоза, то значит он до этого уже был неисправен. Как он мог выехать на дорогу, если у него исправна только одна из ТРЕХ тормозных систем (которая по условию вопроса, потом "внезапно" откажет):
    1) гидравлический (обычный) тормоз
    2) механический (ручной) тормоз
    3) торможение двигателем (ДВС или электро)

    И все это напрочь отказало? И, несмотря на это, машина выехала на дорогу?...

    Может быть, я излишне эмоционален, но эти вопросы придумывали откровенно неумные люди.

    А нельзя было вопрос поставить как то так:
    Можно ли сертифицировать автомобиль, у которой в принципе могут отказать все системы торможения? Ответ очевиден.

    А в общем, если я-робот, и таки отказал основной тормоз,
    1) торможу ДВУМЯ другими, причем еще забочусь об участниках движения сзади,
    2) включаю аварийку, паркуюсь у ближайшего места высадки пассажиров, высаживаю,
    3) вызываю эвакуатор или медленно еду по первой полосе до места ближайшей эвакуации или ТО.

    И получается, что нет никаких проблем!

    Суть статьи в том, что постановка вопроса сильно "гуманизирована" - то есть, исходит из точки зрения человека - белковой субстанции с 86 миллиардами нейронов, сильно (в миллионы раз) более медленной реакцией, сильно ограниченным количеством каналов восприятия окружающей среды (два глаза), и главное, полным отсутствием связи с диагностическими системами автомобиля.

    У правильно спроектированного роботизированного автомобиля всех этих недостатков не будет, поэтому подобных глупо сформулированных ситуаций не будет тоже.

    Да, будут другие, тоже из разряда "кого убить", но никак не эти...

    В целом же, роботизированные автомобили будут предоставлять уровень безопасности на несколько порядков более высокий, чем могут обеспечить "белковые водители".
    Ответить
    • nicolaus > Stan Polozov | 07.11.2018 | 17:11 Ответить
      «В целом же, роботизированные автомобили будут предоставлять уровень безопасности на несколько порядков более высокий, чем могут обеспечить "белковые водители".»

      Поясните пожалуйста, за счет чего можно достичь требуемый уровень в распознавании образов, необходимый для успешного автоматического вождения (например, распознать старика, молодого человека или собаку и спрогнозировать их поведение, причем в разных погодных условиях – в дождь и в туман, днем и ночью, с использованием датчиков которые залеплены грязью или снегом, и т.д.)
      При этом одновременно обеспечить высокую надежность и относительно низкую стоимость персональной автоматизированной системы управления автомобилем.
      Ответить
      • Stan Polozov > nicolaus | 08.11.2018 | 02:16 Ответить
        > за счет чего можно достичь требуемый уровень в распознавании образов, необходимый для успешного автоматического вождения

        А как это люди делают? Вот, точно так же, только роботы это будут делать на порядки более эффективно... впрочем, уже делают... и это только начало.

        > с использованием датчиков которые залеплены грязью или снегом, и т.д.)

        Если датчики заляпаны, и неисправны средства их очистки, то автомобиль просто не поедет.

        > При этом одновременно обеспечить высокую надежность и относительно низкую стоимость персональной автоматизированной системы управления автомобилем.

        А тут-то в чем трудность? Вы сейчас носите в кармане устройство, вычислительная мощность которого превышает мощность всех вместе взятых компьютеров мира 50 лет назад. Сколько стоит его центральный процессор? Несколько долларов!
        Ответить
        • electrosnake > Stan Polozov | 08.11.2018 | 08:00 Ответить
          Побуду все же адвокатом дъявола. Не следует понимать так буквально "сломанные тормоза", это просто простая абстракция, не нужно на неё вестись. Даже если автомобиль внутри полностью безупречен, на дороге может разлиться масло, туда может выпрыгнуть пьяный лось из зарослей, упасть вертолет или террористы могут взорвать мост.

          В некоторых случаях выбор тут очевиден - нужно совершенствовать системы безопасности автомобиля, чтобы они вероятность гибели пассажиров сводили к нулю, и полностью отделять пешеходов от автомобилей (никаких наземных переходов, только подземные и мосты).

          Даже в этом случае при взорванном мосте, конечно, возникнет альтернатива - влететь в отбойник, или свалиться на машины/пешеходов, едущие/идущих внизу. Но тут уж примерно пофиг, что произойдет, это уже не по части морали, а по части терроризма/форсмажора (если мост сам обвалится, например).

          Повод для исследования тут довольно идиотский, на мой взгляд, потому что исходит из идеи, что AI способен "принимать решения". Но "решения принимать" он способен не более, чем электрочайник, а по поводу электрочайников дебаты "кем жертвовать в случае чего" почему-то не ведутся.

          Как, впрочем, и человек никакие "решения принимать" не способен, конечно (иллюзия "свободы воли"), но другого способа пасти народы, кроме УК, пока не придумано.

          А тут все вроде как просто - в случае форсмажора, понятно, производитель не несет ответственности, если только он не устроит какую-то совсем уж безумную бойню по случаю, в случае _не_форсмажора_, а в случае бага - несет. Вот и всё.
          Ответить
        • nicolaus > Stan Polozov | 08.11.2018 | 09:19 Ответить
          «А как это люди делают? Вот, точно так же, только роботы это будут делать на порядки более эффективно... впрочем, уже делают... и это только начало.»

          Согласен, это только начало. Но в нашем веке это только фантазии.
          Вот здесь - пост от 05.11.2018 20:10 - привел ссылку по реализации новейшей и самой мощной машины, которая может имитировать 1 миллиард человеческих нейронов в реальном режиме времени (т.е. она «думает» не быстрее человека). По мысли разработчиков эта машина предназначена «для интерпретирования визуальной информации в реальном времени и навигации по направлению к определенным объектам, игнорируя другие». Т.е. по сути может управлять роботом или автомобилем как человек. По всей видимости машина разработана на микросхемах с самыми современными достижениями в миниатюризации (14-16 нм).
          Сложность заключается в том, как вписать эту машину в маленькую коробочку - снизить ее объем в несколько тысяч раз, во столько же раз уменьшить ее электропотребление, обеспечить соответствующую надежность и стоимость которая доступна для рядового автолюбителя. Следует отменить, что уменьшение размеров элементов процессоров не может быть бесконечным. В настоящее время такой гигант как Интел уже отказался от перехода на топологические нормы 10 нм. Сложность внедрения этих норм не в технологии. Проблема в том, что стоимость с переходом на этот и следующие уровни начинает резко возрастать. Помимо этого, есть предел миниатюризации, который, видимо, находится на уровне 2 или 5 нм. Также есть зависимость, связанная с надежностью. Надежность резко уменьшается при приближении к пределу миниатюризации и с увеличением количества логических элементов. По этой причине в военных приложениях и в промышленности не стремятся использовать минимальные нормы.
          Ответить
Написать комментарий
Элементы

© 2005–2025 «Элементы»