Автономные автомобили с автоматическим управлением - это первое поколение роботов, которые разделяют с нами повседневную жилую площадь. Поэтому важно разработать правила и ожидания для автономных систем, которые определяют, как такие системы должны вести себя в критических ситуациях. Институт когнитивных наук в Университете Оснабрюка в настоящее время опубликовал исследование «Границы поведенческой неврологии», в котором показано, что человеческие и этические решения могут быть реализованы в машинах и что автономные транспортные средства могут вскоре преодолеть моральные дилеммы в дорожном движении.
Этические принципы определяют управление автономными транспортными средствами
В политическом плане дебаты о моделировании моральных решений сопровождаются инициативой Федерального министерства транспорта и цифровой инфраструктуры, которая сформулировала 20 этических принципов.
«Чтобы определить правила или рекомендации, необходимо выполнить два шага», - объясняет Гордон Пипа, один из ведущих ученых в исследовании. «Прежде всего, вы должны анализировать и понимать нравственные решения человека в критических ситуациях. Второй шаг состоит в том, чтобы статистически описать поведение человека, чтобы вывести правила, которые затем могут быть использованы в машинах ».
Эксперимент требует морального рассмотрения со стороны участников
Для реализации обоих этапов авторы использовали виртуальную реальность для наблюдения за поведением испытуемых в смоделированных дорожных ситуациях. Участники исследования проехали по улицам типичного пригорода в туманный день. В ходе экспериментов были неизбежные и неожиданные ситуации дилеммы, в которых люди, животные или предметы были препятствиями на дорожках. Чтобы избежать препятствий на одной из двух полос движения, необходимо было принять моральные соображения.
Наблюдаемые решения были затем оценены статистическим анализом и переведены в правила. Результаты показывают, что в контексте этих неизбежных происшествий моральное поведение может быть объяснено простой ценностью жизни для каждого человека, каждого животного и каждого объекта.
Опишите моральные решения с правилами
Леон Сютфельд, ведущий автор исследования, объясняет это следующим образом: «Моральное поведение человека можно объяснить или сравнить со значительной точностью, сравнивая ценность жизни, которая связана с каждым человеком, животным или объектом. Это показывает, что моральные решения человека в принципе могут быть описаны с помощью правил, и что эти правила могут, следовательно, также использоваться машинами ».
Эти новые результаты в Оснабрюке противоречат восьмому принципу отчета BMVI, который основан на предположении, что моральные решения не могут быть смоделированы.
Как объяснить это фундаментальное различие? Алгоритмы могут быть описаны правилами или статистическими моделями, которые могут связывать несколько факторов друг с другом. Законы, например, основаны на правилах. Напротив, человеческое поведение и современные искусственные интеллектуальные системы используют довольно сложное статистическое взвешивание. Такое взвешивание позволяет как людям, так и современному искусственному интеллекту оценивать новые ситуации, которым они ранее не подвергались. В научной работе Зютфельда для описания данных использовался метод, похожий на поведение человека. «Поэтому правила не должны быть сформулированы абстрактно человеком за столом,но получены и извлечены из человеческого поведения. Это поднимает вопрос о том, не следует ли использовать эти выученные и концептуализированные правила как моральный аспект в машинах », - говорит Сютфельд.
«Теперь, когда мы знаем, как реализовать моральные решения в машинах, у нас все еще есть две моральные дилеммы», - говорит профессор доктор. Питер Кениг, другой автор этой публикации, добавляет: «Во-первых, мы должны принять решение о влиянии моральных ценностей на правила поведения машин. Во-вторых, мы должны решить, хотим ли мы, чтобы машины (только) вели себя по-человечески ». (Jup)