Это считается новаторской технологией будущего: искусственный интеллект (ИИ). Мы уже используем ваши приложения, такие как языковые помощники или программы перевода, как само собой разумеющееся в повседневной жизни, и промышленность также все чаще использует приложения ИИ, например, для профилактического обслуживания, от которого он ожидает большой экономический потенциал. И это всего лишь предвестник многочисленных социальных и экономических изменений, которые использование искусственного интеллекта принесет с собой в будущем.
Риск искусственного интеллекта
Сторонники искусственного интеллекта подчеркивают свои шансы и преимущества, но есть и предупреждающие голоса: как быть с риском, если, например, робот выйдет из строя и неправильное движение ставит под угрозу жизнь работающего рядом с ним работника? Или когда автономный автомобиль проезжает на красный свет и тем самым ставит пешеходов в опасную для жизни ситуацию?
Д-р Даниэль Шнайдер, руководитель отдела техники безопасности Института экспериментальной разработки программного обеспечения им. Фраунгофера IESE, объясняет: «Искусственный интеллект и, в частности, машинное обучение, становятся все более важным фактором автоматизации, хотя обеспечение безопасности машинного обучения все еще остается в значительной степени нерешенной проблемой. Основная проблема заключается в том, что установленные методы и стандарты для обеспечения безопасности всегда предполагают полное понимание системы и ее среды. Это основное предположение больше не относится к системам с компонентами ИИ.
Как доказать безопасность?

Это сразу же поднимает вопрос: в какой форме может быть продемонстрирована функциональная безопасность для такой системы?
«В целом, доказательство безопасности не означает, что никакого ущерба не может быть, но что риск является приемлемым - хотя все еще существует некоторая путаница в отношении степени приемлемого риска», - говорит Шнайдер. В случае самостоятельного вождения автомобиля возникает вопрос, какой остаточный риск будет принят. Разумной отправной точкой может быть обеспечение того, чтобы автономные транспортные средства вызывали значительно меньше аварий, чем автомобили, управляемые человеком. Однако не следует забывать, что даже для быстро реагирующей автоматизированной системы, например, требуется определенный тормозной путь в зависимости от скорости. «Следовательно, всегда будет остаточный риск, с которым общество должно жить», - объясняет эксперт AI.
Познакомьтесь с редакцией строительной практики
Узнайте в эксклюзивной лекции, как искусственный интеллект может также преуспеть в критических условиях безопасности. Кроме того, лично познакомьтесь с редакторами строительной практики за чашкой кофе и закуской.
Когда: Когда: 27 ноября 2019 года, с 10 до 12 часов.
Где: Коммуникационная группа Vogel в Зале 6, стенд 360
Кто: Доктор Daniel Schneider, Fraunhofer IESE лекции по искусственному интеллекту даже в условиях безопасности критически важных.
Заинтересовались? Тогда регистрируйтесь без обязательств - спонтанные посетители, конечно, также очень приветствуются.
Как защитить приложения AI

Если вы сейчас рассмотрите основные варианты защиты компонентов машинного обучения (ML), вы сможете различить два разных, но, безусловно, взаимодополняющих подхода. С одной стороны, вы можете попытаться проанализировать и обезопасить поведение ML самостоятельно, например, с помощью методов объяснимого ИИ. « Тем не менее, здесь все еще требуется много исследований», - объясняет Шнайдер. Поэтому в настоящее время более перспективной стратегией является обеспечение защиты с помощью параллельного мониторинга с использованием обычного программного обеспечения. Хитрость заключается в том, чтобы разработать монитор таким образом, чтобы он максимально не ограничивал производительность контролируемой системы.
Как и можно ли это сделать, во многом зависит от соответствующего применения и общих условий. В любом случае «обычное» программное обеспечение для мониторинга - в отличие от компонента ML - также может быть условно защищено и доказано, так что отказ решения AI не имеет серьезных последствий.
Доктор объяснит, как можно обеспечить функциональную безопасность для машин и систем с компонентами ИИ. Даниэль Шейдер; Фраунгофер IESE, выступая на 7-м совещании по безопасности машин. Нажмите здесь, чтобы зарегистрироваться.
СОВЕТ ПО СЕМИНАРУ Семинар «Оценка рисков и инструкции по эксплуатации» помогает реализовать наиболее важные требования Директивы по машиностроению 2006/42 / EC.
Следующая информация