Искусственный интеллект обманывает больше, чем ожидалось

Искусственный интеллект обманывает больше, чем ожидалось
Искусственный интеллект обманывает больше, чем ожидалось
Anonim

С помощью искусственного интеллекта фабрики станут умнее, а транспортные средства научатся водить самостоятельно. ИИ делает возможным использование цифровых голосовых помощников, и они даже улучшают медицинскую диагностику. Проблема: как ученые принимают свои решения, остается неизвестным многим ученым. В результате часто остается неясным, являются ли они действительно разумными решениями или просто статистически успешными процессами, которые ни в коем случае не являются интеллектуальными.

Debunk AI чит-системы безошибочно

Исследователи из TU Berlin, Института им. Фраунгофера Генриха Герца (HHI) и Сингапурского университета технологии и дизайна исследовали этот вопрос и в статье, опубликованной Nature Communications, имеют весь спектр «интеллекта» существующих систем ИИ со специальной автоматизированная технология проанализирована и определена количественно (см. текст в рамке).

Дополнительная информация о предмете недавно разработанного процесса

Наиболее важной предпосылкой для новой технологии является технология, разработанная TU Berlin и HHI, так называемое «Распространение по уровням» (LRP), которое делает видимыми критерии, по которым системы ИИ принимают решения. Дальнейшее развитие технологии LRP, «Анализ спектральной релевантности», идентифицирует и количественно определяет широкий спектр изученного поведения при принятии решений. Это позволяет распознавать нежелательные решения даже в очень больших наборах данных.

«Этот так называемый« объяснимый ИИ »(объяснимый искусственный интеллект) является одним из наиболее важных шагов для практического применения и распространения ИИ, - объясняет доктор Клаус-Роберт Мюллер, профессор машинного обучения в TU Berlin. «В частности, в медицинской диагностике или в системах, критически важных для безопасности, нам не разрешено вводить алгоритмы ИИ с небезопасными стратегиями решения проблем или другими кандидатами на мошенничество».

С разработанным в настоящее время методом не только были подвергнуты испытанию существующие системы ИИ, но и эти системы также были определены количественно: от наивного решения проблем, до мошеннических стратегий до высокоразвитых «интеллектуальных» стратегических решений.

Встреча пользователей машиностроения Любой, кто хочет эффективно проектировать интеллектуальные машины, в будущем должен будет полагаться на новые методы, инструменты и концепции. Встреча машиностроительной пользователя обеспечивает ориентацию.

Дополнительная информация: встреча пользователей машиностроения

Умный Ганс: лошадь, которая могла рассчитать

Д-р Войцех Самек, руководитель группы в Fraunhofer HHI: «Мы были очень поражены широким спектром стратегий решения проблем, которые мы узнали. Даже современные системы ИИ не всегда находят решение, которое имеет смысл с человеческой точки зрения, но иногда используют так называемые «умные стратегии Ганса».

Умный Ганс был лошадью, которая должна была считать и считать и считалась научной сенсацией в 1900 году. Как выяснилось позже, Ганс не освоил математику, но смог получить правильный ответ по ответу опрашивающего примерно в 90 процентах случаев.

Следующее видео объясняет феномен умного Ганса более подробно:

Клаус-Роберт Мюллер и Войцех Самек и их коллеги смогли найти похожие стратегии решения «Умный Ганс» в различных системах ИИ. Например, система искусственного интеллекта, которая выиграла несколько международных конкурсов по классификации изображений несколько лет назад, преследовала стратегию решения, которая была наивной с человеческой точки зрения: она классифицировала изображения, главным образом, на основе контекста. Изображения были отнесены к категории «Корабль», когда на изображении было много воды. Другие изображения были классифицированы как «поезда», если были рельсы. Другие фотографии были отнесены к нужной категории с использованием надписи об авторских правах. Эта система ИИ не решала реальную задачу, а именно распознавать корабли или поезда - даже если в конечном итоге она правильно классифицировала большинство изображений.

Картинная галерея

Неправильные стратегии решения опасны

Этот тип стратегии ошибочного решения был также обнаружен в некоторых из последних алгоритмов ИИ, так называемых глубоких нейронных сетей. Они основывают свое решение о классификации частично на артефактах, которые были созданы во время подготовки изображений и не имеют никакого отношения к фактическому содержанию изображения.

«Такие системы искусственного интеллекта совершенно непригодны для практического использования. Их использование в медицинской диагностике или в критических для безопасности областях даже представляет огромную опасность », - объясняет Мюллер. «Вполне возможно, что около половины систем ИИ, используемых в настоящее время неявно или явно, используют такие стратегии« Умного Ганса ». Пришло время систематически пересмотреть это, чтобы можно было разработать безопасные системы ИИ ».

СОВЕТ ПО СЕМИНАРУ С помощью онлайн-курса «Машинное обучение - как машина обучается?» Вы можете глубже изучить методологию. Профессор ван дер Смагт - руководитель отдела искусственного интеллекта в Volkswagen - объясняет участникам в течение двух часов наиболее важные концепции машинного обучения в концентрированной и сжатой форме.

Следующая информация

Сделайте системы ИИ более безопасными

Однако новая технология также выявила системы искусственного интеллекта, которые неожиданно освоили «интеллектуальные» стратегии. В качестве примеров можно привести системы, которые научились играть в игры Atari «Breakout» и «Pinball». «Здесь системы ИИ четко поняли концепцию игры и нашли разумный способ набрать много очков целевым образом и с низким уровнем риска». Иногда система выбирает пути, по которым не мог бы играть настоящий игрок », - говорит Войцех Самек.

«Наша автоматизированная технология имеет открытый исходный код и доступна для всех ученых. Мы рассматриваем нашу работу как важный первый шаг к тому, чтобы сделать системы искусственного интеллекта более надежными, понятными и безопасными в будущем. Потому что это является обязательным условием для использования ИИ вообще », - говорит Клаус-Роберт Мюллер.

VDE исследование

Как ИИ может изменить работу инженеров

Электронный индекс тренда