Дом аудио Почему дарпа исследует объяснимые аи?

Почему дарпа исследует объяснимые аи?

Anonim

Q:

Почему DARPA исследует «объяснимый ИИ»?

A:

В общем, объяснимый искусственный интеллект становится очень важной частью передовой работы в области наук о данных. Это помогает руководить человеческим контролем над нестабильным и динамичным типом технологии - объяснимый ИИ помогает ответить на многие наши коллективные вопросы о том, как будет работать искусственный интеллект.

Чтобы понять объяснимый ИИ, нужно понять, как выглядит «обычный ИИ». Традиционно, когда ИИ начинает обретать форму, типичный проект состоит из необычного нового программного обеспечения, скрытого в алгоритмах и обучающих наборах и линейном коде, что является своего рода «блок-боксом» для пользователей. Они знают, что это работает - они просто не знают точно, как.

Это может привести к «проблемам доверия», когда пользователи могут подвергать сомнению основу, на которой технология принимает решения. Вот что объяснимый ИИ должен решать: Объясняемые проекты ИИ поставляются с дополнительной инфраструктурой, чтобы показать конечным пользователям намерения и структуру ИИ - почему он делает то, что делает.

В эпоху, когда ведущие инноваторы, такие как Билл Гейтс и Элон Маск, выражают озабоченность по поводу того, как будет работать искусственный интеллект, объяснимый ИИ кажется чрезвычайно привлекательным. Эксперты утверждают, что хороший объяснимый ИИ может помочь конечным пользователям понять, почему технологии делают то, что они делают, повышают доверие, а также повышают простоту использования и использования этих технологий.

Тем не менее, в частности, DARPA самостоятельно объясняет, почему она заинтересована в новых проектах. На странице DARPA показано, что Министерство обороны предвидит «поток» приложений искусственного интеллекта и некоторый хаос в его разработке.

«Дальнейшие достижения обещают создать автономные системы, которые будут воспринимать, учиться, принимать решения и действовать самостоятельно», - пишет Дэвид Ганнинг. «Однако эффективность этих систем ограничена неспособностью машины объяснить свои решения и действия пользователям. … Объясняемый ИИ - особенно объяснимое машинное обучение - будет иметь важное значение, если будущие боевики будут понимать, должным образом доверять и эффективно управлять новым поколением искусственно интеллектуальных партнеров по машинам ».

Онлайновое эссе Ганнинга предполагает, что объяснимые системы искусственного интеллекта помогут «обеспечить обоснование» технологий, показать их сильные и слабые стороны и сделать варианты использования более прозрачными. На графике на странице показано, как простой набор функций искусственного интеллекта из обучающих данных будет дополнен чем-то, что называется объяснимой моделью и объяснимым интерфейсом, который поможет пользователю ответить на вопросы. Далее Ганнинг предполагает, что объяснимая программа ИИ будет иметь две основные фокусные области - одна будет разбираться с мультимедийными данными, чтобы найти то, что полезно для пользователей, а вторая сфокусирована на моделировании процессов принятия решений для поддержки принятия решений.

DARPA надеется предоставить «инструментарий», который может помочь в разработке будущих объяснимых систем ИИ.

Почему дарпа исследует объяснимые аи?