Новости искусственного интеллекта: нейронная сеть учится, когда ей нельзя доверять — «99% не справятся»
ИИ становится все более важным элементом нашей повседневной жизни, от беспилотных автомобилей до медицинской диагностики. Но хотя такие сети следующего поколения превосходно распознают закономерности в сложных наборах данных, инженеры только сейчас понимают, как мы узнаем, когда они верны.
Эксперты AI разработали метод моделирования уровня достоверности машины на основе качества доступных данных.
Инженеры Массачусетского технологического института ожидают, что этот прогресс может в конечном итоге спасти жизни, поскольку глубокое обучение теперь широко применяется в повседневной жизни.
Например, уровень достоверности сети может быть разницей между автономным транспортным средством, определяющим между свободным перекрестком и «вероятно, ясно, поэтому остановитесь на всякий случай».
Такой подход, разработанный аспирантом Массачусетского технологического института Александром Амини, получивший название «глубокая доказательная регрессия», ускоряет процесс и может привести к созданию еще более безопасной технологии искусственного интеллекта.
ЧИТАЙТЕ БОЛЬШЕ: СМИ, управляемые искусственным интеллектом, будут « ВООРУЖЕНЫ », чтобы обмануть военных
Он сказал: «Нам нужна способность не только иметь высокопроизводительные модели, но и понимать, когда мы не можем доверять этим моделям.
«Эта идея важна и широко применима. Его можно использовать для оценки продуктов, основанных на изученных моделях.
«Оценивая неопределенность изученной модели, мы также узнаем, сколько ошибок следует ожидать от модели и какие недостающие данные могут улучшить модель».
Аналитик ИИ добавляет, что предыдущие подходы к анализу неопределенности основаны на байесовском глубоком обучении.
«Мы действительно заботимся об этом 1% времени и о том, как мы можем надежно и эффективно обнаруживать такие ситуации».
Исследователи начали с сложной задачи компьютерного зрения, чтобы проверить свой подход.
Они обучили свою нейронную сеть анализировать изображение и оценивать фокусную глубину для каждого пикселя.
Беспилотные автомобили используют аналогичные вычисления для оценки близости к пешеходу или другому транспортному средству — задача не из простых.
Как и надеялись исследователи, сеть прогнозировала высокую неопределенность для пикселей, где она предсказывала неверную глубину.
Амини сказал: «Он был тщательно откалиброван с учетом ошибок, которые допускает сеть, что, по нашему мнению, было одним из наиболее важных моментов при оценке качества нового оценщика неопределенности».
Тест показал способность сети отмечать, когда пользователи не должны полностью доверять ее решениям.
В таких примерах «если это приложение для здравоохранения, возможно, мы не доверяем диагнозу, который ставит модель, и вместо этого ищем второе мнение», — добавил Амини.
Доктор Райя Хадселл, исследователь искусственного интеллекта DeepMind, не участвовавший в работе Deep Evidential, описывает регрессию как «простой и элегантный подход, который продвигает область оценки неопределенности, что важно для робототехники и других систем управления в реальном мире.
Она добавила: «Это сделано новым способом, который позволяет избежать некоторых беспорядочных аспектов других подходов — [for example] выборка или ансамбли — что делает его не только элегантным, но и более эффективным в вычислительном отношении — выигрышная комбинация ».
В нашем Telegram‑канале, и группе ВК вы найдёте новости о непознанном, НЛО, мистике, научных открытиях, неизвестных исторических фактах. Подписывайтесь, чтобы ничего не пропустить.
Похожие статьи
ДРУГИЕ НОВОСТИ