Разработка искусственного интеллекта, который думает, как люди
Создание искусственного интеллекта, подобного человеку, — это больше, чем имитация человеческого поведения — технология также должна уметь обрабатывать информацию или «думать», как люди, чтобы на нее можно было полностью положиться.
Новое исследование, опубликованное в журнале Узоры и под руководством Школы психологии и нейробиологии Университета Глазго использует 3D-моделирование для анализа того, как глубокие нейронные сети — часть более широкого семейства машинного обучения — обрабатывают информацию, чтобы визуализировать, как их обработка информации совпадает с обработкой людей.
Мы надеемся, что эта новая работа проложит путь к созданию более надежной технологии искусственного интеллекта, которая будет обрабатывать информацию, как люди, и делать ошибки, которые мы можем понять и предсказать.
Одна из проблем, стоящих перед разработкой искусственного интеллекта, заключается в том, как лучше понять процесс машинного мышления и соответствует ли он тому, как люди обрабатывают информацию, чтобы обеспечить точность. Глубинные нейронные сети часто представляют как лучшую на данный момент модель поведения человека при принятии решений, достигающего или даже превышающего производительность человека в некоторых задачах. Однако даже обманчиво простые задачи визуального различения могут выявить явные несоответствия и ошибки моделей ИИ по сравнению с людьми.
В настоящее время технология Deep Neural Network используется в таких приложениях, как распознавание лиц, и, хотя она очень успешна в этих областях, ученые до сих пор не до конца понимают, как эти сети обрабатывают информацию и, следовательно, когда могут возникать ошибки.
В этом новом исследовании исследовательская группа решила эту проблему, смоделировав визуальный стимул, выдаваемый глубинной нейронной сетью, преобразовав его множеством способов, чтобы они могли продемонстрировать сходство распознавания путем обработки аналогичной информации между людьми и моделью ИИ.
Профессор Филипп Шинс, старший автор исследования и глава Института нейробиологии и технологий Университета Глазго, сказал: «При создании моделей искусственного интеллекта, которые ведут себя« как »люди, например, чтобы распознавать лицо человека, когда он видит его как человека Мы должны убедиться, что модель ИИ использует ту же информацию от лица, что и другой человек, чтобы ее распознать. Если ИИ этого не сделает, у нас может возникнуть иллюзия, что система работает так же, как и у людей, но затем мы обнаружим, что в каких-то новых или непроверенных обстоятельствах что-то происходит не так ».
Исследователи использовали серию изменяемых трехмерных лиц и попросили людей оценить сходство этих случайно сгенерированных лиц с четырьмя знакомыми личностями. Затем они использовали эту информацию, чтобы проверить, дают ли глубокие нейронные сети одинаковые оценки по одним и тем же причинам — проверяя не только то, принимали ли люди и ИИ одинаковые решения, но и основывались ли они на одной и той же информации. Важно отметить, что с помощью своего подхода исследователи могут визуализировать эти результаты в виде трехмерных лиц, которые определяют поведение людей и сетей. Например, сеть, которая правильно классифицировала 2000 личностей, управлялась сильно карикатурным лицом, показывая, что она идентифицировала лица, обрабатывающие совершенно иную информацию о лицах, чем люди.
Исследователи надеются, что эта работа проложит путь к более надежной технологии искусственного интеллекта, которая ведет себя больше как люди и делает меньше непредсказуемых ошибок.
Исследование «Обоснование предсказаний глубинной нейронной сети о человеческом поведении категоризации в понятных функциональных характеристиках: случай идентичности лица» опубликовано в Узоры.
В нашем Telegram‑канале, и группе ВК вы найдёте новости о непознанном, НЛО, мистике, научных открытиях, неизвестных исторических фактах. Подписывайтесь, чтобы ничего не пропустить.
Похожие статьи
ДРУГИЕ НОВОСТИ