Исследователи определили общие маркеры «ненадежности» ИИ

22 июля

Современные системы ИИ, использующиеся для идентификации изображений, крайне мощны и перспективны для коммерческого внедрения. Тем не менее, нейронные сети, работающие на алгоритмах глубокого обучения, обладают одним огромным недостатком – их нетрудно взломать даже слегка откорректированными фотоснимками и картинками.

Подобная «ненадежность» – серьезное препятствие для исследователей, стремящихся разработать идеальный ИИ. Для устранения этого недостатка, ученые в Университете Кюсю придумали и внедрили методику «Raw Zero-Shot», оценивающую, по какому механизму нейросети обрабатывают неизвестные им элементы.

«Сегодня на рынке внедрен целый ряд неплохо работающих ИИ-сервисов, включая беспилотники и диагностические программы для больниц и поликлиник. Однако даже самый идеальный ИИ может дать сбой при минимальной коррекции картинки окружающей среды», – рассказал автор проекта Данило Васконселлос Варгас.

На практике, чтобы реально обучить ИИ, применяются миллионы образцов изображений, прежде чем нейросеть попросят идентифицировать одно из них. Например, чтобы научить ИИ идентифицировать тот либо иной товар, нейросетям сначала нужно предоставить тысячи картинок такого товара. Однако и тут имеются подводные камни. Исследователи обнаружили, что фото- и видеоконтентом можно манипулировать так, что ИИ не сможет его классифицировать, хотя для человека он будет неизменным.

«Если дать ИИ изображение, он ответит вам, что это такое. Верный или неверный ответ – другой вопрос. Мы применили инновационный механизм под названием «Необработанный нуль». По сути, ИИ получил доступ к серии изображений без обучения. Наша гипотеза заключалась в том, что в их ответах будут корреляции. Они будут неправильными, но неправильными в определенной последовательности», – пояснил Варгас.

Ученые отыскали нужное решение. Во всех случаях ИИ, описывающий картинки, выдаст ответы пусть даже и неверные, однако последовательные, сгруппированные. Плотность каждого из кластеров будет указывать на то, как ИИ обрабатывал неизвестные изображения, отталкиваясь о «личных» фундаментальных знаний.

«Если мы нащупаем логику размышлений и заблуждений ИИ, мы поймем, почему нейросеть ломается, сталкиваясь с измененными даже на однопиксельном уровне изображениями. Использование полученных знаний при решении одной проблемы, применяя их к другой, связанной задаче, называется машинной переносимостью», – добавил Варгас.

Он резюмировал, инженерам при создании ИИ следует не сосредотачиваться исключительно на точности, а повышать надежность и гибкость нейросетей. Только тогда специалисты смогут разработать настоящий искусственный интеллект, четко функционирующий в коммерческой, социальной, промышленной, иной сфере.

Источник фото: naked-science.ru

Читайте также