През последните години компютърното зрение се подобри значително, но все още е в състояние да направи сериозни грешки. Толкова много, че има цяла област от изследвания, посветени на изучаването на картини, които редовно са погрешно идентифицирани от AI, известни като „враждебни образи“. Мислете за тях като за оптични илюзии за компютрите. Докато вие виждате котка на едно дърво, AI вижда катерица.

Има голяма необходимост от изучаване на тези образи. Тъй като поставяме системите за машинно зрение в сърцето на новите технологии като AI камерите за сигурност и колите за самостоятелно шофиране, вярваме, че компютрите виждат света по същия начин, както и ние. Враждебните образи доказват, че това не винаги е така.

Но докато много внимание в тази област е съсредоточено върху снимки, които са специално предназначени да заблудят AI (подобно на 3D отпечатана костенурка, която алгоритмите на Google бъркат за пистолет), тези видове объркващи визуализации се появяват и естествено, пише Hicomm Тази категория изображения е по-тревожна, защото показва, че системите за машинно зрение могат да правят непринудени грешки.

За да докаже това, група изследователи от Бъркли, Университета на Вашингтон и Университета на Чикаго създават набор от данни от около 7 500 „естествени примери за враждебни образи“. Те тестват редица системи за машинно зрение с тези данни и установяват, че тяхната точност е спаднала с до 90%, а софтуерът в някои случаи може да идентифицира само два или три процента изображения.

Можете да видите как изглеждат тези „естествени примери за враждебни образи“ в галерията по-долу:

В придружаваща статия изследователите твърдят, че се надяват данните да помогнат за обучението на по-стабилни системи за зрение. Те обясняват, че изображенията използват „дълбоки недостатъци”, които произтичат от „прекаленото разчитане на цвета, текстурата и фоновите знаци” на софтуера, за да идентифицира това, което вижда.

Някои изследвания показват, че AI се фокусира върху конкретни текстури и детайли, вместо да разглежда цялостно картините, като има предвид общата форма и съдържание. Например в едно изображение AI акцентира върху хранилка за колибри, но пропускат факта, че на снимката няма самото колибри.

Това, че системите за изкуствен интелект правят такива грешки, не е новина. Изследователите предупреждават от години, че системите за виждане, създадени с помощта на дълбоко обучение (вид машинното обучение, което е отговорно за много от последните постижения в AI), са „плитки“ и „чупливи“ - което означава, че те не разбират света със същия нюанс и гъвкавост като човек.

Тези системи се обучават на хиляди примери, за да научат как изглеждат нещата, но често не знаем кои точно елементи в картините използва AI, за да направи своите преценки.