protelecom

«Возлагать на ИИ ответственные задачи крайне опрометчиво»

«Возлагать на ИИ ответственные задачи крайне опрометчиво»

Технологии искусственного интеллекта сегодня используются в медицине, транспорте, им доверяют вопросы безопасности и другие важнейшие решения. Но на самом деле автономные алгоритмы еще далеки от совершенства.

«Порою нам очень трудно объяснить и предсказать поведение ИИ», — рассказывает Аниш Атали, аспирант Массачусетского технологического института.

В его практике был случай, когда алгоритм принял кота на фотографии за гуакамоле.

«Сбить нейросеть с толку довольно просто», — говорит ученый.

Например, чтобы ИИ принял знак «Стоп» за знак ограничения скорости, достаточно нескольких наклеек.

Аналогично, можно немного изменить раскраску — и машине покажется, что перед ней не бейсбольный мяч, а чашка эспрессо.

В рамках эксперимента Атали и его коллеги напечатали на 3D-принтере более 200 предметов, чтобы лучше понять природу «галлюцинаций» у ИИ. Среди прочего выяснилось, что игрушечная черепаха выглядит для нейросети как ружье.

«Результаты нашего эксперименты вызывают серьезные опасения, поскольку сегодня мы позволяем автономным алгоритмам управлять системами умного дома, водить автомобили и контролировать летательные аппараты, в то время как надежность таких систем в действительности невелика», — утверждает Атали.

Важно отметить, что алгоритмы ошибаются не только с визуальными объектами. Нейросеть может неправильно расслышать слово и в итоге превратно понять смысл всего предложения.

Николас Карлини из Google Brain рассказал BBC, как однажды ИИ распознал «голос», прослушивая сюиту для виолончели Иоганна Себастьяна Баха. Впоследствии на основе данного «открытия» был разработан метод, позволяющий внедрять в простые шумы и музыкальные произведения «тайные послания» роботам, неразличимые для человеческого уха (в качестве примера приводится эксперимент со встраиванием в классическую композицию команды-зловреда «открыть сайт evil.com»).

«Очевидно, что по степени осознанности действий ИИ еще очень далеко до человека», — говорит Карлини.

Чтобы исключить такие странные ошибки, Александр Мадри из Массачусетского технологического института предлагает специально обучать нейросети на сложных примерах. Непростые задачи научат робота распознавать кошку не только на фотографиях и видео, но еще и на примитивном детском рисунке.

«Проблема в том, что исследователи обучают нейросети хорошо распознавать изображения в среднем. Поэтому, будучи оптимизированными для распознавания большинства изображений, алгоритмы всегда будут путаться в отдельных случаях», — говорит Мадри.

Вместе с тем, исследователь признает, что способов изменить изображение и ввести ИИ в заблуждение так много, что проработать все из них не представляется возможным.

Саймон Стрингер из Оксфордского фонда теоретической неврологии и искусственного интеллекта предлагает другой путь. По его мнению, разрабатывающим и обучающим ИИ исследователям  необходимо ориентироваться на принципы работы человеческого мозга.

«В отличие от нашего мозга, современный ИИ распознает только форму объекта, но не взаимосвязи его частей друг с другом и с окружением. Кроме того, искусственные нейроны, как правило, работают одинаково, в то время как нейроны настоящие различаются между собой, к примеру, по времени реакции, также они способны передавать сигналы не только по восходящему пути, но и по нисходящему», — говорит Стрингер.

Ученый заключает, что по своей работе современные нейросети напоминают мозг лишь формально, внешне, в то время как их «внутренняя» функциональность в корне отличается от деятельности человеческого разума.

«Научить нейронные сети работать так же, как человеческий мозг, — безусловно, интересная идея. Однако на сегодняшний день сложно сказать насколько она жизнеспособна и сколько нам потребуется времени на ее воплощение в жизнь, так как ученые пока далеки от понимания, как именно работает наш мыслительный орган», — заключает Мадри.

***

«Хотя в ближайшей перспективе мы, вероятно, будем все чаще взаимодействовать с роботами и автономными системами, нам следует помнить о том, что полагаться на машины пока очень рано. Алгоритмы поддаются галлюцинациям, а их поведение иногда сложно предсказать. Машины могут подвести нас в самый ответственный момент, и об этом нельзя забывать», — подытожили журналисты BBC.

ИсточникиBBChightech.plus

Exit mobile version