image

Искусственный интеллект и машинное обучение — две технологии, имплементация которых и/или их производных в человеческое общество совершенно неизбежно радикальным образом поменяет его. Какие тренды сейчас особенно заметны, чем заняты ученые всего мира, и что происходит прямо сейчас — в этой статье.

1. Работа с естественными языками


Все системы языкового перевода и распознавания текста стали работать на основе обучаемых нейросетей. Собственно говоря, это уже хорошо заметно по тому же Google Translate, качество перевода которого растет, можно сказать, ежедневно. Судя по всему, до момента, когда результаты машинной обработки текста станут сопоставимы с качеством работы живых переводчиков, осталось совсем немного времени, тем более что в этом году многие исследовательские команды собираются развивать именно мультиязыковые комплексы. Поэтому даже уже не очень понятно, стоит ли, например, прямо сейчас начитать учить какой-нибудь китайский.

2. Слепки людей


Неплохо продвигаются работы по обучению нейросетей имитации конкретного человека, его поведения и привычек. Пока основная проблема в том, что не до конца понятно, какие именно данные нужны ИИ чтобы он, как вариант, смог достоверно имитировать конкретного персонажа, к примеру, в общении по интернету так, чтобы хорошо знающие его люди не смогли бы распознать подделку. Но в отдельных аспектах этой работы уже серьезные достижения, судя по всему ИИ скоро сможет воспроизводить литературный стиль конкретного автора. Вот в этот момент всем редакторам надо будет очень напрячься, хотя с другой стороны, возможно, к тому моменту и стиль произведения, наравне с самим произведением, станет объектом авторского права.

3. Компьютерное зрение


До недавнего времени для обучения нейросетей распознаванию объектов их приходилось маркировать вручную, что было, мягко говоря, не очень быстро и не очень эффективно. Однако в прошлом году случился прорыв и в этой области, и теперь ИИ способен обучаться практически без подсказок. Одновременно нейросети научились генерировать изображения, без специальной экспертизы неотличимые от фотографий, а силами компании Nvidia была создана нейросеть, которая в состоянии делать тоже самое, но с видео. В силу того, что все большую роль в общении с ИИ играют "концепты", а не "объекты" (к пример "большая черепаха" это концепт, а "зона изображения с координатами такими-то" — объект), по ходу, скоро можно будет создавать совершенно искусственные видеоматериалы, фактически "на пальцах" объясняя ИИ чего от него надо.

Интернет немедленно наполнится видеосвидетельствами никогда не происходивших событий, и понимать, что на самом деле происходит в мире, станет еще на порядок труднее.

4. Использование на практике


Этап, когда в основном ИИ тренировались на решении искусственных задач, вроде игры в Го, шахматных гамбитов или анализа неестественных алгоритмов и событий, разработанных только для их обучения, практически завершен. Начался этап внедрения нейросетей в реальные аспекты человеческой деятельности, от моделирования биржевых трендов и управления городским трафиком до анализа генома и разработки лекарственных средств. Активно работают и над внедрением нейросетей в финансовую сферу, ИИ скоро станет верным помощником любого трейдера, а в дальнейшем, когда обучение нейросетей поведенческим паттернам конкретного человека станет нормой, он сможет торговать за человека точно так же, как бы торговал он сам — только лучше и 24 часа в сутки.

Совсем скоро эти системы наберут достаточно информации, чтобы оптимизировать свои зоны ответственности, и наша жизнь начнет резко меняться сразу в очень многих аспектах. Не то что бы имело смысл по этому поводу прямо таки консервами и спичками запасаться, но не все специалисты уверены, что нейросети гарантировано безопасны, ибо уже сейчас начались очень серьезные проблемы с интерпретируемостью ИИ.

5. Интерпретируемость ИИ


В последние годы в исследования и разработку нейронных сетей вкладывались колоссальные средства, поэтому неудивительно, что прогресс в этой области достигнут колоссальный. Однако именно он и породил проблему, которую сейчас перестали считать уделом маргинального крыла (если можно так выразиться) научного сообщества и вынесли на обсуждение: проблему интерпретируемости ИИ.

Грубо говоря, даже специалисты в многих случаях либо плохо понимают либо совсем не понимают, как именно даже функционально полезные нейросети обрабатывают данные и выдают результаты. ИИ зачастую превращается в "черный ящик", и некоторые компании (тот же Google, например, что говорит о исключительной серьезности этой проблемы) сейчас ведут исследования, единственной целью которых является понимание одного простого факта: а насколько вообще безопасно продолжать разработки ИИ и внедрение его в реальную жизнь? По этому поводу есть отличное интервью Бин Ким, научного сотрудника Google Brain, она как раз занимается этим вопросом и, судя по тому, что она говорит, особой уверенности в том, что ИИ точно безопасен, у нее и ее коллег нет.

6. Этика ИИ


Ну и, собственно говоря, вышеперечисленное отлично понимают специалисты, занимающиеся искусственным интеллектом, поэтому все внезапно и дружно озаботились "этичностью ИИ", то есть тем, как бы сделать так, чтобы эта непонятная штука не начала вдруг эффективности для какие-нибудь кошмарные вещи исполнять. Правда, пока, судя по всему, кроме признания ведущими игроками этой отрасли, что таки да, нужно разрабатывать и внедрять какую-то специальную мораль и этику для нейросетей, дело пока с места не сдвинулось.

В общем, Азимова пора перечитывать.

Комментарии (0)