На волне хайпа вокруг ИИ высказываются все и вся, чем-то напоминая мне ситуацию вокруг Биткойна, когда вроде бы уважаемые люди вдруг начали говорить про него прямо противоположные вещи (криптовалюты это полезно - ИИ это полезно / запретить криптовалюты - запретить ИИ). Хочу внести капельку рациональности в этот поток мыслей и рассказать как не нужно как можно использовать большие языковые модели на примере ChatGPT версии 4.0 в научной работе. Этот пост основан на научной статье, которую я опубликовал в соавторстве с В.Л. Макаровым и А.Р. Бахтизиным.

Немного введения

То самое GPT из названия модели - это Generative Pre-Trained Transformer. Или, по-русски: авторегрессионная генеративная языковая модель на архитектуре трансформер.

Тоже по-русски, но ничего непонятно
Тоже по-русски, но ничего непонятно

Языковая модель нужна для понимания и генерации контента на естественном языке. Они бывают порождающие (генеративные) и дискриминантные.

Порождающие модели - статистические модели, которые основаны на анализе самих данных и позволяющие создавать новые экземпляры данных. Дискриминантные модели же модели тоже статистические, но решают задачу классификации данных.

Развитие глубокого обучения привело к широкому использованию различных нейронных сетей для решения задач обработки естественного языка (NLP), включая свёрточные нейронные сети (CNN), рекуррентные нейронные сети (RNN), нейронные сети на основе графов (GNN) и механизмы внимания. Ключевым преимуществом этих нейронных моделей является их способность в некотором роде упростить разработку модели. Традиционные не-нейронные подходы к задаче NLP зависят от дискретных, вручную создаваемых функций, в то время как нейросетевые методы обычно используют низкоразмерные и плотные векторы для неявного представления синтаксических или семантических аспектов языка.

Трансформер - архитектура глубоких нейросетей, которые как и RNN, предназначены для обработки текстов на естественном языке, перевода, суммаризации, но не требует обработки текста по порядку. Что открывает прекрасные возможности по распараллеливанию её работы.

Большое количество исследований проведённых за последнее время показало, что предварительно обученные модели (pre-trained models - PTM) на больших корпусах текстов могут обучиться универсальным языковым представлениям, которые полезны для последующих задач NLP и позволяют избежать обучения новой модели с нуля. С развитием вычислительной мощности, появлением глубоких моделей и постоянным совершенствованием навыков обучения архитектура PTM продвинулась от поверхностной к глубокой.

Поколения PTM моделей

Первое поколение PTM стремилось получить векторное представление слов. Поскольку эти модели не нужны для последующих задач обработки языка, они обычно очень неглубоки с точки зрения вычислительной эффективности. Примерами таких моделей являются Skip-Gram и GloVe. Полученные векторы хоть и могут передать семантические значения слов, но не зависят от контекста и не могут уловить более высокоуровневые концепции.

Второе поколение PTM сосредоточено на изучении контекстных векторных представлений слов и улучшении моделей первого поколения. Примерами таких моделей являются CoVe, ELMo, OpenAI GPT и BERT.

PTM третьего поколения основываются на втором поколении, с увеличенной производительностью и снятием некоторых ограничений. Нет чёткого определения этого поколения или списка моделей, однако можно выделить следующие характеристики:

  • Улучшенное понимание контекста, захват сложных семантических отношений.

  • Мультимодальное обучение: могут интегрировать информацию из нескольких источников или модальностей, таких как текст, изображения и аудио.

  • Масштабируемость и эффективность: повышении производительности, например, с помощью методов сжатия моделей или более эффективных архитектур.

  • Более сложные задачи предварительного обучения: лучшее улавливание лингвистических и структурных свойств входных данных.

Новейшим является четвёртое поколение моделей PTM. В дополнение к основным достижениям третьего поколения, добавляется следующее:

  • Больше данных для обучения и больше параметров позволяет им улавливать более широкий спектр языковых моделей и нюансов.

  • Улучшенные возможности понимания и генерации, что приводит к более связному и контекстуально точному созданию текста.

  • Усовершенствованная точная настройка и перенос обучения. Можно увеличить производительность под конкретную задачу, например, перевод, реферирование и ответы на вопросы.

  • Увеличение масштабируемости и эффективности.

На данный момент к четвёртому поколению моделей PTM относится только GPT-4 от компании OpenAI, а наиболее распространёнными моделями третьего поколения являются BERT и LLama.

Давайте рассмотрим эти модели не просто как универсальный инструмент, а как средство и метод для выполнения определённых задач научной работы. Очевидно, что существуют как серьёзные ограничения применения такого инструмента, так и потрясающие новые возможности помощи учёным и исследователям в разных областях науки.

Возможности применения ChatGPT в научной работе

Эта тема сейчас является горячо обсуждаемой в научных кругах. Но в силу инерционности классического процесса публикаций в науке качественных работ в этой области пока ещё не много. В основном преобладают разнонаправленные публикации по медицинской тематике, а также обсуждение проблемы плагиата. Чуть более подробно про это можно почитать в опубликованной научной версии статьи.

Я пользуюсь только четвёртым поколением модели, т.к. GPT-3.5 провалило слишком много моих тестов. Самым провальным на мой взгляд оказался тест на логику из мема ниже, притом в разных вариациях. Например, если 2 машины доехали из Москвы в Петербург за 5 часов, то 4 машины доедут за 2.5 часа, согласно умозаключению GPT-3.5.

Нанимает 9 женщин и думает, что они родят через месяц
Нанимает 9 женщин и думает, что они родят через месяц

Я попробовал применить ChatGPT в разных областях науки: медицине, химии, физике, биологии, но наглядно проиллюстрировать хочу примером, который касается области моих научных интересов (агентного моделирования). Вот, представим, пишу я обзорную статью о больших агент-ориентированных моделях стран, и слышал, что есть такая экономическая модель Швейцарии под названием MIMOSE. Спрашиваю ChatGPT: расскажи в каких научных статьях описывается эта модель для последующей ссылки в своей работе:

Скажи какую научную статью процитировать, когда пишешь о модели MIMOSE
Скажи какую научную статью процитировать, когда пишешь о модели MIMOSE

Важно упомянуть, что этот вопрос был задан в контексте беседы, которая началась с нескольких вопросов про большие агент-ориентированные модели стран и регионов, и ChatGPT уже самостоятельно предоставил верное описание MIMOSE. Вот полный текст ответа, который выглядит очень убедительно, логично и связанно.

Если вы пишете о модели MIMOSE, то можете рассмотреть следующе статьи ...
Если вы пишете о модели MIMOSE, то можете рассмотреть следующе статьи ...

В первом же предложении ChatGPT представляет данные оригинальной статьи (Bretschger, Smulders 2012), в которой описывается модель MIMOSE. Такая статья действительно существует и имеет такое же название, но, она была опубликована в 2003 году, а не в 2012, и вовсе не в Скандинавском журнале экономики, и вообще, она хоть и является статьей по тематике агент-ориентированного моделирования, но совсем никак не затрагивает модель Швейцарии под названием MIMOSE. Но почитайте, с какой безапеляционностью ChatGPT заявляет об обратном!

Следующая статья из списка (Bretschger, Valente 2012) тоже существует в реальности, также не имеет отношения к MIMOSE, год публикации указан верно, но опять модель ошиблась с журналом указав другой реально существующий академический журнал Resource and Energy Economics, вместо Journal of Environmental Economics and Management. Статьи за авторством Karydas, Katsikas et al найти вообще не удалось, но даже судя по названию она не соответствует заявленной тематике вопроса. Заключительная ссылка на статью авторов Rutherford, Tarr также является вымыслом системы, хотя такие авторы существуют в реальности и публикуют статьи на схожие тематики.

В попытке дать ChatGPT возможность сохранить лицо, попросили её указать на статью, в которой описывается сама модель MIMOSE:

Вопрос был задан в рамках той же беседы с контекстом, и между ними не было никаких дополнительных разговоров. На что был получен вот такой ответ:

Извините пжлста, модель в деталях описана в статье...
Извините пжлста, модель в деталях описана в статье...

ChatGPT извиняется за свою ошибку, хотя ни в одном запросе не упоминается об ошибочности выданной информации. И снова выдаёт новую вариацию на статью авторов Bretschger et al, утверждая, что в ней даётся исчерпывающий обзор агент-ориентированной модели MIMOSE, особенностей её реализации, структуры модели, включая используемые типы агентов. Ещё раз акцентирую внимание на то, с какой уверенностью подаётся абсолютно ложная информация, даже после уточняющего вопроса.

Как-то так
Как-то так

Заключение

Основная ценность состоит не только в умении ChatGPT переписывать, перефразировать и переводить тексты. Первые два пункта вообще только вредят обществу, а с переводом уже давно неплохо справляется Google Translate. Истинная же ценность ChatGPT - в анализе огромнейшего массива информации и поиске в нём той части, которая нужна исследователю, и объяснение её тем «языком», который требуется.

ChatGPT не должен и не может быть автором или соавтором той или иной научной работы! Эта система является инструментом в работе учёного. Таким же, как, например, поисковые системы Google, Яндекс, более продвинутые системы, как Wolfram Alpha, системы цитирования и индексирования РИНЦ, Web of Science и Scopus. Автор всегда должен проверять и брать на себя ответственность за тот материал, который он создаёт, вне зависимости от того инструмента, которым он пользуется.

Я специально привёл отрицательные примеры, чтобы предостеречь излишне доверчивых людей к использованию результатов "как есть". Да и не все рецензенты скрупулёзно проверяют список публикаций на достоверность.

С появлением ChatGPT мемчик стал ещё более актуальным
С появлением ChatGPT мемчик стал ещё более актуальным

Положительные же примеры приводить не имеет смысла - их бесчисленное множество, и каждый из вас (при наличии доступа, разумеется) может сам задать нужные вопросы. При подготовке этой статьи, безусловно, был использован ChatGPT, не только в качестве объекта изучения, но и в качестве инструмента изучения. Но, лишь для уточнения определённых вопросов, получения дополнительной информации, а никак не для написания (или переписывания) текста. Вопрос, можно ли доподлинно отличить текст, написанный ChatGPT и текст, написанный человеком пока остаётся открытым.

Комментарии (3)


  1. steanlab
    03.04.2023 20:11
    +6

    Продублирую свой комментарий к статье аж за середину февраля 2023. По состоянию на апрель 2023 изменений нет. Даже самому интересно когда я смогу сказать "все, сдаюсь, ребята" :)


    Примерно раз в две недели я захожу в чат openai и прошу написать мне выходные данные пяти статей о натрий-ионных аккумуляторах. Штуковина пишет, я проверяю названия, doi если есть и закрываю чат на следующие две недели. С момента открытия доступа он еще ни раз не указал ни одной реально существующей статьи. doi, кстати, в отличие от названий, иногда берет от реальных статей (тематика от медицины до сельского хозяйства).
    Ну его, такого помощника…


    1. phenik
      03.04.2023 20:11
      +1

      Может все-таки задавать такие вопросы чату поиска Бинга, который имеет доступ к интернету, чтобы поискать эти ссылки? Сами GPT по определению не содержат таких ссылок в явном виде, это не БД в традиционном смысле. Все перемешано и упаковано в соответствии с вероятностной структурой, поэтому при запросе генерируются такие фантазии на тему) Это касается запросов любых фактов, ответов на математические вопросы, все что требует точности и повторяемости.


      1. reactos Автор
        03.04.2023 20:11

        Да, звучит логично. Но что-то у ChatGPT бушует повторяемо. Если спросить у него температуру кипения воды в нормальных условиях, то в любом случае ответ будет около 100 градусов по Цельсию ????