Привет, на связи Юлия Рогозина, бизнес-аналитик Шерпа Роботикс. Сегодня я перевела для вас статью про то, какие недостатки есть у языковых моделей в плане вычислений, а также, как учёные продолжают совершенствовать методы решения простейших задач.
Математические и логические способности больших языковых моделей (LLM) в настоящее время весьма впечатляют, они способны решать задачи на уровне аспиранта или даже более сложные, такие как олимпиадные задачи, задачи национального экзамена GAOKAO и задачи по математике университетского уровня. Однако, при более внимательном изучении результатов работы моделей было обнаружено, что, несмотря на демонстрируемое ими замечательное мастерство в подходах к решению задач, они часто испытывают трудности с базовым пониманием и обработкой чисел.
Подобно небрежному студенту, который заявляет: «Я знаю, как это сделать, но у меня не получилось».
Некоторые из этих ошибок довольно удивительны, например, убеждение, что 9.11 > 9.9, или ошибки в простом сложении 8/7 + 3/5. Эти ошибки являются основной причиной галлюцинаций при работе с математическими, логическими и аналитическими задачами, поскольку модель представляет, казалось бы, правильные подходы к решению задачи, но в конечном итоге получает неверные результаты. Поэтому исследование и улучшение фундаментальных «способностей к пониманию и обработке числовой информации» (NUPA) моделей имеет решающее значение.
Однако в современных исследованиях способность к рассуждению и NUPA часто тестируются совместно, как на классических наборах данных, таких как GSM8k, MATH, MMLU, так и в более сложных тестах, упомянутых выше. Например, задача в GSM8k звучит так: «Наталия продала 48 комплектов спортивных костюмов в апреле, а затем продала вполовину меньше комплектов в мае. Сколько комплектов Наталия продала всего в апреле и мае?» Решение этой задачи требует двух аспектов: с одной стороны, математических рассуждений, включающих понимание текста, извлечение необходимой информации, формулирование математических уравнений (или поиск других методов решения), решение уравнений или выполнение алгоритма и получение результата; с другой стороны, оно также требует понимания и обработки чисел, приведенных в задаче или полученных в качестве промежуточных результатов на каждом шаге, таких как 48/2 = 24 и 48 + 24 = 72. Хотя обе эти способности необходимы для правильного решения задач, тесты на таких наборах данных не различают их.
Более серьезная проблема заключается в том, что числовой контент в этих наборах данных часто преднамеренно упрощен. В различных экзаменационных вопросах для того, чтобы сосредоточиться на оценке понимания учащимися математических концепций — таких как составление правильных уравнений и применение соответствующих теорем — числа как в вопросах, так и в ответах часто специально выбираются целыми числами. Однако в реальных сценариях это не так.
Несмотря на важность NUPA, до сих пор отсутствует точная, подробная и всеобъемлющая формализация, измерение и анализ этой фундаментальной способности. В данной статье авторы делают предварительный шаг к формализации NUPA в LLM. Они классифицировали числовые концепции и операции, обычно преподаваемые в начальной и средней школе, на четыре типа числовых представлений: целые числа, числа с плавающей точкой (конечные десятичные дроби), дроби и экспоненциальная запись, а также четыре категории способностей, включающие 17 задач. Сочетание этих представлений приводит к 41 осмысленной задаче, образуя наш бенчмарк NUPA (Таблица 1). Эти представления и задачи охватывают наиболее распространенные сценарии, связанные с пониманием и обработкой чисел, которые обычно не представляют сложности для человека, поскольку мы читаем, используем или обрабатываем такие числа практически каждый день.
На этом бенчмарке авторы тщательно тестировали несколько передовых LLM, включая -4o, Llama-3.1 и Qwen2. Они просили модели напрямую выводить ответы без вызова внешних инструментов. Хотя последние LLM хорошо справляются с некоторыми простейшими задачами, их производительность значительно снижается, когда задачи становятся немного сложнее (например, умножение, операции по модулю или вычисления на основе цифр) или когда представление чисел выходит за рамки простых целых чисел.
В целом неудовлетворительная производительность подчеркивает значительное несоответствие между заявленными высокими математическими рассуждениями и низкими практическими, повседневными способностями к пониманию и обработке чисел в современных LLM.
Для решения этой проблемы авторы исследовали три категории подходов к улучшению NUPA моделей.
Первая категория методов направлена на улучшение NUPA моделей на этапе предварительного обучения, включая альтернативную токенизацию, специально разработанное позиционное кодирование (PE), изменение числовых форматов (например, дополнение нулями, указание индекса (index-hint и обратное представление). Они оценивали и анализировали их на новом бенчмарке, проверяя их эффективность/неэффективность для соответствующих задач/представлений, что выходит за рамки предыдущих оценок, проводившихся преимущественно на задачах сложения/умножения целых чисел. Кроме того, авторы обобщили эти методы в три механизма: упрощение процесса рассуждения, содействие выравниванию цифр и обеспечение регуляризации, и обсуждаем потенциал применения этих механизмов к более широкому диапазону числовых представлений.
Вторая категория подходов направлена на улучшение NUPA уже обученной модели. Исследователи обнаружили, что, хотя простое прямое дообучение может значительно повысить производительность NUPA, применение упомянутых выше методов (PE, форматов данных и токенизаторов) на этом этапе может иметь неблагоприятные последствия. Они тестировали различные настройки и конфигурации дообучения, но ни одна из них не смогла достичь производительности, равной или превосходящей исходную модель. Результаты исследования показывают, что эти модификации могут значительно нарушать устоявшееся поведение моделей или конфликтовать с их существующими знаниями, что приводит к снижению производительности.
В заключение, авторы обсудили потенциал использования методов «цепочки рассуждений» (CoT) для обработки числовой информации. Хотя методы CoT позволяют разбить сложные задачи на более простые подзадачи и значительно повышают вероятность получения правильных ответов, их недостатки — такие как потребление большого контекстного окна и необходимость увеличенного времени обработки — становятся особенно очевидными в числовых задачах. Они тестировали общий метод CoT, известный как RFFT, и обнаруживаем, что для более сложных задач (таких как задачи со сложностью O(n²), включая умножение, деление и упрощение дробей) методы «цепочки рассуждений» сталкиваются с проблемами масштабируемости, что затрудняет их применение в практических сценариях. Следует отметить, что в этой статье не рассматриваются методы использования инструментов для NUPA, поскольку
1) необходимо было изучить самодостаточную NUPA LLM,
2) вызов внешних инструментов при встрече с числами увеличивает задержку вывода,
3) авторы считают, что NUPA без инструментов является необходимым навыком для общего искусственного интеллекта (AGI).
В итоге, исследователи предложили более всеобъемлющий бенчмарк для оценки базовых способностей к пониманию и обработке числовой информации (NUPA) в LLM, оценили производительность нескольких передовых LLM на нём и дополнительно изучаем три категории подходов к улучшению NUPA: предварительное обучение, дообучение и CoT. Результаты показывают, что существующих исследований недостаточно для полного решения проблемы NUPA, несмотря на то, что это фундаментальная способность для решения многих более сложных задач. Авторы надеются, что, представив систематическую классификацию и более всестороннюю оценку NUPA, смогут привлечь больше внимания сообщества к этой важной, но часто упускаемой из виду фундаментальной способности.
Заключение
Как мы уже поняли из статьи, простые для нас задачи – являются сложными для языковых моделей и наоборот. Но прогресс не стоит на месте и ведутся исследования по повышению эффективности языковых моделей в простейших математических задачах. В будущем, это позволит повысить достоверность информации из языковых моделей, которые внедряются всё в большее количество процессов в нашей повседневной жизни.
Комментарии (9)
cyberhippie
03.12.2024 13:29я ни слова не сказал про "базы знаний" и чат-боты))) графики, диаграммы и числовые ряды назвал "удобным форматом ввода-вывода". Вы же аналитик, ширше, мадам, ширше горизонты!)
dvgureev
03.12.2024 13:29А не считаете ли этот подход тупиковым?
БЯМ это все таки по генерацию, а не вычисление. Поэтому вызвать tools с математической функцией или на худой конец написать код и исполнить его для вычисления - видимости мне более рациональное решение.
Какой смысл мучить чистый БЯМ, пусть делает свою работу.
cyberhippie
Юлечка, LLM это всего лишь специальные такие типа огромные базы данных с удобным форматом ввода-вывода и странным алгоритмом поиска, какое понимание рынок от них ждет, каких чисел?))
Ведь они же не умеют решить математических задач совсем, кроме тех, решения которых встретили в обучающей выборке. Зачем их мучать, отстаньте от бедняжек))
Мира и настроения!
juliasherparpa Автор
У вас очень ограниченное понимание возможностей больших языковых моделей. Это не только чат-боты с поиском по базе знаний.
Например, у нашей компании есть кейс по разработке BI-бота на основе LLM. Этот бот анализирует огромный массив числовых данных производственной корпорации с помощью запросов на языке Python, решает сложные экономические задачи, стоит графики и диаграммы.
killnet
Стало интересно, что ответит chatGPT на утверждение: "решает сложные экономические задачи".
"Вывод: LLM подходит для помощи в сложных экономических задачах как инструмент для анализа, обучения и поддержки принятия решений, но не может заменить эксперта или специализированные программы."
Конечно не исключаю вероятность, того, что у чат GPT тоже "ограниченное понимание возможностей больших языковых моделей" по сравнению с вашей.
sherparpa
В своих статьях я всегда подчеркиваю, что нейросети - это всего лишь один из множества инструментов для специалистов. Нейросети не могут заменить экспертов. Но вполне могут пользоваться специализированными программами в связке LLM+RPA.
killnet
Вы вообще кто и за что ставите всем комментаторам минуса?