Привет, на связи Юлия Рогозина, аналитик бизнес-процессов Шерпа Роботикс. Сегодня я перевела для вас статью, посвященную использованию SLM и локальных LLM. Малые языковые модели и локальные LLM становятся всё более популярными среди разработчиков. В статье рассмотрены лучшие из них и приведены советами по их оценке.
Влияние GitHub Copilot и других популярных решений на процесс программирования невозможно игнорировать, однако с ростом этой тенденции возникает множество вопросов.
Во-первых, не все разработчики комфортно относятся к идее передачи своего кода третьим лицам, особенно если речь идет о частных данных. Есть и финансовая сторона: стоимость использования API может быстро нарастать, особенно если приходится работать с самыми мощными моделями.
Здесь на помощь приходят локальные языковые модели, а также их уменьшенные аналоги — малые языковые модели. Сообщество разработчиков всё чаще отмечает их преимущества, и давайте разберемся, в чем же заключается этот ажиотаж. Помимо самой концепции, мы обсудим лучшие модели, их плюсы и влияние на развитие программирования с помощью ИИ в целом.
Что такое локально размещённые LLM?
Локально размещённые LLM (Large Language Models) — это передовые модели машинного обучения, которые работают исключительно в вашем локальном окружении. Эти модели, как правило, обладают миллиардными параметрами и способны генерировать код, понимать контекст и помогать в отладке. Размещение LLM на локальном сервере позволяет разработчикам избежать задержек, проблем с конфиденциальностью и расходов на подписку, характерных для облачных решений.
Запуск LLM локально дает возможность тонкой настройки модели под конкретные нужды, что особенно важно для специализированных рабочих процессов.
Кроме того, возможность дообучать модель на частных кодовых базах помогает получить более точные и контекстуализированные предложения, что значительно упрощает сложные рабочие процессы. Поддержка чувствительных данных на локальных серверах также снижает риски утечек информации, что делает этот вариант привлекательным для корпоративных разработчиков, которым необходимо соблюдать строгие требования по защите данных.
Однако запуск больших моделей требует значительных вычислительных ресурсов — обычно это многозадачные процессоры или графические процессоры с большим объёмом памяти. Поэтому такие решения лучше подходят для тех, кто располагает мощным оборудованием или имеет специфические потребности в производительности. Взамен вы получаете мощный и гибкий инструмент, способный предоставить глубокое понимание и поддержку в сложных сценариях кодирования.
Что такое SLM?
SLM, или Small Language Models (малые языковые модели), — это облегчённые версии своих более крупных аналогов, таких как LLM . Основное их преимущество — меньший объём параметров, что делает их более быстрыми и эффективными без ущерба для основных функциональных возможностей, таких как автозавершение кода и базовая обработка контекста. Конечно, они не могут всё, но в том, что умеют, они действительно хороши.
Меньшая архитектура SLM также делает их крайне эффективными для задач, где важны низкая задержка и компактное использование памяти. Эти модели идеально подходят для таких сценариев, как быстрое прототипирование, разработка встроенных систем или работа на устройствах с ограниченными вычислительными ресурсами.
Главное ограничение SLM заключается в их ограниченной способности обрабатывать сложные и широкие контексты по сравнению с LLM, что может сказаться на их производительности при работе с большими и сложными проектами или обширными кодовыми базами.
Тем не менее, SLM привлекают внимание специалистов, поскольку предполагается, что уже через несколько месяцев смартфоны смогут эффективно запускать такие модели. Я лично видел эксперименты, где SLM использовались для обработки банковских выписок с помощью компьютерного зрения и передачи данных в FreshBooks — в будущем таких примеров будет всё больше.
Если гиганты вроде Google, Microsoft и Anthropic ориентируются на большие модели, предлагаемые как сервис, то Apple стала лидером в области открытых SLM. Их семейство OpenELM предназначено для работы на мобильных устройствах, и первые отзывы говорят о том, что они способны эффективно выполнять задачи по написанию кода.
Как выбрать лучшую модель для написания кода?
Выбор оптимальной локальной модели LLM или SLM для ваших нужд разработки — это всегда комбинация информации от сообщества, эмпирических бенчмарков и личных тестов. Начните с изучения рейтингов, созданных сообществами, которые оценивают модели по различным метрикам, таким как скорость, точность и эффективность параметров.
Эти рейтинги дают хорошее представление о том, какие модели лидируют в своей области и насколько активны их сообщества в улучшении и оптимизации. Однако стоит помнить, что это лишь общая картина.
Далее рекомендуется проверить, как модель демонстрирует себя на более стандартизированных бенчмарках, таких как:
HumanEval Бенчмарк, состоящий из 164 программных задач, который оценивает функциональную корректность кода, генерируемого LLM. Модели тестируются на способность генерировать правильный и исполнимый код.
MBPP (MultiPL-E) Расширение HumanEval, включающее задачи на различных языках программирования. Оценивает модели по способности генерировать правильный код на нескольких языках программирования.
BigCodeBench Комплексный бенчмарк, оценивающий модели на задаче понимания и генерации кода на 43 языках программирования. Производительность измеряется по трём параметрам: длина, сложность и эффективность.
LiveCodeBench Динамический бенчмарк, который постоянно собирает новые задачи с платформ вроде LeetCode, AtCoder и CodeForces. Оценивает модели по их способности генерировать код, исправлять ошибки, выполнять код и предсказывать результаты тестов.
EvoEval Набор бенчмарков, который эволюционирует существующие задачи, создавая новые вызовы. Это помогает выявить потенциальное переобучение моделей и оценить их способность адаптироваться к новым задачам.
Хотя бенчмарки важны, они не являются универсальными решениями. Публичные бенчмарки дают общее представление о производительности модели в стандартизированных задачах, но истинная проверка всегда заключается в том, как модель работает в вашей конкретной среде разработки.
Запуск собственных бенчмарков, отражающих типичные задачи в вашей работе, поможет понять, насколько хорошо модель соответствует вашим реальным требованиям — будь то генерация шаблонного кода, отладка устаревших приложений или предоставление контекстных рекомендаций. Определитесь, что именно вам нужно от модели для написания кода, попробуйте разные модели и повторяйте задачу регулярно, включая новые модели по мере их выхода.
Лучшие локальные LLM для программирования
Слово «лучший» всегда несет в себе субъективную нагрузку, и важно помнить, что любой список — это, по сути, личное мнение автора. Каждый бенчмарк, каждое тестирование и каждое приложение отличаются друг от друга, и модель, которая идеально подходит одному пользователю, может быть не лучшей для другого. Тем не менее, давайте рассмотрим несколько наиболее интересных локальных моделей машинного обучения, предназначенных для задач программирования.
DeepSeek V2.5
DeepSeek V2.5 — это открытая модель, которая объединяет возможности DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct, улучшая как общую способность к ведению диалога, так и навыки программирования. Эта модель поддерживает длину контекста до 128 тысяч токенов, что позволяет эффективно работать с большими проектами и сложными данными.
В тестах DeepSeek V2.5 продемонстрировала значительные улучшения в таких задачах, как написание кода и следование инструкциям, обойдя свои предшественники в таких бенчмарках, как AlpacaEval 2.0 и ArenaHard. Модель доступна через веб-платформы и API, предлагая удобный и эффективный пользовательский опыт.
Qwen2.5-Coder-32B-Instruct
Qwen2.5-Coder-32B-Instruct — это передовая открытая модель от команды Qwen, разработанная в Alibaba Cloud. Она представляет собой мощную альтернативу GPT-4o, с отличными навыками программирования, а также хорошими математическими способностями.
Модель поддерживает контекст длиной до 128K токенов и работает с 92 языками программирования. Она показывает выдающиеся результаты в ряде бенчмарков, таких как EvalPlus, LiveCodeBench и BigCodeBench, а также выполняет задачи исправления кода на уровне GPT-4o.
Особенность этой модели в том, что она представлена в различных вариантах квантования с количеством параметров от 0.5 до 32 миллиардов, что делает её доступной даже для устройств с менее мощными характеристиками, позволяя использовать её для задач программирования.
Nxcode-CQ-7B-orpo
Nxcode-CQ-7B-orpo — это локальная модель с оптимизацией для задач программирования. Она демонстрирует сбалансированную производительность в рамках простых задач, предоставляя легковесное решение для разработчиков, которым нужно эффективно генерировать и интерпретировать код.
Что интересно, эта модель является не самостоятельной, а доработкой модели Qwen/CodeQwen1.5-7B на данных, связанных с программированием, что подчеркивают её авторы.
В отличие от более сложных моделей вроде Qwen2.5 или LLaMa 3, Nxcode-CQ-7B-orpo лучше справляется с базовыми задачами, что делает её отличным инструментом для обучения программированию и работы с базовыми аспектами веб-разработки на JavaScript. Однако, она может разочаровать при работе с более сложными проектами, такими как анимации на Three.js.
OpenCodeInterpreter-DS-33B
OpenCodeInterpreter-DS-33B — это высокопараметрическая модель, ориентированная на интерпретацию сложного кода и динамическое решение проблем, разработанная китайскими учеными. Она хорошо справляется с анализом сложных структур кода и генерацией продвинутых решений.
В отличие от Qwen, эта модель базируется на другой — Deepseek-coder-33b-base. Уже на момент своего выпуска она привлекла внимание сообщества, продемонстрировав отличные результаты в тестах HumanEval и MBPP.
С помощью огромного количества параметров, модель эффективно справляется с более сложными задачами программирования, что делает её ценным инструментом для разработчиков, работающих с более глубоким анализом и генерацией кода.
Artigenz-Coder-DS-6.7B
Artigenz-Coder-DS-6.7B, разработанная индийской командой, предназначена для быстрой прототипизации кода. Эта модель оптимизирована для генерации кода с высокой скоростью, но не обладает такой мощностью, как более крупные модели.
Она идеально подходит для проектов, где требуется быстрое создание рабочих прототипов, но не подходит для задач, связанных с обработкой сложных сценариев программирования. Несмотря на это, она является отличным решением для разработчиков, которым нужно сгенерировать код быстро, без глубокого анализа.
Её 13 ГБ памяти делает Artigenz-Coder-DS-6.7
Недостатки локальных LLM для программирования
Основной проблемой локальных моделей является ограниченность аппаратных ресурсов. Например, топовая видеокарта Nvidia H100 стоит до $40 000, и с таким уровнем вычислительных мощностей конкурировать с крупными компаниями и их миллиардными инвестициями в ИИ сложно. Хотя теоретически можно арендовать время на GPU для обучения или дообучения моделей, это остается крайне дорогим решением.
Кроме того, безопасность данных также является важным вопросом. Даже если модель работает локально, это не гарантирует полную защиту информации. В будущем, вероятно, мы увидим усиливающуюся настороженность пользователей при подключении к сетям Wi-Fi, когда данные могут быть украдены злоумышленниками.
Наконец, стоит признать, что такие решения как Claude 3.5 Sonnet и o1-preview далеко опережают все открытые локальные аналоги. Миллиарды гигабайт VRAM и десятки миллиардов долларов в исследованиях и разработках не поддаются конкуренции. Тем не менее, цель таких моделей — не конкурировать с гигантами, а предложить свободное, открытое и настраиваемое решение для разработчиков.
Заключение
Многие считают что, за локальными LLM и SLM будущее ассистентов по программированию. Несмотря на то что решения вроде Copilot, ChatGPT и Claude имеют колоссальные финансовые ресурсы, локальные модели предоставляют свободу и независимость от ограничений третьих сторон, цензуры и проблем с облачными сервисами.
Локальные модели гарантируют полную конфиденциальность, не требуют обмена кодом с внешними серверами и позволяют работать без зависимости от облачных сервисов и бюджетных ограничений API.
Однако, несмотря на перспективность, локальные LLM пока уступают в плане производительности и удобства использования более зрелым решениям, таким как Copilot. Но с развитием открытых технологий мы уже приближаемся к уровням, которые позволяют уверенно конкурировать с крупными облачными сервисами. Впереди нас ждут захватывающие времена.
Комментарии (5)
pi-null-mezon
13.12.2024 03:32Хабр, введи кнопку - написано LLM. Чтобы сразу такое пропускать. Информационная ценность равна нулю. Не понимаю зачем хабр такое публикует.
nikolz
13.12.2024 03:32Эти модели, как правило, обладают миллиардными параметрами и способны генерировать код, понимать контекст и помогать в отладке.
миллиардами параметров
nikolz
13.12.2024 03:32Локально размещённые LLM (Large Language Models) — это передовые модели машинного обучения, которые работают исключительно в вашем локальном окружении.
Локальные LLM — это большие языковые модели, которые работают на компьютере или сервере, без необходимости обращаться к облачным сервисам. https://scand.com/ru/company/blog/local-llms-vs-chatgpt-cost-comparison/
VnNort
Миллиарды гб vram. То есть это минимум 2 миллиарда гб vram.
H100 стоит $ 40000 и содержит 80 gb vram.
2 млрд(vram) / 80(vram) * $40000 = $1 000 000 000 000 (один триллион) мне кажется там не было таких инвестиций или я ошибаюсь?
Нигде нет ошибки?