Постановка проблемы. Современные промышленные предприятия требуют принципиально новых решений, направленных на прогнозирование отказов работы оборудования и своевременное устранение нештатных аварийных ситуаций, управления затратами на ремонт, а также оптимизации и улучшения стратегий технического обслуживания. Существующие автоматизированные системы прогнозируемого обслуживания имеют различные функциональные ограничения. Это требует разработки новых архитектурных решений для создания интеллектуальных систем, способных обрабатывать большие объемы разнородных данных в режиме реального времени, прогнозировать отказы с высокой точностью и оптимизировать процессы плана обслуживания, в тесной взаимосвязи с работой устройств промышленного Интернета вещей в условиях использования новых технологий периферийного искусственного интеллекта. Данная работа посвящена исследованию возможности применения большой языковой модели OpenThinker2-32B, как вспомогательного инструмента для автоматизированной системы прогнозируемого обслуживания многостадийных технологических процессов. Данная модель может быть использована в реализации следующих функций автоматизированной системы: анализ исторических данных; прогнозирование оставшегося срока службы оборудования; подготовка данных для снижения факторов неопределенности данных для улучшения прогнозов; подготовка экспертных заключений; оптимизация расписаний по техническому обслуживанию промышленного оборудования.

Цель работы. Изучить возможность применения и адаптации большой языковой модели OpenThinker2-32B, как дополнительного и вспомогательного инструмента, применяемого для повышения эффективности работы автоматизированных систем прогнозируемого обслуживания многостадийных технологических процессов для малых и средних промышленных предприятий. Это позволит решить следующие задачи: выполнить анализ исторических данных; с помощью алгоритмов, разработанных на основе теории свидетельств Демпстера-Шафера снизить факторы неопределенности произвести прогнозирование отказов, а также подготовить экспертные рекомендации по оптимизации расписаний и процессов технического обслуживания промышленного оборудования. Также необходимо разработать алгоритмы информационного взаимодействия для каждой из задач, и определить положение большой языковой модели в предложенной концепции конвергентной архитектуры автоматизированной системы прогнозируемого обслуживания для повышения точности прогнозов и возможности ее интеграции с экспертными, аналитическими, прогнозными системами и системами поддержки принятия решений.

Результаты. Результаты проведенного анализа показывают, что большая языковая модель OpenThinker2-32B включает набор функциональных возможностей, которые могут быть использованы в решении узкоспециализированных задач прогнозируемого или предписывающего обслуживания. Данные возможности позволяют эффективно выполнять анализ данных, определять возможные неисправности и прогнозировать отказы в работе оборудования, оптимизировать расписание и процессы технического обслуживания, при наименьших затратах и стоимости владения вычислительной инфраструктурой. При помощи теории свидетельств Демпстера-Шафера могут быть реализованы новые алгоритмы, которые позволят снизить факторы неопределенности для получения более точных прогнозов, а также подготовить экспертные рекомендации и заключения. Благодаря своей гибкости, высокой производительности и невысокой стоимости владения, большая языковая модель OpenThinker2-32B является мощным вспомогательным инструментом для автоматизации промышленных процессов и повышения их эффективности, для малых и средних промышленных предприятий.

Практическая значимость. Результаты исследования могут быть использованы для проектирования промышленных автоматизированных систем прогнозируемого или предписывающего обслуживания.

Для цитирования: Чесалов А.Ю. Анализ возможности применения модели OpenThinker2-32B в автоматизированных системах прогнозируемого обслуживания для малых и средних промышленных предприятий // Нейрокомпьютеры: разработка, применение. - 2025. Т. 27. № 5. С. 56–70. DOI: https://doi.org/10.18127/j19998554-202505-07

 ***

Введение

Современные промышленные предприятия требуют принципиально новых решений для управления жизненным циклом оборудования, направленных на прогнозирование отказов работы и своевременное устранение нештатных аварийных ситуаций, управления затратами на ремонт, а также оптимизации и улучшения стратегий технического обслуживания.

Существующие методы прогнозного обслуживания (Predictive Maintenance, PdM), основанные на регрессионном анализе и классических алгоритмах машинного обучения, демонстрируют фундаментальные ограничения в условиях:

·       Функциональных ограничений Edge-устройств, а также неполноты сенсорных данных и противоречивости показаний распределенных датчиков промышленного Интернета вещей.

·       Ресурсных ограничений Edge-устройств в разных условиях внутренней и внешней сред эксплуатации.

·       Асинхронности износа компонентов и узлов промышленного оборудования в многостадийных технологических процессах.

Одним из ключевых инструментов для решения этих задач являются автоматизированные системы прогнозируемого обслуживания. В таких системах активно применяются различные технологии искусственного интеллекта (ИИ).

Цель работы. Изучить возможность применения и адаптации большой языковой модели OpenThinker2-32B, как дополнительного и вспомогательного инструмента, применяемого для повышения эффективности работы автоматизированных систем прогнозируемого обслуживания многостадийных технологических процессов для малых и средних промышленных предприятий. Это позволит решить следующие задачи: выполнить анализ исторических данных; с помощью алгоритмов, разработанных на основе теории свидетельств Демпстера-Шафера снизить факторы неопределенности произвести прогнозирование отказов, а также подготовить экспертные рекомендации по оптимизации расписаний и процессов технического обслуживания промышленного оборудования. Также необходимо разработать алгоритмы информационного взаимодействия для каждой из задач, и определить положение большой языковой модели в предложенной концепции конвергентной архитектуры автоматизированной системы прогнозируемого обслуживания для повышения точности прогнозов и возможности ее интеграции с экспертными, аналитическими, прогнозными системами и системами поддержки принятия решений.

Анализ возможности применения больших языковых моделей для решения задач промышленной автоматизации

По прогнозам аналитиков объем мирового рынка больших языковых моделей (англ. Large Language Model, LLM) к 2030 году составит 36 млрд долларов США, а уже к 2034 году объем рынка увеличится до 85 млрд долларов США. Высокий темп роста рынка LLM (CAGR, среднегодовой темп роста более 30%) позволяет использовать данные модели для решения самых разных задач в различных отраслях экономики, включая различные решения задач по промышленной автоматизации и, в частности, прогнозируемого обслуживания [[i], [ii]].

В Таблице 1 представлено сравнение самых передовых LLM, которые пользуются наибольшим спросом на рынке [[iii]].

Таблица 1. Сравнение больших языковых моделей от основных лидеров рынка
Таблица 1. Сравнение больших языковых моделей от основных лидеров рынка

На основании критериев, представленных в Таблице 1, выберем оптимальную (с точки зрения стоимости и эффективности работы) языковую модель, подходящую для решения задач прогнозируемого обслуживания:

·      Индекс качества (Artificial Analysis Quality Index). Показатель оценивает общую производительность модели в различных задачах. Для прогнозируемого обслуживания важно, чтобы модель могла точно анализировать данные с датчиков и предсказывать возможные неисправности. Лидером по этому показателю является модель o1-preview с 85 баллами, что делает её отличным выбором для сложных аналитических задач.

·      Понимание языка и рассуждения (Reasoning & Knowledge, MMLU). Модели с высокими показателями в этом тесте способны глубоко анализировать данные и делать обоснованные выводы. o1-preview снова лидирует с 91%, что подчеркивает её способность к анализу и прогнозированию. Это особенно важно для обработки данных, получаемых с промышленного оборудования (где требуется высокая точность) и их анализа специалистами по техническому обслуживанию. Такие модели находят широкое применение в экспертных, аналитических, прогнозных системах и системах поддержки принятия решений.

·      Научное рассуждение и знание (Scientific Reasoning & Knowledge, GPQA). Для промышленных предприятий, работающих с техническими данными, важно, чтобы модель могла интерпретировать технические данные. o1-preview также лидирует в этом аспекте с 67%, что делает её подходящей для анализа сложных технических данных.

·      Решение математических задач (Quantitative Reasoning, MATH). Прогнозируемое обслуживание требует высокой точности в обработке данных, включая анализ временных рядов, выявление аномалий и прогнозирование сбоев. Модель должна хорошо справляться с числовыми данными и текстовой аналитикой (например, анализом отчетов о состоянии оборудования). Модель o1-preview занимает первое место с 85%, что подчеркивает её способность к точному анализу данных.

·      Генерация кода (Coding, HumanEval). Для интеграции с существующими системами и разработки специализированных решений для инженеров-программистов данная функциональная возможность по генерации программного кода может быть вполне полезной, если на предприятии применяются методологии DevOps (от англ. Development & Operations), DataOps (от англ. Data Operations) и MLOps (от англ. Machine Learning Operations). o1-preview демонстрирует 95% результаты в точности разрабатываемого кода.

·      Скорость обработки запросов и задержка. На промышленных предприятиях важно минимизировать задержки в обработке данных, чтобы своевременно реагировать на потенциальные проблемы. Модели с низкой задержкой предпочтительны для решения задач в реальном времени. Для этого подойдут модели Sonar Large, Mistral Large и Command-R+ , которые демонстрируют высокую скорость обработки запросов, что делает их подходящими для задач, требующих быстрого реагирования в экстремальных условиях промышленного производства.

·      Контекстное окно. Для анализа длинных отчетов, технической документации, протоколов работы оборудования и больших объемов данных требуется модель с большим контекстным окном, способная обрабатывать и запоминать значительные объемы информации. Модель Gemini 1.5 Pro имеет самое большое контекстное окно в 2M токенов (токен – это фрагмент текста. Условно, на 100 токенов приходится 75 слов из обрабатываемого текста или 128 000 токенов — это 250 страниц текста), что позволяет ей эффективно работать с разнородными мультимодальными данными [[iv], [v]]. Как отмечается в исследовании Google DeepMind [[vi]] для того, чтобы повысить универсальность применения и адаптируемость больших языковых моделей, необходимо использовать метод контекстного обучения (англ. In-Context Learning (ICL)). Данный метод позволяет очень быстро получать результаты без дополнительного переобучения модели. Основным требованием для его эффективного использования является огромное количество исходных данных. Такие данные можно получить с датчиков промышленного Интернета вещей, что делает данный метод перспективным к использованию в решении задач промышленной автоматизации и прогнозируемого обслуживания.

Рис. 1. Длина контекстного окна в зависимости от размера примеров ввода-вывода (так называемых «shots») для разных тестовых задач
Рис. 1. Длина контекстного окна в зависимости от размера примеров ввода-вывода (так называемых «shots») для разных тестовых задач

Существенным недостатком данного метода является требования к размеру использованию контекстного окна, что влечет за собой повышенные требования к вычислительным мощностям и стоимости обработки запросов. Тем не менее, в исследовании подчеркивается, что максимальная производительность модели Gemini 1.5 Pro в задачах классификации (при применении метода контекстного обучения) достигается с контекстным окном равным 80 000 токенов.

·      Интеграция с существующими системами. Модель должна легко интегрироваться с промышленными платформами, системами сбора данных, ERP-системой, системой управления производственной безопасностью (SMS), компьютеризированной системой управления техническим обслуживанием (CMMS) и другими информационными системами.

·      Стоимость владения. Внедрение LLM должно быть экономически оправданным. Стоимость использования модели должна соответствовать её производительности и функциональным возможностям для решения актуальных задач предприятия. o1-preview является самой дорогой моделью, но её высокая производительность может компенсировать затраты на эксплуатацию. Для менее требовательных задач можно рассмотреть более экономичные варианты, такие как Mistral или DeepSeek.

На основании представленных критериев, определим основные преимущества, достоинства и недостатки каждой из больших языковых моделей:

·      OpenAI: o1-preview

·         Преимущества: Высокая точность анализа, отличные математические способности, возможность генерации кода. Лидер по индексу качества (85 баллов), высокая точность в анализе данных и прогнозировании. Подходит для сложных задач, включая анализ временных рядов и выявление аномалий.

·         Недостатки: высокая стоимость и задержка обработки данных.

·         Применение: для крупных предприятий с большими объемами данных и высокими требованиями к точности прогнозов. Подходит для сложных аналитических задач и разработки специализированных решений.

·      Google DeepMind: Gemini 1.5 Pro

·         Преимущества: Самое большое контекстное окно (2M токенов), что позволяет анализировать длинные отчеты и техническую документацию. Высокая производительность в задачах, связанных с обработкой больших объемов данных.

·         Недостатки: высокая стоимость.

·         Применение: для предприятий, где требуется анализ сложных и объемных данных, таких как технические отчеты и журналы оборудования.

·      Anthropic: Claude 3.5 Sonnet

·         Преимущества: Высокая точность в анализе данных и логических задачах. Подходит для прогнозирования сбоев и анализа текстовых данных.

·         Недостатки: ограниченное контекстное окно (200k токенов).

·         Применение: для средних предприятий с умеренными объемами данных.

·      Mistral AI: Mistral Large 2

·         Преимущества: Высокая производительность в анализе данных и генерации текста. Подходит для задач, связанных с прогнозированием и анализом технической документации.

·         Недостатки: ограниченное контекстное окно (128k токенов).

·         Применение: для предприятий, где важна скорость обработки данных и экономичность.

Проанализировав представленные модели, можно сделать предварительный вывод о том, какие большие языковые модели можно использовать для решения задач прогнозируемого обслуживания:

·       Для крупных предприятий с большими объемами данных:

·         Gemini 1.5 Pro (от Google DeepMind) — благодаря большому контекстному окну и высокой производительности.

·         o1-preview (от OpenAI) — для задач, требующих максимальной точности.

·       Для средних предприятий:

·         Claude 3.5 Sonnet (от Anthropic) — баланс между точностью и стоимостью.

·         Mistral Large 2 (от Mistral AI) — для задач с высокой скоростью обработки.

·       Для средних и малых предприятий:

·         DeepSeek-Coder-V2 (от DeepSeek) — для прогнозирования на основе математических моделей.

Выбор той или иной языковой модели для задач прогнозируемого обслуживания на промышленных предприятиях во многом зависит от специфики задач, объемов данных и бюджета конкретного предприятия на внедрение перспективных ИИ-технологий. Крупные предприятия могут рассмотреть мощные модели, такие как o1-preview или Gemini 1.5 Pro или, в то время как средние предприятия могут остановиться на более экономичных решениях, таких как Claude 3.5 Sonnet или Mistral Large 2. В свою очередь, малым предприятиям стоит обратить внимание на модель DeepSeek.

В Таблице 2 представлены большие языковые модели, в том числе, разработанные российскими компаниями, которые хорошо понимают и умеют работать с русским языком. Например, такие как: YandexGPT 5 Pro от компании «Яндекс»; FRED-T5 (Full-scale Russian Enhanced Denoisers T5) от «Сбер»; T-Pro от «Т-Технологии»; EUS Model 1 от «Программные системы Атлансис» (на стадии разработки).

Таблица 2. Поддержка русского языка в больших языковых моделях
Таблица 2. Поддержка русского языка в больших языковых моделях

Целесообразность использования отечественных моделей, представленных в Таблице 2, для решения задач промышленной автоматизации, покажет их дальнейшее исследование учеными и тестирование инженерами-программистами в ближайшем будущем.

Анализ возможности применения модели OpenThinker2-32B в автоматизированных системах прогнозируемого обслуживания

Тем не менее, при кажущейся очевидности выбора необходимой модели для решения задач прогнозируемого обслуживания, на практике дела обстоят совсем иначе. В текущих экономически условиях, с учетом основных положений Указа Президента Российской Федерации от 30.03.2022 № 166 «О мерах по обеспечению технологической независимости и безопасности критической информационной инфраструктуры Российской Федерации», мы сталкиваемся с тем, что большинство промышленных предприятий должны использовать вычислительные системы и программное обеспечение, разработанное в Российской Федерации [[vii]]. Следствием этого, применительно к большим языковым моделям, на первое место выходят требования наличия открытого исходного кода и возможности их адаптации под конкретные потребности конкретного промышленного предприятия (включая требования к аппаратному обеспечению и требования, предъявляемые к системам объяснимого и доверенного искусственного интеллекта). Еще одним ключевым критерием выбора для малых и средних промышленных предприятий является затраты на разработку и интеграцию, а также стоимость владения программно-аппаратного комплекса, поддерживающего работу автоматизированной системы прогнозируемого обслуживания. С учетом перечисленных ограничений на первое место среди представленных моделей выходит такая модель, как OpenThinker2-32B.

OpenThinker2-32B — это крупномасштабная языковая модель, разработанная для обработки естественного языка и решения сложных задач анализа данных. Модель обладает 32 миллиардами параметров, что позволяет ей эффективно работать с большими объемами информации, выявлять сложные закономерности и генерировать точные прогнозы. Модель разработана командой специалистов из Стэнфорда, Калифорнийского университета в Беркли, Вашингтонского университета, Bespoke Labs, UT Austin, Juelich Supercomputing Center (JSC), LAION, UCLA, UNC Chapel Hill и Toyota Research Institute. Модель является улучшенной версией модели Qwen2.5-32B-Instruct [[viii]].

Модель OpenThinker2-32B может быть адаптирована для использования в промышленных условиях, где требуется обработка исторических данных с датчиков, анализ текстовой документации и принятие экспертных решений на основе полученной аналитики.

OpenThinker2-32B характеризуется:

·       Открытым исходным кодом и открытым набором данных (OpenThoughts2-1M), на которых она была обучена [[ix]].

·       Высокой производительностью. Модель способна обрабатывать большие объемы исторических данных. По результатам тестов разработчиков модели, OpenThinker2-32B является наиболее производительной и точной в сравнении с моделью DeepSeek-R1-32B [[x]].

Рис. 2. Сравнение модели OpenThinker2-32B с другими моделями для разных тестовых задач
Рис. 2. Сравнение модели OpenThinker2-32B с другими моделями для разных тестовых задач

·       Гибкостью. Модель OpenThinker2-32B может быть адаптирована для решения различных аналитических задач в экспертных подсистемах, подсистемах прогнозирования и принятия решений [[xi]].

·       Модель бесплатна. Стоимость владения будет определяться прежде всего затратами на вычислительные мощности при обучении, переобучении и применении, а также стоимостью специалистов, что существенно дешевле, чем использованию любой из представленных выше моделей.

В прогнозируемом обслуживании модель OpenThinker2-32B может быть использована, как вспомогательный инструмент в решении следующих специализированных задач:

·       Анализ исторических данных и прогнозирование оставшегося срока службы оборудования. Модель OpenThinker2-32B способна справится с задачей автоматизации извлечения скрытых паттернов из структурированных и неструктурированных исторических данных (протоколы работы оборудования оборудования, отчеты о ремонтах, верифицированные данные с датчиков) для передачи их в подсистему машинного обучения для дальнейшего прогнозирования отказов и оценки оставшегося срока службы оборудования.

В свою очередь, модель OpenThinker2-32B может интерпретировать контекст событий и генерировать аналитические выводы, что является немаловажным в реализации процессов сценарного моделирования и планирования, для оценки различных сценариев развития событий и их влияния на производственные процессы. Кроме того, модель OpenThinker2-32B может быть использована для формирования экспертного заключения на основе теории свидетельств [[xvi]]. На Рисунке 3 показан условный процесс информационного взаимодействия модели OpenThinker2-32B в решении задач анализа исторических и текущих данных [[xvii], [xviii]].

Рис. 3. Процесс информационного взаимодействия модели OpenThinker2-32B в решении задач анализа исторических данных и прогнозирования отказов. В скобках указаны наименования платформ с исходным кодом для сбора, анализа, передачи и управления данными
Рис. 3. Процесс информационного взаимодействия модели OpenThinker2-32B в решении задач анализа исторических данных и прогнозирования отказов. В скобках указаны наименования платформ с исходным кодом для сбора, анализа, передачи и управления данными
  • Снижения неопределенности. Одной из ключевых проблем в прогнозируемом обслуживании является неопределенность данных. Ее сточниками могут быть: шумы в работе датчиков (дрейф калибровки, дрейф датчиков, дрейф измерений и другие), пропуски данных (сбои связи), противоречивые показания, изменение условий эксплуатации, ошибки ML-моделей, и другие. Сама по себе модель OpenThinker2-32B никак не влияет на исходные данные, но промежуточные результаты ее работы в сочетании с алгоритмами, разработанными на основе теории свидетельств Демпстера-Шафера (англ. Dempster-Shafer theory – DST) и алгоритмами машинного обучения могут быть использованы для повышения точности прогнозов и снижения уровня неопределенности. Такой подход более эффективен для многостадийных технологических процессов, где традиционные методы снижения неопределенности, такие как байесовский подход, могут быть недостаточно эффективны [[xix], [xx], [xxi]]. На Рисунке 4 представлен условный процесс информационного взаимодействия модели OpenThinker2-32B в решении задач снижения факторов неопределенности данных.

Рис. 4. Процесс информационного взаимодействия модели OpenThinker2-32B в решении задач снижения факторов неопределенности данных
Рис. 4. Процесс информационного взаимодействия модели OpenThinker2-32B в решении задач снижения факторов неопределенности данных

·       Оптимизации расписаний технического обслуживания. На основании данных из разных источников (например, системы управление и контроля промышленными процессами, системы управления исполнением производственных задач и процессами, и др.), модель может быть применена для анализа текстовых данных (протоколы, документация и др.), генерация рекомендаций, обработки неструктурированных данных для улучшения признаков, а также представления рекомендаций по оптимизации расписания технического обслуживания. Это позволяет снизить затраты на обслуживание и увеличить срок службы оборудования [[xxii]]. На рисунке представлен условный процесс информационного взаимодействия модели OpenThinker2-32B в решении задач оптимизации расписаний и процессов технического обслуживания.

Рис. 5. Процесс информационного взаимодействия модели OpenThinker2-32B в решении задач оптимизации расписаний и процессов технического обслуживания
Рис. 5. Процесс информационного взаимодействия модели OpenThinker2-32B в решении задач оптимизации расписаний и процессов технического обслуживания

Перечислим технологии искусственного интеллекта, которые могут быть использованы в сочетании с технологиями обработки текстов на естественном языке, реализуемые в модели OpenThinker2-32B (где модель применяется, как вспомогательный инструмент и сточник дополнительных данных), для решения задач прогнозируемого обслуживания:

·       Алгоритмы машинного обучения / глубокие нейронные сети применяются для решения задач классификации данных и регрессионного анализа для прогнозирования времени оставшегося срока службы оборудования и оптимизации процессов технического обслуживания.

·       Рекуррентные нейронные сети используются для обработки последовательных данных, таких как временные ряды, что особенно важно для мониторинга оборудования в реальном времени, прогнозирования изменений в работе оборудования на основе исторических и текущих данных.

·       Долгосрочная краткосрочная память, которая является разновидностью рекуррентных нейронных сетей, используется для анализа сложных процессов, где важно учитывать исторические данные для прогнозирования отказов на основе длительных временных рядов.

·       Сверточные нейронные сети могут быть использованы в сочетании с алгоритмами классификации состояний диагностируемого объекта (нормального или аномального), а также алгоритмами распознавания образов дефектов и самообучаемых классификаторов новых образов дефектов, построенных по архитектуре адаптивно-резонансной теории для мониторинга и обнаружения скрытых дефектов при использовании датчиков и оборудования неразрушающего контроля [[xxiii]].

·       Алгоритмы кластеризации, такие как k-средних (англ. k-means) и иерархическая кластеризация, для группировки данных и выявления скрытых закономерностей для решения задач сегментации данных и анализа различных режимов работы оборудования, с целью выявления аномалий в данных.

·       Алгоритмы оптимизации, такие как генетические алгоритмы и метод градиентного спуска, используются для настройки параметров моделей и поиска оптимальных решений, что подходит для решения задач оптимизации процессов технического обслуживания и настройки параметров моделей для повышения точности прогнозов.

·       Алгоритмы ансамблевого обучения, такие как случайные леса и бустинг, для повышения точности прогнозов и уменьшения ошибок в прогнозировании отказов.

В связи с вышесказанным, предлагается следующая концепция архитектуры системы прогнозируемого обслуживания с использованием модели OpenThinker2-32B. В соответствии представленным перечнем вариантов применения, такая система может использовать функциональные возможности алгоритма OpenThinker2-32B в следующих модулях:

·       Модуль обучения. Обучение модели на текущих и исторических данных.

·       Модуль обнаружения аномалий. Модель может быть использована для анализа данных об уровне рассогласования между предсказанными и фактическими значениями.

·       Модуль прогнозирования. Модель может помочь в выявлении аномалий и прогнозировании возможных отказов.

·       Модуль принятия решений. На основе анализа данных с помощью OpenThinker2-32B система представляет план работ и рекомендации по техническому обслуживанию. Возможна реализация интеграции с внешними экспертными, аналитическими системами и системами поддержки принятия решений.

·       Модуль обратной связи. На данном уровне могут быть реализованы функции тонкой настройки, обучения и переобучения OpenThinker2-32B, например на основе вышеупомянутого метода контекстного обучения.

Концепция архитектуры конвергентной системы прогнозируемого обслуживания с использованием модели OpenThinker представлена на Рисунке 6.

Рис. 6. Концептуальная архитектура конвергентной автоматизированной системы прогнозируемого обслуживания с использованием модели OpenThinker2-32B
Рис. 6. Концептуальная архитектура конвергентной автоматизированной системы прогнозируемого обслуживания с использованием модели OpenThinker2-32B

Нужно отметить, что возможность интеграции данной модели с периферийным ИИ, с целью обработки данных непосредственно на месте, без необходимости передачи их в удаленные центры обработки информации (на Рисунке 6 – это Модуль работы с устройствами IIoT и Модуль предварительной обработки данных), нецелесообразно в силу высоких требований модели к производительности вычислительных систем и дисковому пространству систем хранения данных. По данным, которые представила команда разработчиков, полное обучение модели выполняется за 50 часов на 128 серверах, на каждом из которых установлено по 4 видеокарты NVIDIA А100. [[xxiv]].

Преимущества использования OpenThinker2-32B для решения задач прогнозируемого обслуживания:

·       Сокращение затрат на техническое обслуживание за счет своевременного выявления проблем и оптимизации процессов.

·       Уменьшение времени простоя благодаря прогнозированию отказов и планированию обслуживания.

·       Повышение точности прогнозов за счет использования комбинации теории свидетельств Демпстера-Шафера и методов машинного обучения. Теория свидетельств используется для снижения уровня неопределенности в прогнозах и повышения доверия к выходным данным для принятия решений. Это особенно важно в условиях, где данные могут быть неполными или противоречивыми.

·       Гибкость и масштабируемость. Модель может быть настроена для различных типов оборудования на основе собственных отраслевых данных или при помощи специализированных библиотек (например, такой как Transformers) [[xxv]].

Заключение

В результате проведенного исследования изучена возможность применения и адаптации большой языковой модели OpenThinker2-32B, как дополнительного и вспомогательного инструмента, который целесообразно использовать для повышения эффективности работы автоматизированных систем прогнозируемого обслуживания многостадийных технологических процессов для малых и средних промышленных предприятий. Использование данной модели позволит реализовать и улучшить следующие функции автоматизированной системы: анализ исторических данных; прогнозирование оставшегося срока службы оборудования; подготовка данных для снижения факторов неопределенности (с помощью алгоритмов, разработанных на основе теории свидетельств Демпстера-Шафера) для улучшения прогнозов; подготовка экспертных заключений; оптимизация расписаний по техническому обслуживанию промышленного оборудования. В процессе исследования разработаны алгоритмы информационного взаимодействия для каждой из перечисленных задач, и определено положение большой языковой модели в концепции конвергентной архитектуры автоматизированной системы прогнозируемого обслуживания для повышения точности прогнозов и возможности ее интеграции с экспертными, аналитическими, прогнозными системами и системами поддержки принятия решений, а также другими информационными системами промышленных предприятий. Благодаря своей гибкости, высокой производительности и невысокой стоимости владения, большая языковая модель OpenThinker2-32B является мощным вспомогательным инструментом для автоматизации промышленных процессов и повышения их эффективности. Ключевой особенностью модели является открытость ее исходных кодов и дата сетов, на которых была обучена модель, что позволяет адаптировать ее работу под решение задач практически любого промышленного предприятия, или разработать на ее основе совершенно новое техническое решение, на базе отечественных программно-аппаратных комплексов. В ближайшем будущем модель OpenThinker2-32B может стать одним из факторов способным повлиять на ускорение процессов перехода от реактивного к прогнозируемому обслуживанию для малых и средних промышленных предприятий, что позволит не только снизить затраты на техническое обслуживание, но и повысить надежность и безопасность производственных процессов.


[i]. Large Language Model Market. [Электронный ресурс]. www.marketsandmarkets.com - URL: https://www.marketsandmarkets.com/Market-Reports/large-language-model-llm-market-102137956.html (дата обращения: 13.03.2025)

[ii]. Large Language Model (LLM) Market - A Global and Regional Analysis. [Электронный ресурс]. bisresearch.com - URL: https://bisresearch.com/industry-report/large-language-model-market.html (дата обращения: 13.03.2025)

[iii]. Обзор видов лучших ИИ-моделей 2024: сравнение и рейтинг популярных LLM. [Электронный ресурс]. iaassaaspaas.ru - URL: https://iaassaaspaas.ru/rating/ai/obzor-vidov-luchshih-ii-modeley-2024-sravnenie-i-reyting-populyarnyh-llm (дата обращения: 12.03.2025)

[iv] . Что такое контекстное окно в ИИ и как оно влияет на работу языковых моделей [Электронный ресурс]. 2025 - URL: https://blog.colobridge.net/2025/04/context-window-in-ai/ (дата обращения: 12.05.2025)

[v] . Малышко В. Большие языковые модели: что это такое и как они работают [Электронный ресурс]. 2023 - URL: https://just-ai.com/blog/bolshie-yazykovye-modeli-chto-eto-takoe-i-kak-oni-rabotayut (дата обращения: 02.05.2025)

[vi] . Rishabh Agarwal, Avi Singh, Lei M. Zhang, Bernd Bohnet, Luis Rosias, Stephanie Chan, Biao Zhang, Ankesh Anand, Zaheer Abbas, Azade Nova, John D. Co-Reyes, Eric Chu, Feryal Behbahani, Aleksandra Faust, Hugo Larochelle. Many-Shot In-Context Learning. DOI: https://doi.org/10.48550/arXiv.2404.11018 [Электронный ресурс]. 2024 - URL: https://arxiv.org/abs/2404.11018 (дата обращения: 12.05.2025)

[vii] . Указ Президента Российской Федерации от 30.03.2022 № 166 "О мерах по обеспечению технологической независимости и безопасности критической информационной инфраструктуры Российской Федерации". [Электронный ресурс]. 2022 - URL: http://publication.pravo.gov.ru/Document/View/0001202203300001 (дата обращения: 12.05.2025)

[viii] . Qwen2.5-32B-Instruct [Электронный ресурс]. 2025 - URL: https://huggingface.co/Qwen/Qwen2.5-32B-Instruct (дата обращения: 12.05.2025)

[ix] . OpenThoughts2-1M [Электронный ресурс]. 2025 - URL: https://huggingface.co/datasets/open-thoughts/OpenThoughts2-1M (дата обращения: 12.05.2025)

[x] . Open-thoughts [Электронный ресурс]. 2025 - URL: https://github.com/open-thoughts/open-thoughts (дата обращения: 09.05.2025)

[xi] . Чуйко Д. Большие языковые модели как инструмент для анализа технической документации и решения ИТ-инцидентов [Электронный ресурс]. 2025 - URL: https://habr.com/ru/articles/895114/ (дата обращения: 02.05.2025)

[xii]. Юмагузин У.Ф. Баширов М.Г. Прогнозирование остаточного ресурса оборудования предприятий нефтегазовой отрасли. Фундаментальные исследования. 2014. № 3 (часть 2) С. 277-280 - URL: https://fundamental-research.ru/ru/article/view?id=33623 (дата обращения: 15.03.2025).

[xiii]. Казаринов Лев Сергеевич, Шнайдер Дмитрий Александрович, Хасанов Алексей Романович. Метод оценки текущего состояния контролируемого оборудования в задаче оперативного планирования ремонтнопрофилактических работ. [Электронный ресурс]. cyberleninka.ru - URL: https://cyberleninka.ru/article/n/metod-otsenki-tekuschego-sostoyaniya-kontroliruemogo-oborudovaniya-v-zadache-operativnogo-planirovaniya-remontnoprofilakticheskih (дата обращения: 15.03.2025)

[xiv]. Казаринов Лев Сергеевич, Шнайдер Дмитрий Александрович. Метод упреждающего управления сложными технологическими комплексами по критериям энергетической эффективности. [Электронный ресурс]. cyberleninka.ru - URL: https://cyberleninka.ru/article/n/metod-uprezhdayuschego-upravleniya-slozhnymi-tehnologicheskimi-kompleksami-po-kriteriyam-energeticheskoy-effektivnosti (дата обращения: 15.03.2025)

[xv]. Шнайдер, Дмитрий Александрович. Автоматизированные системы упреждающего управления по критериям энергетической эффективности (в теплоэнергетических комплексах металлургических предприятий) : диссертация ... доктора технических наук : 05.13.06 / Шнайдер Дмитрий Александрович; [Место защиты: ГОУВПО "Южно-Уральский государственный университет"].- Челябинск, 2011.- 320 с.: ил. - URL: http://www.dslib.net/avtomatizacia-upravlenia/avtomatizirovannye-sistemy-uprezhdajuwego-upravlenija-po-kriterijam-jenergeticheskoj.html (дата обращения: 15.03.2025)

[xvi] . Ганцева Е. А., Каладзе В. А., Поляков А. М. Формирование экспертного вывода на основе теории свидетельств // Вестник ВГТУ. 2015. №1. URL: https://cyberleninka.ru/article/n/formirovanie-ekspertnogo-vyvoda-na-osnove-teorii-svidetelstv (дата обращения: 12.05.2025).

[xvii] . Что такое большая языковая модель (LLM)? [Электронный ресурс]. - URL: https://aws.amazon.com/ru/what-is/large-language-model/ (дата обращения: 02.05.2025)

[xviii] . Учим большие языковые модели описывать продукты данных [Электронный ресурс]. 2024 - URL: https://habr.com/ru/companies/sberbank/articles/795617/ (дата обращения: 02.05.2025)

[xix] . Палюх Б.В., Чесалов А.Ю. Современные подходы к созданию автоматизированных систем прогнозируемого обслуживания многостадийных технологических процессов в промышленности. // «Инжиниринг предприятий и управление знаниями» (ИП&УЗ – 2024): сборник научных трудов XXVII Российской научной конференции. 28 – 29 ноября 2024 г. Том 1. / под науч. ред. д.э.н. Ю.Ф. Тельнова.- Москва: ФГБОУ ВО «РЭУ им. Г.В. Плеханова», 2024. - С. 351 - 357.

[xx] . Иванов В.К., Палюх Б.В. Демонстратор программной платформы для совместного использования алгоритмов теории свидетельств и нейронных сетей в нечетких системах // Программные продукты и системы / Software & Systems. – 2021. - №4(34) – С. 511-523.

[xxi]. Виноградова Н.В., Иванов В.К., Палюх Б.В., Сотников А.Н. (2021). Современные направления развития и области приложения теории Демпстера-Шафера (обзор). //         

Искусственный интеллект и принятие решений.- 2018. - №4 -С. 32-42. DOI: 10.14357/20718594180403 [Электронный ресурс]. 2021 - URL: https://www.elibrary.ru/item.asp?id=36643710 (дата обращения: 12.05.2025)

[xxii] . Дырмовский Д. Большие языковые модели — большие возможности для роста бизнеса [Электронный ресурс]. 2024 - URL: https://www.speechpro.ru/media/news/bolshie-yazykovye-modeli-bolshie-vozmozhnosti-dlya-rosta-biznesa (дата обращения: 02.05.2025)

[xxiii] . Палюх Б.В., Чесалов А.Ю. (2023) Методологический подход к цифровой трансформации предприятий отрасли производителей оборудования неразрушающего контроля // «Инжиниринг предприятий и управление знаниями» (ИП&УЗ – 2023) : сборник научных трудов XXVI Российской научной конференции. 29 – 30 ноября 2023 г. / под науч. ред. д.э.н. Ю.Ф. Тельнова.- Москва: ФГБОУ ВО «РЭУ им. Г.В. Плеханова», 2023. - С. 256 - 260.

[xxiv] . OpenThinker2-32B [Электронный ресурс]. 2025 - URL: https://huggingface.co/open-thoughts/OpenThinker2-32B (дата обращения: 13.05.2025)

[xxv] . Transformers [Электронный ресурс]. 2025 - URL: https://huggingface.co/docs/transformers/index (дата обращения: 12.05.2025)

Комментарии (1)


  1. rodial
    24.11.2025 12:46

    Странно что в сравнении нет qwen3