Онлайн-чаты с «песочницей», умные автодополнения в IDE, автономные агенты, а также локальные/открытые модели — все это сегодня называют «ИИ-помощниками для Python». В статье я разложу варианты по классам, укажу сильные и слабые стороны, добавлю короткие примеры и ссылки на первоисточники.

В чем суть

Инструментов стало слишком много, а задачи — разные:

  • быстро исследовать датафрейм и накидать графики;

  • генеративно «подшить» юнит-тесты и коммиты в рабочем IDE-потоке;

  • автоматизировать многошаговую рутину (зайти в ЛК, выгрузить отчет, привести в вид);

  • поднять локальную модель и не светить код/данные в облаке.

Нужна карта, чтобы под конкретную задачу выбрать класс инструмента, а не спорить «кто лучше в целом». Ниже приведу 4 класса ИИ-инструментов для помощи с Python, информация актуальна на осень, 2025 года.

1) Онлайн-чаты с изолированной Python-песочницей

Онлайн-чаты с изолированной Python-песочницей
Онлайн-чаты с изолированной Python-песочницей

1) ChatGPT — Advanced Data Analysis (ADA).

  • ChatGPT - Advanced Data Analysis (ADA) для Python - Ранее назывался Code Interpreter, теперь — Advanced Data Analysis. Песочница с Python 3.12, pandas/numpy/matplotlib и загрузкой файлов до 512 МБ прямо в чат. Выполняет, профилирует и визуализирует код прямо в чате. Среда без исходящих сетевых запросов.

  • Режим ADA встроен во все платные планы (Plus, Pro, Team) и работает в моделях GPT‑4o, GPT‑4o mini (дешевле) и o3‑pro (выше точность).

  • Когда придется кстати: разведочный анализ данных, быстрая визуализация, генерация/проверка скриптов, «объясни и перепиши аккуратно».

  • Ограничения: лимиты контекста чата (ориентир — ~128k токенов в UI для поддерживаемых моделей), время выполнения шага, отсутствие внешнего интернета у песочницы. Файлы ≤ 512 МБ, до 120 с на операцию. Окно 1 M  токенов доступно только через API GPT‑4.1. - надо это учитывать.

  • Как включить: выберите модель → Tools → Advanced Data Analysis.

Про Data analysis с ChatGPT я рекомендую подробнее прочитать на странице OpenAI.

  • Дополнения:

1) Codex‑agent — автотесты и фиксы кода.

Документация и API Codex для разработчиков.

Как использовать Codex в России и подробное руководство - мне понравилось, как описано в этой статье.

2) ChatGPT Agent — автоматизация многошаговых задач на основе ADA.

Подробно про ChatGPT Agent я писала в этом посте, при желании, можете с ним ознакомиться.

Подробная системная карта с архитектурой и принципами работы ChatGPT Agent

Справка от OpenAI, объясняющая, как работает ChatGPT Agent, и как им пользоваться

2) Gemini 1.5/ 2/ 2.5 (AI Studio).

Gemini Pro

  • Сильная сторона — очень длинный контекст: даже для Gemini 1.5 Pro открыт режим 2 млн токенов (и вспомогательные механики вроде context caching).

  • Отлично подходит для работы с Jupyter-ноутбуками, генерирует очень объемные файлы. Способен анализировать весь файл целиком, а не только его части. Особенно силен в задачах, связанных с NumPy и Pandas.

  • Поддерживает генерацию текста из текстовых и мультимодальных вводов (текст и изображения), многоходовые диалоги (чат).

Рекомендую почитать Как начать с Gemini API: Python


Когда лучше выбрать чат-песочницу, и какую именно:

Если нужно «поглотить» длинный ноутбук, PDF/CSV-папку и обсудить код — берите чат-песочницу. Для сверхдлинного ввода — Gemini; для интерактивного анализа и быстрой отладки — ADA.

2) IDE-ассистенты

IDE-ассистенты
IDE-ассистенты

1) GitHub Copilot

GitHub Copilot - AI-помощник для программистов, предоставляющий автодополнение кода, генерацию unit-тестов и чат-панель.

  • Интегрируется с Visual Studio Code, Visual Studio, JetBrains IDEs и Neovim.

  • Цены: есть Free, Individual Pro за $10/мес, еще есть Copilot Pro за 39$/ мес - НО! Доступен 30-дневный пробный период для Copilot Pro.

2) JetBrains AI Assistant

JetBrains AI Assistant - Плагин для PyCharm и других IDE.

  • Предоставляет контекстно-ориентированное автодополнение кода, генерацию кода, рефакторинг, создание документации и unit-тестов, а также AI-чат, мультифайловые изменения.

  • Учитывает TODO и генерирует commit-сообщения.

  • Можно выбирать провайдера LLM (OpenAI/Anthropic/Google Gemini), а также подключать локальные модели (бета).

  • Многофайловые изменения в режиме чата, управление контекстом чата, веб-поиск из чата.

  • Стоит от 10$/ мес.

Я еще рекомендую прочитать про Функции AI Assistant на официальной странице JetBrains

3) Claude Code

Claude Code - Режим для IDE, умеет работать с несколькими файлами, писать/объяснять тесты и соблюдать политики изменения кода (не коммитить без явного подтверждения).

  • Доступны расширения для VS Code и JetBrains.

  • Поддерживает фоновые задачи через GitHub Actions.

  • Включен в тарифы Anthropic: Claude Pro ($17/мес при оплате за год; $20 помесячно) и Claude Pro Max (от ~$100/мес).

  • Использует Claude Opus 4, модель, оптимизированную для понимания и генерации кода.

  • Контекст до 200k токенов.

  • Глубокое понимание кодовой базы, возможность координированных изменений в нескольких файлах, адаптация к стандартам кодирования.

  • Не модифицирует файлы без явного одобрения.


IDE-ассистенты эффективнее всего там, где важны «мелкие» правки в контексте текущего проекта и скорость. Copilot — «легкий» дефолт; JetBrains — глубже интегрирован в экосистему IDE; Claude Code — силен в вежливых многофайловых правках.

3) Автономные агенты

Автономные агенты
Автономные агенты

1) Genspark

Genspark - Интерактивный AI-агент, который генерирует кастомные страницы (Sparkpages) в реальном времени на основе запросов пользователя.

  • Имеет встроенный AI Copilot, который помогает расширять знания.

  • Использует многоагентную структуру, предоставляет непредвзятый контент, консолидирует данные из различных авторитетных источников.

  • Многоагентная сборка материалов с генерацией «Sparkpages» (структурированные страницы) + Copilot/Review-режим. Подходит для исследования темы и консолидированного вывода.

С возможностями Genspark вы можете ознакомиться на официальной странице.

Или вы можете посмотреть видео с переводом и мой подробный пост про Genspark - что он может, а что нет, кейсы, как лучше с ним работать.

Еще там есть замечательный инструмент Deep Research - но мне на бесплатном плане мало что удалось сделать, я уперлась в лимиты.

2) Manus

Manus - автономный многошаговый AI-агент, способный выполнять сложные задачи без постоянного вмешательства человека.

  • Хорош для многошаговых задач типа «собери данные из ЛК → рассчитай метрики → сформируй отчет/сайт». НО! может быть медленнее, чем IDE-ассистенты вроде Copilot.

  • Способен генерировать и выполнять Python-код, взаимодействовать с веб-браузерами и выполнять JavaScript. То есть планирует и исполняет задачи, может выполнять действия за вас на сайтах, и запускать код в облачной изоляции (playbooks и юзкейсы опубликованы на сайте - вниз если пролистать).

  • Отличается автономным выполнением задач и мультимодальными возможностями.


Агенты полезны, когда нет API и приходится кликать, комбинировать браузер+код и дожидаться долгих пайплайнов. Они медленнее IDE-ассистентов, зато закрывают рутину от и до.

4) Открытые/локальные модели для кода

1) DeepSeek-Coder V2 (MoE)

DeepSeek-Coder V2 - Открытая модель Mixture-of-Experts (MoE), разработанная для кодирования.

  • Контекст до 128k, линейка 16B/236B

  • Показывает производительность, сравнимую или превосходящую GPT-4-Turbo на бенчмарке HumanEval*. В общем, на code-задачах DeepSeek-Coder V2 оказался лучше GPT-4-Turbo.

HumanEval бенчмарк* - это широко признанный эталонный тест для оценки мастерства программирования LLM.

  • Репозиторий и PDF доступны на GitHub.

Я рекомендую прочитать Руководство по доступу, настройке и использованию DeepSeek coder V2

2) WizardCoder V2 (34B)

WizardCoder V2 (34B) - модель известна результатом ~73.2% на HumanEval* (в релизах 2023–2024) - это высокий результат, ниже сравню с другими моделями в это бенчмарке.

HumanEval бенчмарк* - это широко признанный эталонный тест для оценки мастерства программирования LLM.

  • Для лучшего понимания, в этом тесте модель WizardCoder V2 (34B) обошла модель GPT-4 - в релизе в августе набрал 82% по показателям HumanEval. В остальных случаях, WizardCoder V2 (34B) всех обошел: GPT-3.5 - набрал около 65%, Code Llama - результат составил 69,5%.

3) Code Llama 70B Instruct

Code Llama 70B Instruct - официальный релиз Meta* для кода/инструкций.

  • Модель свободна для исследований и коммерции по лицензии семейства Llama.

  • Производительность примерно на уровне GPT-3.5.

*Meta - признана экстремистской организацией, ее деятельность запрещена на территории Российской Федерации.

4) StarCoder 2 (15B)

StarCoder 2 (15B) - флагман BigCode (Hugging Face/ServiceNow/NVIDIA)

  • Лучшая модель в своем классе по размеру 15B

  • Может сравниться с моделями 33B+ по ряду метрик.

  • Хорош для дообучения.

5) Phi-3 Mini / Small 128k-Instruct

Phi-3 Mini / Small 128k-Instruct - легкие модели Microsoft на 3.8–7B параметров с 128k контекстом. Есть варианты ONNX/GGUF. Подходят для локального окружения и даже edge.

  • Phi-3 Mini 128K-Code - модель с 3.8 миллиардами параметров, контекстное окно 128k токенов

  • Может запускаться на Raspberry Pi, так что может легко использоваться для локального использования на маломощных устройствах.


Локальные LLM — выбор для требований к приватности/стоимости, но потребуют инженерии (вес, квантование, TGI/llama.cpp/ONNX, подбор прокомпилированных библиотек).

Как на практике лучше выбрать ИИ-инструмент под свою задачу в Python, и с какими ограничениями и рисками можно столкнуться

Итак, давайте с вами подытожим как на практике лучше выбрать ИИ-инструмент под свою задачу в Python, и с какими нюансами можно столкнуться.

  • Если вам нужно быстро понять данные / построить графики → Chat-песочница (ADA/Gemini).

  • Ежедневная разработка в IDE (подсказки, тесты, коммиты) → Copilot /JetBrains AI Assistant /Claude Code.

  • Многошаговая рутина без API (клики в ЛК, отчеты) → Агенты (Manus /Genspark).

  • Приватность/офлайн/низкая стоимость инференса → Open-source (DeepSeek /WizardCoder /Code Llama /StarCoder 2 /Phi-3).

После того, как вы выбрали инструмент для своих задач, неплохо бы ознакомиться с ограничениями и рисками:

  • Конфиденциальность. В чат-песочницах и у агентов внимательно читайте политику данных и выключайте шэринг, если он не нужен (enterprise-настройки, self-host).

  • Длина контекста ≠ качество. Длинные окна (1–2 М токенов) удобны для «складывания» артефактов, но повышают стоимость и не гарантируют понимания — проверяйте факты и пишите юнит-тесты. Про длинный контекст на примере Gemini рекомендую почитать статью на Google Dev - там как раз приводятся рекомендации по использованию и оптимизации, а так же говорится про ограничения, теряется ли производительность модели при добавлении дополнительных токенов в запрос и другая полезная информация.

  • Стоимость. Сопоставляйте тарифы с задачами: IDE-ассистенты стоят дешевле за «единицу пользы», агенты — дороже, но автоматизируют конец-в-конец. Цены и планы представлены всегда на страницах провайдеров.

  • Автономия агентов. Включайте «ручник»: подтверждение действий, лимиты по времени/деньгам (особенно при веб-автоматизации), а то есть риск, что все кредиты съедятся напрасно, особенно GenSpark этим грешит - очень не экономный.

  • Локальные модели. Готовьтесь к инженерным задачам (квантование, ускорители, совместимость библиотек), но при этом вы выигрываете в приватности и TCO.

Ниже приведу примеры кода для каждой из четырех групп с типовыми задачами.

Примеры кода

A) Быстрый развед-анализ в чат-песочнице (ADA)

# Загружаем CSV (например, аплоад через чат), считаем сводку и строим график
import pandas as pd
import matplotlib.pyplot as plt

df = pd.read_csv('/mnt/data/invoices.csv')
summary = df.groupby('category')['amount'].sum().sort_values(ascending=False)

ax = summary.plot(kind='bar')
ax.set_title('Выручка по категориям, ₽')
ax.set_ylabel('₽')
plt.tight_layout()
plt.show()

В ADA это выполняется прямо в чате, файлы до 512 МБ (про загрузку и работу с разными типами документов внутри ChatGPT можно прочитать на официальной странице OpenAI), интернет недоступен — закладывайте это в сценарий.

B) IDE-ассистент для тестов/коммитов (JetBrains AI)

# В PyCharm → AI Assistant:
# Prompt: "Сгенерируй pytest для функции normalize_phone(), добавь edge cases.
# Затем сформируй commit message в стиле Conventional Commits."

JetBrains умеет учитывать TODO/контекст файла и предлагать коммит-сообщения, а также работать с выбранным поставщиком LLM или локальной моделью (бета).

C) Агент Manus, который должен собрать отчет из ЛК без API

# Пошаговый сценарий
1) Авторизация в ЛК → фильтры → выгрузка XLSX.
2) Запуск Python в изолированной сессии → очистка/агрегация.
3) Генерация отчёта (HTML/слайды) → ссылка на результат.

Реализация делается через готовый playbook GitHub repository deployment tool или пользовательский, Manus берет на себя план/исполнение.

D) Локальная open-source модель (DeepSeek-Coder V2 Lite-Instruct 16B)

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_id = "deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct"
tok = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
m = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, trust_remote_code=True).cuda()

prompt = "Write a Python function that validates Russian phone numbers with tests."
inputs = tok.apply_chat_template([{"role":"user","content":prompt}], add_generation_prompt=True, return_tensors="pt").to(m.device)
out = m.generate(inputs, max_new_tokens=400)
print(tok.decode(out[0][len(inputs[0]):], skip_special_tokens=True))

Варианты и требования (GPU/квантование, контекст 128k) — см. README проекта.

Заключение

По себе знаю, что любой материал лучше усваивается при повторении, поэтому давайте еще раз сделаем логичные выводы:

  • Есть 4 класса помощников для Python: чат-песочницы (быстрый EDA), IDE-ассистенты (повседневная разработка), агенты (многошаговая автоматизация) и локальные модели (приватность/контроль).

  • ADA удобна для интерактивного анализа и графиков (файлы до 512 МБ). В 2025 ADA в ChatGPT доступен в моделях GPT-4o/4o mini/o3-pro; песочница — без интернета. У Gemini Pro — длинный контекст до 2 М токенов. Gemini 2.5 Pro — актуальный флагман Google (AI Studio/Vertex AI); берет на себя длинный контекст и мультимодальность.

  • В IDE самый высокий ROI: Copilot /JetBrains AI Assistant /Claude Code закрывают автодополнение, тесты, коммиты.

  • Когда нет API и нужна автоматизация и возможность покликать за вас — рассмотрите агентов (Manus /Genspark).

  • Для приватности и экономии при долгих сессиях — open-source (DeepSeek /WizardCoder /Code Llama /StarCoder 2 /Phi-3).

  • Длина контекста — не панацея: все равно проверяйте факты, пишите тесты, фиксируйте версии.

  • Сопоставляйте стоимость и сценарий: IDE-ассистенты дешевле «на каждый день», агенты — для «end-to-end» задач.

  • На практике удобно держать два ассистента: один для архитектуры/объяснений (чат-песочница), другой — для мелких автодополнений в IDE.

Надеюсь, статья вам понравилась - если если вам откликается моя подача, вы можете меня поддержать подпиской на мой канал в телеграм. Там я пишу более простым языком о том, в чем разбираюсь сама или только пытаюсь вникнуть. Еще я тестирую ИИ-сервисы и LLM, так что за несколько лет накопилось достаточно проверенных нейросетей, инструментов и лайфкаков по работе с ними .

Комментарии (1)


  1. KonstantinTokar
    25.10.2025 12:28

    Для каких задач подходит Phi-3 Mini ?