Вечером после напряжённого рабочего дня часто хочется расслабиться и посмотреть новый фильм или сериал. Но как выбрать что-то стоящее среди огромного количества контента? Поможет рекомендательная система. Наша команда разработчиков стремится не только предоставлять качественные рекомендации, но и делать это быстро. Если пользователь долго ждёт результата, он может потерять интерес и уйти. По сути, мы отвечаем за наполнение главной страницы Okko, поэтому наши решения должны быть надежны и устойчивы. API сервиса реализован на Flask, а горизонтальное масштабирование позволяет обрабатывать большой объём запросов.

Главная страница Okko
Главная страница Okko

Какая была проблема

Необходимо быстро предоставлять пользователям наполнение главной страницы. Конечно, на сервис есть таймаут, равный 400 мс. Для контроля работы сервиса мы используем мониторинг в Grafana, где построены графики задержки (latency) по 50, 90 и 99 перцентилям. На скриншоте видно, что у нашего сервиса есть проблема. Во-первых, мы находимся очень близко к значению таймаута: 99-й перцентиль составляет около 300 мс. При этом время ответа в 99-м перцентиле в 2 раза больше, чем в 90-м, и в 5 раз больше, чем в 50-м. Попробуем выяснить, на что тратится время, и пофиксить проблему.

Как искали причину

Первым помощником в исследовании стал Jaeger, который мы используем для визуализации трейсов сервиса от OpenTelemetry. Трейс — набор спанов, а спан — это запись о выполнении определенного действия одним сервисом.

Найдя трейс запроса с крайне большим временем ответа, обнаружили нетипичную картину — «дырку» между спанами. «Дыркой» мы называем отсутствие спана в трейсе на определённом периоде времени.

Отметим, что архитектура сервиса позволяет выдавать и строить рекомендации в пайплайне. В нашем понимании пайплайн — последовательность степов, каждый из которых производит определённое действие для изменения коллекции с фильмами (например, Фильмы для вас). В степе мы можем получить коллекцию, обогатить её, отфильтровать, отсортировать элементы в ней. 

Приблизительно так реализован запуск нашего пайплайна: работа каждого степа обёрнута в спан, то есть между степами нет кода с написанной нами логикой, а значит, «дырок» здесь мы точно не ждём.

def run_pipeline(
  title_ids: list[str], meta: BaseStepMeta
) -> RekkoCollection:
    ...

    for step in pipeline_steps:
      with tracer.start_as_current_span(step.name):
        collection = step.run()

Если схематично изобразить трейс с работой пайплайна, то в обычном случае друг за другом шли бы степы, временных простоев между ними не было бы:

Но наш трейс был с «дыркой»:

Что всё-таки происходит? У питониста всегда два главных виновника — GIL и сборка мусора. У нас синхронные эндпоинты на Flask, в приложении нет большого количества тредов. Неужели блокировка главного треда, где записывается спан, занимает столько времени из-за GIL и выполнения кода в другом треде? Мы посчитали это маловероятным, ведь в Python по умолчанию переключение между тредами занимает 5мс, а «дырка» у нас аж на 50 мс. Поэтому для начала решили проверить гипотезу о сборщике мусора.

В Python есть два инструмента, которые удаляют объекты, — алгоритм подсчёта ссылок и сборка мусора по поколениям.

Алгоритм подсчёта ссылок работает очень просто. Если ссылок на объект нет, то он тут же удаляется. К сожалению, это не работает для объектов с циклическими ссылками.

Функционал нахождения циклических ссылок реализован в сборщике мусора с использованием поколений. Сборка запускается, когда разница между количеством аллокаций и деаллокаций превышает пороговое значение для нулевого поколения (threshold0). Для запуска первого поколения (g1) и второго поколения (g2) также существуют счётчики: если количество запусков сборки мусора нулевого поколения (g0) равно пороговому значению первого поколения (threshold1), то запускается сборка мусора первого поколения (g1); если количество запусков сборки мусора g1 равно пороговому значению второго поколения (threshold2), то запускается g2. По умолчанию threshold0 = 700, threshold1 = 10, threshold2 = 10. Таким образом, частая активация сборки мусора может быть вызвана следующими причинами:

  1. Создание большого количества новых объектов контейнерного типа (dict, list, set, ...) → влияние на количество аллокаций.

  2. Большое количество циклических ссылок → влияние на количество деаллокаций. Так как объекты с циклическими ссылками удаляются только сборщиком мусора по поколениям, они не будут удалены до его запуска.

Подробнее можно ознакомиться с алгоритмом в официальной документации. Сейчас нам важно понять две вещи.

  1. Чем выше поколение, тем дольше оно живёт. Значит, в нём больше объектов, и сборка мусора для него занимает больше времени.

  2. Можно менять пороговые значения поколений. То есть мы можем влиять на частоту сборки мусора. Чем больше пороговое значение, тем реже она будет происходить.

Чтобы проверить, связана ли проблема с работой gc, мы решили начать с простого. Включили дебаг логи от gc, чтобы проследить за его работой. 

Конечно, работать с таким результатом крайне неудобно. Поэтому мы решили написать собственный функционал для логирования. Реализовали его через колбэки, которые срабатывали до и после сборки мусора. Запуск колбэка до или после сборки регулировался значением фазы (start или stop).

import gc
from time import time
from typing import Any
 
from app.utils.logging import getLogger
 
logger = getLogger(__name__)
 
TIME_PLACEHOLDER = None
 
  
def set_gc_start_time_before_collection(
  phase: str, info: dict[str, Any]
) -> None:
    global TIME_PLACEHOLDER
    if phase != 'start':
        return
      
  TIME_PLACEHOLDER = time()

  
def log_gc_working_info_after_collection(
  phase: str, info: dict[str, Any]
) -> None:
    global TIME_PLACEHOLDER
    if phase != 'stop':
        return

    logger.debug(f'time_taken: time={round(time() - TIME_PLACEHOLDER, 5)}, generation={info["generation"]}')
    logger.debug(f'objects_count: {gc.get_count()}')
    logger.debug(f'{[len(gc.get_objects(generation=gen)) for gen in range(3)]}')
    TIME_PLACEHOLDER = None

    
gc.callbacks.extend(
    [
      set_gc_start_time_before_collection,
      log_gc_working_info_after_collection
    ]
)

Мы включили написанное логирование и начали нагружать сервис локально с помощью locust.  Нам удалось воспроизвести кейс с «дыркой» локально. Оставалось выяснить, происходила ли сборка мусора по поколениям в это время.

Тогда мы распарсили логи от gc в pandas dataframe и посмотрели логи за период времени, когда была «дырка». Если бы dataframe был пустым, значит, в это время сборщик мусора не запускался. Но он не был пустым. Более того, суммарное время работы сборки составило 49 мс, а это и есть точное время нашей «дырки».

Так мы доказали, что виновник - сборщик мусора.

Как анализировали работу сборщика мусора

Решили копнуть глубже и выяснить, как у нас работает сборка мусора по поколениям.

Для начала посмотрели, сколько раз суммарно запускалась сборка мусора и сколько времени это заняло в рамках одного запроса в худшем случае. Мы выполнили серию запросов, собрали для каждого статистику работы сборщика мусора и в конце выбрали самый неблагоприятный результат (максимальное время сборки мусора). Рассматривали именно худший случай, потому что ранее видели, что в 50-м перцентиле всё было в порядке. Проблемы проявлялись именно в 99-м перцентиле, поэтому и было важно проанализировать крайний случай.

Получили следующие результаты:

Количество запусков в одном запросе

Суммарное время в одном запросе, мс

Нулевое поколение

400

5

Первое поколение

40

9

Второе поколение

4

5

Конечно, тратить суммарно 67 мс на сборку мусора в одном запросе — это крайне много, особенно учитывая, что таймаут составляет 400 мс. Нужно с этим что-то делать.

Мы заметили, что у нас часто происходит сборка мусора нулевого поколения, и в рамках одного запроса это может происходить до 400 раз. Частая сборка мусора нулевого поколения сама по себе не является проблемой, поскольку она выполняется довольно быстро. Однако она приводит к более частой сборке мусора первого и второго поколений, что уже вызывает большее беспокойство. Мы подумали, что если у нас нет циклических ссылок или их не очень много, то сможем запускать сборку мусора по поколениям реже.

Чтобы определить, есть ли у нас циклические ссылки, мы с помощью библиотеки objgraph построили граф зависимостей.

Для его построения нужно сначала посмотреть, какие объекты копятся в gc.garbage. Мы реализовали это через middleware. Middleware — это функция, которая запускается до или после обработки запроса. Таким образом, после каждого запроса мы локально отслеживали, какие объекты должны были быть удалены сборщиком мусора по поколениям. В результате мы обнаружили, что в garbage накопилось много объектов нашего класса StepSnapshot.

import gc
import objgraph
  
  
def research_circular_references(response: Response) -> Response: 
    gc.set_debug(gc.DEBUG_SAVEALL)
    gc.collect()
    garbage = gc.garbage
  
    objgraph.show_most_common_types(objects=garbage)
      
    return response

После определения типа проблемных объектов можно начинать для них строить граф зависимостей. Сделать это можно также через middleware.

import objgraph
  
  
def research_circular_references(response: Response) -> Response: 
    gc.set_debug(gc.DEBUG_SAVEALL)
    gc.collect()
    garbage = gc.garbage
  
    researching_type = StepSnapshot  # тут указываем тип, который хотим исследовать
    objs_with_req_type = [obj for obj in garbage if isinstance(obj, researching_type)]
    objgraph.show_backrefs(objs_with_req_type[-1], too_many=5, max_depth=10, filename='backrefs_of_garbage_obj.png')
      
    return response

Так мы получили следующий граф зависимостей, красным цветом выделен цикл. Но процент объектов с циклическими ссылками от общего числа объектов, которые собирает сборщик мусора по поколениям, оказался не очень большим — всего лишь 1.4%. Больше мы у себя циклических ссылок не нашли.

Итак, мы выяснили, что циклических ссылок у нас немного, и значит, проблема частого запуска сборки мусора не в этом. Ранее мы также установили, что другой причиной частого запуска сборки является большое количество объектов. Это действительно наш случай, ведь мы передаём сразу много коллекций для главной страницы. Каждая коллекция — это объект, каждый элемент внутри неё — тоже объект, и у элементов есть набор фичей, которые также являются объектами.

Как решали проблему

Как же решить эту проблему? Самый очевидный вариант — переписать код и создавать меньше объектов. Однако мы не можем этого сделать, потому что большое количество абстракций позволяет нам быстро добавлять новые фичи, что очень важно для продуктовой разработки. Поэтому мы решили попробовать найти другое решение.

Из реализации сборщика мусора по поколениям следует, что чем больше пороговые значения, тем реже запускается сборка. В теории это выглядело идеальным решением для нас, так как наши объекты все равно после завершения запроса прекратят быть нужными и соберутся сборщиком по счетчику ссылок. По сути, в нашем случае сборщик по поколениям запускается впустую. Чтобы проверить эту теорию мы решили написать простой скрипт, примерно моделирующий нашу ситуацию.

Пусть у нас есть небольшой dataclass Film с информацией о фильме, и нам нужно получить много фильмов из базы данных. То есть в этом случае нет циклических ссылок, здесь лишь создаётся большое количество объектов. Давайте запустим этот код и посмотрим на его время работы.

import gc
from dataclasses import dataclass
from time import time

  
@dataclass
class Film:
    film_id: int
    weight: float
    actors: list[str]


def get_films_from_db() -> list[Film]:
    films_count = 1_000_000

    films_list = [
        Film(
            film_id=idx,
            weight=0.0,
            actors=['Tom Hanks', 'Brad Pitt', 'Leonardo DiCaprio']
        ) for idx in range(films_count)
    ]
    return films_list

# раскомментировать для уменьшения частоты запуска сборщика мусора по поколениям
# gc.set_threshold(10_000, 50, 20)

start = time()
films = get_films_from_db()
finish = time()
 
print(f'Time: {round(finish - start, 3)} secs')

> Time: 1.304 secs

Если раскомментируем строку с увеличением пороговых значений:

> Time: 0.674 secs

Так с помощью изменения лишь настроек сборщика мусора по поколениям, нам удалось уменьшить время выполнения в 2 раза.

После удачного результата в тестовом примере, мы решили попробовать изменить пороговые значения в сервисе и посмотреть, как это повлияет на производительность сервиса. Поэтому мы начали нагружать сервис локально с различными значениями порогов.

В таблице приведены наши результаты. В первой строке зафиксировано время ответа по перцентилям на дефолтных пороговых значениях. Лучшие значения выделены жирным шрифтом. На самом деле прогонов было значительно больше, здесь я привела лишь самые важные серии экспериментов.

threshold0

threshold1

threshold2

50p, ms

90p, ms

99p, ms

700

10

10

65

137

300

100 000

5

10

72

110

234

10 000

20

10

57

79

183

10 000

5

10

64

99

213

10 000

20

20

61

107

213

10 000

20

10

67

107

213

Полученные результаты внушали оптимизм. И мы решили сравнить статистику на дефолтных значениях и новых.

Количество запусков в одном запросе на дефолтных значениях

Количество запусков в одном запросе на новых значениях

Нулевое поколение

400

5

Первое поколение

40

1

Второе поколение

4

1

Суммарное время в одном запросе на дефолтных значениях, мс

Суммарное время в одном запросе на новых значениях, мс

Нулевое поколение

5

8

Первое поколение

9

2

Второе поколение

53

13

Так нам удалось сократить общее время сборки мусора с 67 мс до 23 мс.

Как изменилось время ответа

Так как результаты выглядели многообещающе, мы решили выкатить изменения на прод. В 99-м перцентиле получили выигрыш в 2 раза на одной из наших самых главных ручек, из которой мы отдаём содержимое разных коллекций. Также мы видим, что и разница между 90-м и 99-м перцентилями значительно сократилась. Наконец-то нам удалось отдалиться от таймаута в  400мс.

Выводы

В конце хотелось бы сказать:

  1. Всегда тщательно продумывайте архитектуру своего сервиса, избегайте излишнего создания большого количества новых объектов.

  2. Если вы не можете позволить себе рефакторинг, не можете избавиться от большого количества объектов, попробуйте провести подобное исследование и изменить пороги gc. 

  3. Если вы не создаёте большое количество новых объектов или у вас нет большого количества циклических ссылок, не стоит изменять дефолтную конфигурацию.

Комментарии (32)


  1. Artyomcool
    30.10.2024 14:46

    Производительность и Python.

    Написал в одном предложении чтобы убедиться, что такое вообще возможно написать рядом, но выглядит всё равно очень странно.


    1. vvzvlad
      30.10.2024 14:46

      Так тут дело не в производительности же, она всех устраивала. Проблема в том, что некоторые запросы непредсказуемо были долгими. А на это можно легко нарваться в любом языке с GC.


      1. Artyomcool
        30.10.2024 14:46

        Термин производительность включает в себя не только throughput.

        Не во всех языках программирования с GC существуют непредсказуемые, неконтролируемые и нерегулируемые задержки в нормальном режиме работы.


        1. vvzvlad
          30.10.2024 14:46

          Я не понимаю. Автор выбрал стек, написали на этом стеке приложение, нашли медленный запрос, попрофилириловали, нашли где проблема, починили, написали статью. Всех все устраивает, включая разработчиков и бизнес — чуть большая сложность в отладке компенсируется распространенностью и простотой языка.

          И только @Artyomcoolв комментариях издевается над словами "питон и производительность".


          1. Artyomcool
            30.10.2024 14:46

            Кажется не только меня смущает выбор языка, априорно известного своей неторопливостью. Но, разумеется, каждый может иметь и высказывать своё мнение, как и я.

            И лично мне бывает крайне, скажем так, обидно видеть, как бизнес и разработчики закапывают деньги, усилия и талант, используя неподходящие инструменты. Ещё обиднее, когда приходится это разгребать, особенно после многих лет разработки, когда вроде бы уже и не перепишешь, а вроде бы уже ничего другого и не остаётся.


            1. vvzvlad
              30.10.2024 14:46

              И лично мне бывает крайне, скажем так, обидно видеть, как бизнес и разработчики закапывают деньги, усилия и талант, используя неподходящие инструменты.

              Техкоманда проекта с 8 млрд выручки: выбирает инструменты, которые их устраивают.

              Анон с хабра: у вас инструменты неподходящие, потому что считается что питон медленный!

              Ещё обиднее, когда приходится это разгребать, особенно после многих лет разработки, когда вроде бы уже и не перепишешь, а вроде бы уже ничего другого и не остаётся.

              А, на других языках нельзя получить техдолг? Спасибо, буду знать, что этим только питон страдает.


              1. Artyomcool
                30.10.2024 14:46

                Техкоманда проекта с 8 млрд выручки: выбирает инструменты, которые их устраивают.

                Какие-то очень странные аргументы пошли. Достаточно долго работал в компаниях с большей, в т.ч. на порядок, годовой выручкой. В одной из них кстати тоже на питоне было всякое написано. Плакали, кололись, в итоге плюнули и переписали, закопав на вот это туда-сюда пару десятков человеколет.

                А, на других языках нельзя получить техдолг?

                Техдолг при необходимости принципиально устраним. Изначально неверно выбранный инструмент - принципиально нет, за исключением полного переписывания.


  1. Flux
    30.10.2024 14:46

    Когда выбираешь для POC язык с самым медленным рантаймом и самым быстрым темпом разработки, а потом забываешь переписать на что-то более подходящее для хайлоада и быстрая разработка превращается в поиски способов ублажения интерпретатора.


    1. tazubakhina Автор
      30.10.2024 14:46

      Одной из проблем Python является GIL, что приводит к ограниченной производительности в многопоточных приложениях. Однако у этого языка, действительно, есть и значительное преимущество — высокая скорость разработки, что важно для продуктовых компаний, нуждающихся в быстрой реализации новой функциональности. Также из плюсов можно отметить: большое количество разработчиков, наличие популярных библиотек для DS, - всё это для нас тоже являлись важными факторами. Вдобавок ко всему была хорошая экспертиза в Python. Поэтому решили выбрать Python не для POC, а для целевой реализации сервиса. По мере развития проекта ML часть вынесли в отдельные сервисы. CPU задач у нас осталось немного (порядка 10мс из 150мс), компилируемый язык тут не поможет.

      Так как у нас появилось больше io задач, мы думаем о переходе на FastAPI с асинхронными эндпоинтами, почему и как мы это сделали мы расскажем в другой нашей статье.

      Выбор языка программирования — всегда интересная тема, которая неизбежно порождает споры и обсуждения. Учитывая, что мы соответствуем нашим внутренним SLO и многие преимущества Python важны для нас, мы решили остаться на нём. Любой язык в сложных ситуациях требует "донастройки".


  1. Shraikru
    30.10.2024 14:46

    В выводах не вижу пункта 0.

    1. Выбирайте, подходящий под задачу, язык программирования.


    1. ivvi
      30.10.2024 14:46

      Судя по тому, что латенси ручки вполне укладывается в SLO, язык подходит под задачу.

      Если что, я не коллега и не адвокат автора :)


  1. Goodzonchik
    30.10.2024 14:46

    Интересная статья, но есть один момент, который хочется узнать. Изменение этих настроек сказалось ли на других параметрах: потребление памяти, потребление GPU и т.д? Хочется понять реальную стоимость решения, а не только время потраченное разработчиками.

    P.S. Разработчикам уважение, проделана классная и интересная работа


    1. morijndael
      30.10.2024 14:46

      Если объектов с циклическими ссылками немного, то по сути GC просто вхолостую пробегался по тем объектам, которые позднее бы удалились по счетчику ссылок. Так что негативных последствий быть не должно


      1. tazubakhina Автор
        30.10.2024 14:46

        Да, поскольку у нас было мало циклических ссылок, частый запуск сборки мусора по поколениям не был необходим. После внесенных изменений частота сборки не оказала влияния на использование RAM.


  1. kolya7k
    30.10.2024 14:46

    Я бы в рекомендации еще добавил - не используйте Python :)


  1. slonopotamus
    30.10.2024 14:46

    Сборка мусора НА КАЖДЫЙ ЗАПРОС??? А сколько миллионов объектов вы аллоцируете?


    1. tazubakhina Автор
      30.10.2024 14:46

      У нас, действительно, есть особенность, связанная с необходимостью создавать большое количество объектов, что обусловлено нашей бизнес-логикой. В одном запросе у нас запрашивают первоначальное наполнение всей главной Окко, то есть мы создаём большое количество коллекций из многих объектов для фильмов / сериалов, у каждого из которых есть свои фичи для постпроцессинга. В компилируемых языках тоже есть механизм сборки мусора, поэтому мы, вероятно, в них также столкнулись бы с этой проблемой.


      Также сборка мусора по поколениям по умолчанию запускается, когда разница аллокаций и деаллокаций достигает 700. Но так как счётчик сборки мусора не зависит от запроса, то выбросы в виде сбора старших поколений могут приходиться на конкретный запрос, что и оказывало влияние на 99-й персентиль.Большое количество новых объектов влияет на частый сбор мусор 0-го поколения, что провоцирует долгий сбор в старших поколениях


      1. Kealon
        30.10.2024 14:46

        Обычно раньше пул использовали, раз - и нет мусора


      1. vlad4kr7
        30.10.2024 14:46

        В компилируемых языках тоже есть механизм сборки мусора, поэтому мы, вероятно, в них также столкнулись бы с этой проблемой.

        Не во всех.

        Просто не используйте такие языки и не столкнетесь с проблемой сборки мусора.


  1. ivvi
    30.10.2024 14:46

    Интересно и познавательно, спасибо.

    Скажите, пожалуйста, как (и кем) был определён таймаут на ответ сервиса? Задали со стороны бизнеса?


    1. tazubakhina Автор
      30.10.2024 14:46

      Да, у нас есть внешние требования, поскольку наш API не является окончательным бэкенд-сервисом для выдачи главной страницы Okko, клиент нашего сервиса - другой внутренний сервис окко, который уже финально собирает главную страницу. Загрузка главной страницы должна происходить в оптимальное время, чтобы обеспечить комфортные условия для пользования онлайн-кинотеатром


  1. ARedkov
    30.10.2024 14:46

    Извините за офтоп, но сразу вспоминаю: "Чисто не там, где убираются, а там где не мусорят"

    Я бы остановился на первом выводе, т.к. обработку большого количества объектов лучше отдать заточенным для этого средствам (например - БД)


    1. tazubakhina Автор
      30.10.2024 14:46

      К сожалению, не всё так просто. У нас есть несколько обращений к сторонним API: модели машинного обучения и горячему хранилищу с данными о взаимодействиях пользователей. Кроме того, реализовать и поддерживать всю бизнес-логику в базе данных зачастую довольно сложно.


  1. Antonto
    30.10.2024 14:46

    А weakref в вашем случае не помогли бы?


    1. tazubakhina Автор
      30.10.2024 14:46

      Наша проблема заключалась в том, что из-за большого количества аллокаций сборщик мусора по поколениям срабатывал слишком часто, хотя алгоритм удаления по счетчику ссылок мог бы справиться в большинстве случаях, поскольку циклических ссылок у нас мало, как было упомянуто в статье. Поскольку создание объекта со слабой ссылкой влияет на количество аллокаций, это не решило бы нашу проблему.

      import gc
      import weakref
      
      
      class MyTestClass:
          ...
      
      
      print(f'Счётчик 0-го поколения = {gc.get_count()[0]}')
      obj = MyTestClass()
      print(f'Счётчик 0-го поколения = {gc.get_count()[0]}')
      r = weakref.ref(obj)
      print(f'Счётчик 0-го поколения = {gc.get_count()[0]}')

      Счётчик 0-го поколения = 98
      Счётчик 0-го поколения = 99
      Счётчик 0-го поколения = 100


  1. tadaima
    30.10.2024 14:46

    Нормально так одну строку добавить - предварительно перелопатить кучу логов, написать свой анализатор этих логов, воспроизвести работу GC, выдвинуть и проверить гипотезы...


    1. tazubakhina Автор
      30.10.2024 14:46

      Решение проблемы, действительно, состоит всего лишь из одной строки. Однако, чтобы найти причину, нам понадобился большой анализ. Теперь, когда мы узнали этот нюанс в Python, в будущем исправление подобных случаев займет гораздо меньше времени.


  1. Borjomy
    30.10.2024 14:46

    Было бы неплохо убрать это большое количество англицизмов. Стэп это шаг. и т.д. Читать это в контексте самой задачи неудобно


  1. gmini
    30.10.2024 14:46

    пайплайн — последовательность степов

    ну тогда уж сиквенс степов


    1. valeravv
      30.10.2024 14:46

      Тихо, тихо! Уже никто никуда не идет ))) На самом деле если бы в статье было бы написано сиквенс, то не обнаружилась бы дырка, можно было обнаружить только hole, не факт что из нее можно было бы вынырнуть, потому-что это не hole, а gap какой-то. А вот если дырку обозвать разрывом, то сразу понятно, что garbage collector постарался.


      1. pirt
        30.10.2024 14:46

        У кого-то (минусатора) с юмором беда


  1. upcFrost
    30.10.2024 14:46

    Спасибо, познавательно. Тоже замечал такие дырки в трейсе, но пока грешу на pydantic на жирных моделях из монги (при намеренном пропуске некоторых полей которые гарантированно не будут использоваться в конкретном запросе картина прям в разы лучше). Но гц тоже стоит проверить