
Serverless-архитектура всё увереннее набирает обороты — и неудивительно. Речь о том, что можно просто бросить код в облако, а масштабирование, обновления и даже «железо» доверить провайдеру. Вы спросите: «Никаких бессонных ночей из-за аптайма, никакого счёта за простаивающие мощности?» — платишь только за то, что реально отработало.
Всё радужно и светло, пока не задумаешься о платформах вроде AWS Lambda или Azure Functions. Они действительно решают проблемы, но логичный вопрос — можно ли полагаться на них на все 100%? А что, если резко вырастет трафик? Выдержит ли система, или проект «ляжет» в самый неудобный момент? Попробуем найти ответы и разобрать влияние serverless-архитектуры, её плюсы, недостатки и ключевые технологии. Все под кат!
Торопитесь? Просто кликните по нужному разделу:
→ Что такое serverless-архитектура
→ Как serverless меняет подход к построению инфраструктуры
→ Преимущества serverless: бизнес-выгоды и новые возможности
→ Вызовы и ограничения serverless
→ Что стоит учесть при переходе?
→ Serverless в кейсах
→ Заключение
Что такое serverless-архитектура
Serverless-архитектура (бессерверные вычисления) — модель облачных вычислений, где разработчики не управляют серверами напрямую. В её рамках инфраструктуру предоставляют облачные провайдеры, которые автоматически управляют выделением ресурсов и масштабированием приложений. Подход позволяет разработчикам сосредоточиться на написании кода и реализации бизнес-логики, не беспокоясь о серверной инфраструктуре.
Serverless часто называют гибридом микросервисов и облачной инфраструктуры, но это не совсем так. Скорее, это эволюция микросервисного подхода. Если микросервисы требуют самостоятельного управления кластерами и балансировкой (например, через Kubernetes), то в serverless всё это скрыто за абстракцией облака. Ваши функции — это те же микросервисы, но упакованные в формат, который провайдер умеет автоматически масштабировать и запускать по запросу. Например, функция для обработки платежа может быть вызвана тысячу раз в час без вашего участия, а в периоды простоя — вообще не расходовать ресурсы.

FaaS: Функции как услуга — ваш код в облаке без хлопот
Представьте, что можете написать кусочек кода — например, для отправки email или обработки данных — и просто бросить его в облако. Система сама запустит его тогда, когда это понадобится: когда пользователь нажмёт кнопку на сайте, когда в базу добавят новую запись или когда придёт сообщение в чат. Это и есть FaaS (Функции как услуга) — основа serverless-архитектуры.
Как это работает
Вы создаёте функцию — небольшой скрипт, который решает одну задачу. Например, функция «Оформить заказ» берёт данные из формы на сайте, сохраняет их в базе и отправляет клиенту письмо с подтверждением. Эту функцию вы «привязываете» к событию — например, к клику на кнопку «Купить». Как только событие происходит, облачный провайдер моментально запускает ваш код, выделяет ему ресурсы и выключает, когда задача выполнена. Платите только за миллисекунды работы функции — никаких серверов, никаких переплат за простой.
Хочется больше контроля и самостоятельного выбора технологий? Можно собрать свою среду с архитектурой, напоминающей serverless, при этом размещённую на собственном VPS. Виртуальные серверы отлично подходят для развёртывания решений на базе OpenFaaS, Apache OpenWhisk или других FaaS-фреймворков. Подход позволяет настроить систему под себя, адаптировать под бизнес и сохранить экономичность serverless-модели при оплате за ресурсы.
Почему это удобно?
- Экономия времени и денег. Без аренды «на всякий случай» и настройки инфраструктуры. Если ваш интернет-магазин получит 10 000 заказов за минуту, облако запустит 10 000 копий функции — и справится с нагрузкой.
- Масштаб без усилий. Функции живут в контейнерах, которые исчезают после выполнения задачи. Это как одноразовые рабочие: они приходят, делают дело и уходят, не оставляя следов.
- Фокус на логике, а не на железе. Пишете только «что делать», а провайдер решает, «как это сделать».
А что с большими данными?
Функции, что обрабатывают файлы — будь то картинки, видео или документы, — просто живут в облаке. Забрали нужный объект из S3, сделали свою работу и вернули результат обратно. Зачем вообще думать про сервера, диски и бэкапы, если это всё подхватывает облачный провайдер?
Но не всё так гладко. Помните про «холодный старт» — когда функция после простоя думает пару секунд перед первым вызовом. Для real-time задач это может быть фатально. Обычно прогревают функции заранее или запускают на AWS Graviton2, чтобы эта пауза была незаметной.
А ещё отладка превращается в маленький квест: логи разлетаются по паре десятков сервисов, и баг, который проявляется только в облаке, приходится искать по крупицам. Инструменты вроде AWS SAM CLI и X-Ray помогают, но без пары «танцев с бубном» тут не обойтись…
Как serverless меняет подход к построению инфраструктуры
Переход на бессерверную модель заставляет пересмотреть всё: от архитектуры до оперативных процессов. Упростить процессы, открыть новые возможности для бизнеса и команд разработки.

Преимущества serverless: бизнес-выгоды и новые возможности
Компании, получают сразу несколько преимуществ. По оценкам отраслевых исследований Forrester, такие фичи позволяют сократить время вывода продуктов на рынок на 23%. Внутри команд это проявляется так: разработчик пушит изменения в репозиторий — и буквально через пару минут всё уже готово к тестированию, а затем к продакшену. Нет больше рутинных правок серверных конфигураций и бесконечной возни с инстансами.
Финансово тоже приятно: платишь только за то, что реально использовал, компании снижают операционные расходы на 30%. Snapchat, например, урезал инфраструктурные расходы на 40%, просто выкинув постоянные серверы и перейдя на модель «вызвал — заплатил».
Адаптация к нагрузке? Пушка. Когда юзеры прут — ресурсы масштабируются автоматически, когда затишье — сворачиваются. AWS пишет, что производительность в таких случаях вырастает на 35–50%. И да, больше никакого перегрева на пиках.
Развёртывание стало проще. CI/CD-конвейеры + декларативные шаблоны = «накатить» стало почти как открыть pull request. Цикл «код → тест → прод» ускорился в разы. Это особенно кайф для стартапов, где каждый день может решить судьбу фичи.
▍ Прогнозы и исследования
Исследования говорят о том, что больше 70% компаний, которые начали использовать serverless, заметили, что время разработки стало меньше, а качество приложений — лучше. Это действительно бросается в глаза, и теперь serverless становится основным выбором для компаний, которые хотят расти и развиваться.

Цифры тоже говорят сами за себя. Рынок serverless растёт быстро — с $11,77 млрд в 2023 году до $33,36 млрд в 2028 году. Это примерно 23% роста каждый год. Такие темпы — одни из самых высоких в IT.
Вызовы и ограничения serverless
Но, как и у любой технологии, у serverless есть свои проблемы, с которыми нужно считаться. Некоторые из них могут повлиять на эффективность работы и безопасность.
▍ Проблемы с безопасностью и контроль над инфраструктурой
Один из главных рисков — это неправильный контроль доступа. Если функция получает больше прав, чем ей нужно, злоумышленник может воспользоваться этим и проникнуть в систему. Например, если функция, которая должна только читать данные, вдруг получает доступ для записи. Чтобы этого избежать, нужно давать минимум прав: функция делает только то, что ей положено, и всё.

С ростом числа функций сложнее отслеживать ключи шифрования и правильность настроек. Это может привести к тому, что забытые пароли или неправильные права доступа окажутся в руках не тех людей.
В классической архитектуре вы управляете серверами сами, а в serverless — этим занимается провайдер. Если он ошибается в настройках, проблемы могут быть большими.
Помимо прочего, эффективное логирование и мониторинг сложны из-за распределённой природы приложений. Когда каждая функция живёт своей жизнью, собрать единый «портрет» системы без централизованного логирования почти невозможно.
▍ Рекомендации
Централизованное логирование. Используйте инструменты для агрегирования логов в одном месте, например, ELK Stack (Elasticsearch, Logstash, Kibana), Splunk. Упростит анализ и управление данными.
Автоматические оповещения. Установите пороги для ключевых метрик — время выполнения функций, число ошибок или задержки — платформа пришлёт сигнал, как только что-то пойдёт не так. Так вы сможете мгновенно отреагировать на аномалию или просадку производительности, не дожидаясь, пока проблема разрастётся в серьёзный инцидент.
▍ Пределы масштабируемости и производительности
Хотя serverless-архитектура предлагает высокую степень масштабируемости, она не является универсальным решением. У разных облачных провайдеров существуют ограничения по времени выполнения функций, объёму памяти и другим ресурсам, «потолки» которые не перепрыгнуть. Рассмотрим основные лимиты.
Холодные старты. Как уже говорили в начале, функция долго не используется, из-под неё освобождаются выделенные ресурсы. При следующем запросе функция заново инициализируется, что приводит к задержке. Критично для задач с большими зависимостями или требующими детальной настройки.
Ограничения по времени выполнения. Например, AWS Lambda ограничивает работу функции 15 минутами. Этого может быть недостаточно для сложных вычислительных задач или обработки больших объёмов данных (вендор-локирование).
Зависимость от провайдера. API и инструменты разных облачных платформ могут отличаться, что усложняет миграцию serverless-приложений.
Что стоит учесть при переходе?
Рекомендации помогут вам успешно перейти на serverless-архитектуру и использовать её преимущества максимально эффективно.
Оцените влияние холодных стартов на производительность вашего приложения. Пример: оптимизируйте время холодного старта, используя легковесные языки программирования. Для этих целей подойдут Go или Node.js. Поддерживайте активные экземпляры функций.
Убедитесь, что выбранный вами облачный провайдер поддерживает необходимые языки программирования и функции. Например, проверьте поддержку библиотек и фреймворков для Python на AWS Lambda или Azure Functions, а также наличие инструментов для мониторинга.
Обратите внимание на лучшие практики безопасности при проектировании serverless-приложений.
Позаботьтесь о том, чтобы приложение росло вместе с нагрузкой: когда трафик прыгает, «домножьте» сервисы — запускайте дополнительные инстансы и направляйте запросы через балансировщик.
Не ждите, а сразу вооружитесь нагрузочным тестированием: прогоняйте симуляции пиков, следите за метриками в реальном времени и реагируйте на первые сигналы «застревающих» запросов и падения throughput. Так вы не только поймаете узкие места, но и убедитесь, что в случае реального наплыва пользователей ваша система выдержит любую ситуацию.
Serverless в кейсах
Это не тренд, а инструмент лидеров рынка — Netflix и Coca-Cola уже перестроили процессы, сократив затраты на инфраструктуру на 30-40% и ускорив запуск продуктов в 2 раза. Переходим к кейсам.
▍ Netflix
Использование
Netflix использует Amazon Web Services (AWS) для вычислений, хранения данных и баз данных, аналитики и транскодирования видео. Более 100 000 серверных инстансов на AWS поддерживают работу Netflix, что позволяет компании эффективно обрабатывать миллионы запросов пользователей по всему миру.
Влияние на бизнес
Serverless обеспечивает стабильную производительность даже в пиковые часы. По данным iFellow, Netflix избегает избыточных затрат на поддержание пропускной способности в периоды низкой активности.
Ещё одна сфера, где Netflix накопила большой опыт — машинное обучение.
▍ Coca-Cola
Использование
Coca-Cola внедрила умные торговые автоматы Freestyle, которые позволяют клиентам создавать собственные напитки. Они используют serverless-архитектуру для обработки транзакций.

Влияние на бизнес
Coca-Cola держала шесть серверов EC2 T2.Medium чтобы управлять вендинговыми машинами. Это обходилось в $12,864 в год. После миграции годовые расходы снизились до $4,490, что составило экономию около 65%. При этом нагрузка выросла с 30 до 80 миллионов запросов в месяц, без последствий.
▍ Airbnb
Использование
Airbnb разработала StreamAlert — serverless -фреймворк для анализа данных в реальном времени. Он справляется с терабайтами логов ежедневно, не требуя серверов или кластеров. При срабатывании любого правила он сразу же отправляет уведомление или триггерит дальнейшие обработчики.
Влияние на бизнес
StreamAlert позволяет оперативно реагировать на изменения в данных и улучшать пользовательский опыт.
▍ Uber
Использование
Разработал Catalyst, для упрощения взаимодействия между разработчиками и инфраструктурой.
И внедрил serverless для обработки данных о поездках и управления сервисами.
Влияние на бизнес
Снизились операционные расходы за счёт уменьшения необходимости в постоянной поддержке серверной инфраструктуры. Система стала плавно обрабатывает миллионы событий в секунду в часы пик, автоматически расширяя или сворачивая ресурсы по требованию.
▍ Major League Baseball (MLB)
Использование
Statcast — система, которая во время каждого матча собирает и обрабатывает до семи терабайт информации о скоростях подач, траекториях полёта мяча и перемещениях игроков. Использует радары и камеры в реальном времени.
Влияние на бизнес
Бесперебойная работа во время плей-офф, без дополнительного управления серверами. Снизились затраты на инфраструктуру по сравнению с кластерами. Скорость обработки и анализа данных теперь измеряется миллисекундами, что даёт конкурентное преимущество аналитическим отделам клубов и ускоряет внедрение функций на сайте MLB.com и в приложениях.
▍ Статистика и полезные данные
Почти каждый второй инженер уже ощутил выгоду от serverless: 43 % говорят, что в разы сократили время на поддержку инфраструктуры, а 49 % вообще отметили, что управление серверами отошло на второй план. Одновременно рынок serverless-решений стремительно растёт: от 12,7 млрд $ в 2023-м до ожидаемых 58,2 млрд к 2032 году.
Это не просто красивые цифры: компании фактически освобождают ресурсы и переводят фокус на разработку и фичи, а не на «железо» и вечный мониторинг. Но сразу скажу: без продуманного плана и учёта рисков легко наткнуться на неожиданности.
Заключение
Serverless-архитектура перестала быть экспериментом — это мейнстрим, который в 2025 году затронет около 95 % новых цифровых сервисов.
Переход на serverless даёт компаниям сразу несколько выигрышных «комбо»: платить только за фактическое использование, ускорять выход обновлений на рынок, быстро реагировать на запросы пользователей и при этом сохранять гибкость и масштабируемость.
Но важно помнить, что всё это работает только тогда, когда внутри команды меняется подход к разработке: не «как мы настроили сервера», а «какую ценность мы приносим людям». Именно такие компании — которые грамотно вписывают serverless в свои процессы, меняют культуру DevOps и ставят приоритет на автоматизацию — получают конкурентное преимущество.
Делитесь мнением в комментариях!
© 2025 ООО «МТ ФИНАНС»
Telegram-канал со скидками, розыгрышами призов и новостями IT ?

Комментарии (17)
stan1901
11.05.2025 13:49Посмотрел на кейс Кока-Колы и прослезился. В масштабах столь крупной компании снижение стоимость произошло с "ноль" до "ноль невзъеженный" - вряд ли там кто-то всерьёз воспринимает такие числа. Подозреваю, что стоимость миграции превысила экономию на порядки - попробуйте в крупной компании открыть проект, выбить бюджет, найти подрядчика, подписать договоры разработки и сопровождения...
Вспомнилась молодость, как мы продавали крупному забугорному клиенту "модное облачное решение", которое в итоге обошлось ему на порядки дороже одного выделенного сервера с простеньким Java-приложением. Но все довольны, бюджет освоен, пресс-релиз сделан, все молодцы. А то, что система постоянно падает из-за специфики сетевых настроек, принципиально ограничиваемых облачной интеграционной платформой - ну так про то большим боссам можно просто не говорить.
About_it Автор
11.05.2025 13:49Да, в случае с гигантом, как кола, абсолютные цифры в долларах выглядят конечно ничтожно маленькими, особенно в публичных отчётах. Но тут я хотел показать не столько размер экономии, сколько сам вектор — миграция с legacy-архитектуры на serverless в принципе. Это даёт гибкость, быстрее выпускать новые фичи, меньше времени тратить на поддержку. Особенно в системах с высокой и непредсказуемой нагрузкой, как у Coca-Cola с их полумиллионом заказов в день, может они что то потом и придумали, как оптимизировать :)
Что касается вашего примера — классический кейс "облака ради галочки", к сожалению (ну или для кого то к счастью), такое действительно часто случается. Но всё же хочется верить, что культура использования облака эволюционирует. Хотя, конечно, без «освоения бюджета» и маркетинговых побед в духе «мы теперь в serverless» пока никуда..
linux-over
11.05.2025 13:49много лет гляжу на serverless но не вижу иного способа автоматически тестировать (в CI/CD), а так же локально тестировать разработчику кроме как создавать в облаке полную копию прода и запускать на нём удалённые тесты.
и в этом месте, КАЖЕТСЯ, вот эта картинка играет настолько яркими красками, что я так и не решился ни разу попробовать:
brmn
11.05.2025 13:49На самом деле для локальной разработки и CI/CD давно есть хороший вариант — LocalStack. Это эмулятор AWS-сервисов, который позволяет поднять у себя на машине (или в CI) окружение с S3, Lambda, DynamoDB, API Gateway и многими другими сервисами. Конечно, он не покрывает всё, и бывают несовпадения с реалом, но для большинства задач — особенно на ранних этапах — этого вполне хватает.
Мы, например, тестируем event-driven архитектуру с Lambda + SNS + SQS и даже Amazon MSK полностью локально — и это реально экономит и деньги, и время. Потом уже прогоняем интеграционные тесты на staging в облаке.
Так что полную копию прода в облаке можно оставить только для финальной валидации, а не для всего процесса разработки.
linux-over
11.05.2025 13:49вот, для этой полной копии нужно написать docker-compose
далее отлаживаем например функцию x, надо сделать так, чтобы она вызывалась не из lambda в compose, а из пользовательского окружения
то есть lambda в compose вызывает 53 функции, надо сделать 52, а 53ю чтоб звало на компе у пользователяпри этом надо как-то их состыковать эти lambda в compose с компом у пользователя
и это мы пока говорили о ручном тестировании, а если автоматические тесты с тем, что 1/53 на компе у пользователя?
В общем в этом месте тестирование настолько мутное, что говорить что лямбды тут выигрывают - надо это показывать и доказывать...
Я допускаю, что выигрывают, но вот статей о том КАК это делать - я не видел.brmn
11.05.2025 13:49Tooling за последние годы подтянулся. Помимо LocalStack, можно посмотреть в сторону serverless-offline (если ты сидишь на serverless framework) — он как раз хорошо себя показывает при локальной отладке API Gateway + Lambda.
А для комплексных сценариев — когда надо гибко комбинировать локальные и контейнерные вызовы — есть подход с test doubles и симуляцией вызовов. Например, замещать часть AWS SDK или использовать AWS Step Functions Local, если дело в оркестрации.
Ну и, если хочется прям мяса, у Yan Cui есть пара отличных материалов про тестирование serverless-приложений — и как устроить интеграционные тесты, и как изолировать зависимости. Он прям по шагам показывает, как выстраивать пайплайн без полной копии прода на каждом этапе.
Соглашусь: это не “в два клика” и не “из коробки как у Django”. Но если подойти с умом и правильными тулзами — можно жить вполне комфортно.
brmn
11.05.2025 13:49Спасибо за статью, хороший обзор базовых преимуществ serverless-подхода. Но всё же есть несколько критически важных аспектов, которые, на мой взгляд, стоило бы раскрыть — особенно для тех, кто собирается всерьёз внедрять такую архитектуру.
Во-первых, в статье вскользь упоминаются сложности, но не затрагивается главная боль — отладка и мониторинг. При использовании AWS Lambda или аналогов в production-е быстро выясняется, что привычные инструменты вроде логов или APM тут не работают как обычно. Трейсинг распределённых вызовов, корреляция логов между сервисами, реакция на инциденты — всё это требует внедрения дополнительных инструментов вроде AWS X-Ray, Datadog, или OpenTelemetry. Без них можно просто «ослепнуть» в момент, когда что-то пошло не так.
Во-вторых, cold start — это не просто “иногда чуть подтормаживает”, это иногда секунды лишнего ожидания пользователем. Особенно если функция «просыпается» по первому клику пользователя. Да, можно использовать provisioned concurrency, но тогда теряется часть смысла serverless — оплата за реально использованные ресурсы.
Ещё одна тема, которая требует осторожности — IAM и безопасность. В serverless-модели каждая функция может (и должна) иметь отдельные права доступа, но на практике этим часто пренебрегают, выдавая функции доступ “на всякий случай”. А это уже потенциальная дыра, особенно если функция как-то экспонирована наружу (например, через API Gateway).
И наконец, тайм-ауты. Многие забывают, что у большинства serverless-функций есть ограничение на максимальное время работы (в той же Lambda это 15 минут). Если задача сложная и требует больше — придётся переосмысливать архитектуру, дробить задачи, передавать контекст между функциями или переходить на Step Functions. Это не всегда очевидно в начале.
В целом, serverless — отличный подход, особенно когда нужно быстро что-то запустить и масштабировать, не держа парк серверов. Но продакшн — это не Hello World. Он требует гораздо больше дисциплины, инструментов и архитектурных компромиссов. Об этих вещах стоит помнить и писать, особенно когда статья адресована инженерам и компаниям, стоящим на пороге перехода.
hMartin
11.05.2025 13:49Наврное, если напилить свою серверлесс инфру на своем железе, то это может быть достаточно удобно. Работаешь не с деплоями, а в рамках функций. Базы/редисы/вотэва доступны через апи без деталей реализации, думаю можно здорово бустить разработку.
Но нужна пачка инженеров это поддерживать, но думаю все-равно будет дешевле, чем платить по прайсу облачных провайдеров для крупняка
vlad4kr7
11.05.2025 13:49serverless клаудом не ограничивается.
переход на функции - это сразу вендор лок.
клауд будет в 10 раз дороже: https://tech.ahrefs.com/how-ahrefs-saved-us-400m-in-3-years-by-not-going-to-the-cloud-8939dd930af8
outlingo
11.05.2025 13:49Если посчитать - то 1 функция на 1 гигабайт памяти работающая 24x7 (1 RPS круглосуточно, время выполнения - 1 секунда) будет стоит $40. После этого рассказы об экономической эффективности функций внезапно начинают играть новыми красками - если облачный провадйер рассказывает вам про экономическую эффективность функций, он имеет ввиду эффективность для него, а не для вас.
MrAlone
11.05.2025 13:49Не совсем понимаю как получилось у Кока-колы столько платить за 6 инстансов. У меня получается цифра в 2500, ну плюс диски конечно будут. Но не думаю, что это будет 10К. Смена Т2.медиум на Т3а.медиум принесла бы 25% экономии. Плюс если брать контракт на 3 года, тоже сильная экономия была бы.
Тут ещё важен момент - а сколько они потратили на то, чтоб переписать и перенести код на серверлесс? Бесплатно? Возможно с их затратами на разработку они могли лет 10 оставаться на ЕС2.
vladz
Как бороться с атаками на функции можно было бы осветить более подробно
About_it Автор
Спасибо, что обратили внимание на защиту функций. В дополнение к сказанному, из интересных практик, которые попадались, для минимизации привилегий использовали IAM Access Analyzer в связке с CloudTrail: то естть, на основе реальных вызовов формируются максимально узкие политики, и это снижает поверхность атаки. Да, подход не новый, но рабочий.
Для валидации данных часто отталкиваются от OWASP Serverless Top 10 — проверка полей по whitelist, плюс экранирование всего, что может привести к инъекциям, до передачи в базу или внешние API.
От DDoS и перебора помогает rate-limiting в API Gateway, иногда подключают AWS WAF с rate-based правилами — тоже довольно эффективная связка.
Ну и про наблюдаемость, как бы ни хотелось «делегировать всё провайдеру», без нормального мониторинга врядли что то получится. Lambda Insights и Anomaly Detection в CloudWatch здесь выручают — не пропустят аномалии и дадут реакцию.
vladz
Думаю, что заоблачные счета после Denial of Wallet (DoW) останавливают посильнее, чем затруднения с отладкой и внедрением функций
brmn
Denial of Wallet – это не баг, это фича для тех, кто лепит serverless как попало. Тут не AWS виноват, что у тебя Lambda по таймеру крутится каждые 5 секунд и лупит по DynamoDB без всякого смысла.
Большинство таких "заоблачных счетов" – результат архитектурной импотенции и «нагуглил, как сделать». А при нормальном подходе serverless летает, как реактивный дрон, и стоит копейки.
Мы гоняем аналитику футбольных матчей – десятки тысяч событий, миллионы трекинг данных, real-time алерты, snapshot'ы – и это обходится дешевле кофе из автомата. Не шучу. Мы не "крутим" сервисы 24х7, а "поднимаем" их только на время матча – причем, теми же Lambda-ми ;)
Просто надо не “функции писать”, а архитектуру думать.
vladz
Даже не знаю, кому адресовалось про DynamoDB. Вообще, кратковременные задачи это такая редкость. Но спасибо, что поделилсь своим опытом.
У меня функции крутятся внутри периметра и наружу ничего не торчит - я доволен.
brmn
DynamoDB просто как пример упомянул – не агитирую :) У нас чаще в бою крутится связка Lambda + MSK + EventBridge Pipes + ещё кучка специй по вкусу включая DDB – всё это обрабьатывает матчевые события в реальном времени, считает алерты, метрики и прочую аналитику на лету.
По поводу "кратковременные задачи – редкость"... Ну, возможно, у вас архитектурный дзен и всё стабильно как в банке. У нас же 90 минут футбола, 50Hz трекинг, тысячи событий, всё летит и обрабатывается в real-time. Lambda тут вообще как швейцарский нож.
Но если задачи реально тяжёлые и по времени/ресурсам не влазят в рамки Lambda – никто не запрещает смотреть в сторону ECS Fargate. Тоже serverless, только для тех, кому надо "пожирнее", но без заботы о серверах.
Если у вас всё внутри периметра и всё работает – замечательно. Главное, чтобы потом не оказалось, что «периметр» – это коробка, в которой тушат пожары (из практики) :)