Помните, как звучал модем при подключении? А как тянули витую пару из окна соседу, чтобы поиграть в Quake, а потом спорили, чей пинг меньше: у того, кто подключен напрямую к хабу, или у везунчика с ADSL? Сегодня это кажется древностью. Но именно в те времена, когда интернет был роскошью, а высокий пинг — неотъемлемой частью геймплея, многопользовательские игры стали настоящей лабораторией сетевых технологий.
Интересно, что проблемы тех лет — задержки, синхронизация, масштабируемость — никуда не делись. Просто переехали в облака. И сегодня облачные игровые платформы решают те же самые задачи, но уже с помощью распределенных дата-центров, edge-вычислений и GPU-виртуализации. Только теперь вместо того, чтобы «ждать ответа от сервера в Хьюстоне», можно мгновенно стримить AAA-игру с сервера в соседнем районе — если, конечно, ваш провайдер позаботился об инфраструктуре.

В статье проследим эволюцию сетевого гейминга: от писка модема до облачного рендеринга. И покажем, как каждая эпоха, будь то dial-up, LAN-party или GeForce NOW, формировалась не столько играми, сколько возможностями (или ограничениями) инфраструктуры.
Эра dial-up (1993–1999): когда каждый пакет на вес золота
В 1993 году мир увидел Doom — не просто шутер, а настоящий культурный феномен. Но мало кто помнит, что именно он стал первым массовым проектом, который позволил играть по сети. Правда, «по сети» тогда означало локальную сеть: до интернета играм было еще далеко.

Doom поддерживал до четырех игроков через протокол IPX/SPX, популярный в эпоху Novell NetWare. Архитектура была простой: peer-to-peer, без выделенного сервера. Каждый компьютер сам рассчитывал состояние игры и обменивался данными с остальными. Именно так родился deathmatch — PvP-дуэли, где убийства считались не по сюжету, а по количеству голов на твоем счету. Но как только геймеры захотели играть не в соседней комнате, а через интернет, началась эпоха костылей.
Проблема была простая: большинство игр того времени не понимало TCP/IP — они «думали», что находятся в локалке. Выход нашли энтузиасты. Весной 1995 года программист Джэй Коттон выпустил Kali — утилиту, которая эмулировала IPX поверх глобальной сети. По сути, это был первый игровой VPN: Doom «видел» знакомую локальную среду, а Kali тихо пересылал пакеты через интернет. За небольшую сумму (единоразово) можно было играть в десятки игр — от Descent до Warcraft II.
Параллельно в США запустился коммерческий сервис DWANGO (Dial-up Wide-Area Network Game Operation). Игроки дозванивались по модему до одного из более 20 локальных узлов DWANGO и находили оппонентов в Doom II, Heretic и других хитах. Сервис даже собирал около 10 тысяч подписчиков на пике. Некоторые звонили из Италии и Австралии, несмотря на международные тарифы. DWANGO стал первой попыткой реализовать Game-as-a-Service — еще до того, как слово «облако» вошло в обиход.
Но качество связи оставляло желать лучшего. Модемы на 28,8–56 Кбит/с давали пинг 200–400 мс, потери пакетов были нормой, а телефонный счет — постоянным стрессом. Игроков разделили на два лагеря: HPB (High Ping Bastard) и LPB (Low Ping Bastard). Последние имели ISDN или выделенку и доминировали на поле боя просто потому, что их персонажи начинали двигаться «раньше». И всё же геймеры терпели. Пока в конце 1996 года id Software не выпустила QuakeWorld — обновленный клиент для Quake, в котором Джон Кармак внедрил client-side prediction.

Суть проста: движения игрока теперь отображались немедленно на его экране, без ожидания подтверждения от сервера. Если же через 250 мс он «не соглашался» с позицией — клиент мягко корректировал расхождение, избегая резких «телепортов». Для игрока это значило то, что даже с ужасным пингом он чувствовал контроль над своим персонажем.
LAN-культура: когда сеть строили руками
Пока одни играли в Doom через модем, терпели пинг в 300 мс и молились, чтобы никто не снял трубку, другие — более решительные — тянули кабель. Буквально. В 90-х годах LAN не был абстрактным понятием из учебника по сетям. Это были метры кабеля, разбросанные по полу, тройники BNC на коаксиале и студенты с пассатижами, обжимающие RJ-45 коннекторы на коленке.
Сначала всё строилось на коаксиальном кабеле — стандарте 10BASE-2. Один тонкий «хвост» RG-58 проходил через весь офис или общежитие, к нему через тройники подключались компьютеры, а на концах висели заглушки-терминаторы. Такая система работала на 10 Мбит/с, но была хрупкой: достаточно было кому-то случайно выдернуть кабель или сдвинуть терминатор, и сеть падала целиком. Диагностика превращалась в квест: кто «сломал» сеть — сосед с третьего этажа или просто болтается заглушка?
К середине 90-х годов всё изменила витая пара и стандарт 10BASE-T. Появились недорогие хабы, разъемы RJ-45 и топология «звезда»: каждый компьютер подключался отдельно к центральному устройству. Сеть стала надежнее, проще в настройке и, главное, масштабируемой. Именно тогда LAN-пати перестали быть уделом инженеров и превратились в массовое явление.

В США и Европе это вылилось в настоящие фестивали: QuakeCon с 1996 года собирал сотни фанатов id Software в одном зале, а в Швеции DreamHack превратился в киберспортивную Мекку. Но в России всё происходило по-своему. Здесь не было коммерческих площадок, зато были общежития МГУ, МИФИ, ПИТа и десятков других вузов. Энтузиасты протягивали витую пару «через окно», чтобы соединить ПК с соседом по двору или даже из другого корпуса. Из окон свисали пучки кабелей, замаскированные под бельевые веревки, а в случае проверки от администрации студенты быстро «демонтировали» сеть и прятали хабы под кровать.
Админами становились самые технически подкованные — часто без формального образования, но с интуитивным пониманием, как заставить IPX работать поверх Windows 95. Они настраивали общие папки для обмена картами, распределяли IP-адреса (если уже переходили на TCP/IP) и следили, чтобы никто не «забил» канал модемом на FidoNet во время Quake-матча.
Почему LAN так ценили? Он давал то, чего не мог предложить dial-up, — низкий пинг, полную синхронизацию и честную игру. На локальной сети не было читеров, ну или почти не было: все ПК находились в одной физической зоне, а админы знали друг друга лично. Не было и случайных отключений: если кто-то лагал, проблему решали за пять минут — перезагрузкой хаба или перетыканием кабеля.
Именно поэтому LAN остался «золотым стандартом» для киберспорта. Даже сегодня, в эпоху облачных платформ и глобальных матчмейкингов, профессиональные турниры по CS2, Quake и другим дисциплинам проводятся на локальных серверах. Почему? Потому что инфраструктура рядом с игроком = минимальная задержка. А в соревновательной игре разница в 10 мс может решить исход раунда.
Платформы и централизация: когда сеть стала сервисом
В середине 1990-х годов онлайн оставался делом для энтузиастов. Всё изменилось, когда игры превратились в часть сервиса. Первым таким прорывом стал Battle.net от Blizzard. Запущенный в 1996 году вместе с Diablo, он предложил то, что сегодня кажется очевидным, — единый централизованный сервер, чат, списки друзей и матчмейкинг одним кликом. В интерфейсе больше не было окошек с вводом IP — нужно было лишь выбрать лобби и начать игру.
Battle.net изначально использовал peer-to-peer для самого геймплея (сервер лишь сводил игроков и передавал IP), но уже в Diablo II (2000) Blizzard перешла на авторитетный сервер, чтобы остановить всплеск читерства. А с StarCraft (1998) сервис стал социальной площадкой: игроки часами болтали в чатах, создавали кланы, соревновались в ладдере. Battle.net доказал: если онлайн сделать простым и бесплатным — миллионы будут возвращаться снова и снова.

Примерно в то же время появился GameSpy — сервис, который стал «невидимым стержнем» целого поколения PC-игр. Начав в 1997 году как простой список серверов для Quake, к 2000-м годам GameSpy превратился в полноценную платформу с мастер-серверами, голосовым чатом, рейтингами и системой друзей. Его SDK лицензировали сотни разработчиков — от Battlefield 1942 до Halo: Combat Evolved.
Игрокам не нужно было ничего настраивать. Достаточно было открыть меню «Мультиплеер», и вот уже перед тобой список всех активных серверов. Однако удобство обернулось хрупкостью. В 2014 году, когда GameSpy был закрыт после покупки Glu Mobile, сотни игр мгновенно потеряли онлайн. Crysis, Neverwinter Nights, Battlefield 2 — всё это осталось без матчмейкинга. Сообщество спасало ситуацию патчами и фанатскими мастер-серверами, но урок был усвоен: зависимость от одного внешнего провайдера — угроза самой жизни игры.
Эстафету подхватил Steam, запущенный Valve в 2003 году. Изначально Steam был просто системой патчей и VAC (Valve Anti-Cheat) для Counter-Strike 1.6, но уже к Half-Life 2 (2004) превратился в универсальную платформу. Steam принес автообновления, единые учетные записи SteamID, облачные сохранения и, что особенно важно для сетевого гейминга, Steamworks — бесплатный SDK для разработчиков.

Он заменил GameSpy. Теперь каждая игра могла использовать мастер-серверы, матчмейкинг, голосовую связь и статистику «из коробки», без необходимости строить собственную инфраструктуру. К 2010 году Steam стал фактическим стандартом PC-гейминга и подтвердил: игроки готовы терпеть обязательную установку клиента, если взамен получают стабильность, безопасность и удобство.
А в консольном мире революцию совершил Xbox Live. Запущенный в 2002 году, он впервые предложил консоли единый онлайн-сервис — с Gamertag, голосовым чатом через гарнитуру, друзьями и подпиской (Xbox Live Gold).

Microsoft сразу поставила условие: только широкополосный интернет (без модемов!). Это дало стабильный пинг 50–100 мс и позволило Halo 2 стать феноменом кооперативного и соревновательного гейминга. Xbox Live показал, что консоли могут быть не просто «игровыми приставками», а полноценными онлайн-платформами — и заставил Sony и Nintendo срочно догонять.
Неткод: как игры «обманывают» сеть
Большинство интернет-приложений — почта, веб, мессенджеры — использует протокол TCP: он гарантирует, что все данные дойдут в правильном порядке. Но в играх реального времени это роскошь, которую нельзя себе позволить. Представьте: пакет с вашим выстрелом потерялся — TCP остановит всё, пока не получит подтверждение и не отправит его заново. За это время враг успеет уйти за укрытие или убить вас.
Именно поэтому шутеры, гонки, файтинги и другие жанры с высокими требованиями к скорости выбрали UDP — протокол без гарантий, но с максимально низкой задержкой. Потеря одного пакета? Ничего страшного — следующий уже несет новую позицию. Главное, не тормозить поток. Всю «надежность» добавляют уже на уровне самой игры: важные команды (выстрел, прыжок) дублируются или отмечаются как критические, а координаты противников просто обновляются новыми данными, даже если старые так и не дошли.
Сервер как «истина»: чтобы чит не мог солгать
В ранних пирах (peer-to-peer) каждый клиент сам решал, что произошло: «я убил — значит, убийство засчитано». Это работало в LAN, но в интернете быстро привело к взрыву читерства. Решение — авторитетный сервер (authoritative server): только он определяет, что реально произошло в игре. Клиент лишь отправляет команды («я нажал W и кликнул по врагу»), а сервер проверяет: можно ли стрелять в эту точку? есть ли там цель? хватает ли патронов?
Это не только защищает от читов, но и гарантирует единое состояние мира для всех игроков. Да, появляется задержка: вы ждете ответа сервера. Но именно эту задержку и научились «маскировать».
Интерполяция, экстраполяция, lag compensation — иллюзия мгновенности
Чтобы движение противников не «телепортировалось» от точки к точке, клиент намеренно отстает на 30–50 мс и интерполирует их путь между последними известными координатами. Это и есть интерполяция — плавная «догонка» реального положения.
Если данные вдруг перестают приходить (потеря пакетов), клиент угадывает, куда двигался враг, — это экстраполяция. Как только приходит новый пакет, объект либо плавно возвращается на место, либо делает короткий «рывок».
Но самое важное — lag compensation при стрельбе. Когда вы нажимаете на курок, вы видите врага «в прошлом». Чтобы это не было несправедливо, сервер «отматывает время» и проверяет: где была цель в момент вашего выстрела? Если там, куда вы целились — убийство засчитано, даже если для других игроков враг уже скрылся за углом. Именно так Counter-Strike с 2001 года позволяет играть с пингом до 100–150 мс без ощущения «невозможности попасть».
Tickrate и sub-tick: от дискретного к «непрерывному»
Раньше сервер обновлял мир с фиксированной частотой — тикрейтом: 30, 64 или 128 раз в секунду. В CS 1.6 — 66 тиков, в CS:GO — 64 (в матчмейкинге) или 128 (на кастомных серверах). Чем выше тикрейт, тем точнее фиксируются действия. Но даже 128 Гц — это шаг в 7,8 мс, и выстрел, пришедший «между» тиками, мог не засчитаться.

В Counter-Strike 2 Valve представила sub-tick архитектуру: сервер больше не привязан к фиксированным тактам. Он запоминает время каждого действия игрока с микросекундной точностью и обрабатывает их «как есть». Теоретически это делает игру одинаково точной независимо от тикрейта — и устраняет старый конфликт между «64» и «128». На практике это развитие той же идеи лаг-компенсации: важно не то, как часто сервер «будится», а как точно он воспроизводит события.
Lockstep в RTS: 1500 лучников на 28,8K модеме
А вот стратегии пошли другим путем. В StarCraft или Age of Empires состояние игры — это тысячи юнитов, ресурсов, зданий. Передавать всё это по модему невозможно. Решение — deterministic lockstep. Все игроки запускают один и тот же симулятор, а по сети шлют только свои команды: «нажал A, выбрал юнитов, дал приказ атаковать». Раз в 100 мс все ждут команды друг друга и одновременно делают «шаг» симуляции.
Трафик — минимальный (байты вместо мегабайт), но цена высока: если один игрок лагает, вся игра «зависает», пока он не пришлет команду. Зато это позволило StarCraft работать даже на 14,4 Кбит/с и стать основой киберспорта в Южной Корее.
Облачный гейминг: когда игра уходит в дата-центр
Когда в 2010 году стартап OnLive анонсировал стриминг AAA-игр из облака с минимальной задержкой и без необходимости в мощном ПК, это звучало как фантастика. Пользователи могли запустить Assassin’s Creed или BioShock на обычном ноутбуке. А видеопоток обрабатывался на сервере с GPU NVIDIA GRID и поступал прямо в браузер или через специальную приставку MicroConsole.

OnLive показал, что рендеринг можно полностью вынести в дата-центр и сохранить при этом интерактивность. Технически это был прорыв. Фирменный видеокодек, оптимизированный под низкую задержку, аппаратные энкодеры и распределенная сеть дата-центров — всё работало на снижение input-to-photon latency до теоретических 80 мс. Но, к сожалению, средний пользователь того времени часто не имел даже стабильных 5 Мбит/с, поэтому требования OnLive к латентности (< 80 мс до сервера) были недостижимы для многих.
Бизнес-модель тоже не сработала: подписка давала лишь демоверсии, а полные игры нужно было покупать отдельно, при этом у пользователя не было права скачать или перенести купленную копию. В 2012 году OnLive обанкротился, а в 2015-м его технологии и 140 патентов выкупила Sony. Ирония в том, что идея была правильной, просто пришла слишком рано. Инфраструктура и рынок еще не были готовы.
Если OnLive пытался быть отдельной платформой, то стартап Gaikai (основан в 2008 году) пошел другим путем. Он предложил облачный гейминг как сервис внутри экосистемы. Gaikai позволял запускать демоигры прямо на сайтах издателей: без установки, через браузер. Это привлекло Sony, которая в 2012 году купила Gaikai за 380 млн $ и на его базе построила PlayStation Now. Сервис лечил боль PS4 — отсутствие обратной совместимости с PS3, когда игры запускались на удаленных «виртуальных консолях», а пользователь получал видеопоток на своем ТВ. Так облачный гейминг перестал быть нишевой затеей и стал частью стратегии крупного игрока.
NVIDIA GeForce NOW (GFN) пошел дальше всех. Вместо собственного каталога игр он предложил стримить то, что вы уже купили, — из Steam, Epic, Ubisoft Connect. Это решило сразу две проблемы:
Пользователь не платит дважды.
Библиотека растет автоматически вместе с экосистемами магазинов.

GFN сделал ставку на гибкость и мощность: бесплатный тариф с 1-часовыми сессиями, подписка с RTX-рендерингом, поддержка 120 Гц и 4K, глобальная сеть из 20+ дата-центров, а с 2023 года — NVIDIA GDN, платформа для B2B-стриминга интерактивной графики (например, внутри Fortnite или в рекламных баннерах). Но ключевым фактором успеха стало партнерство с телекомами. Через программу GFN Alliance NVIDIA размещала серверы в локальных дата-центрах, чтобы игроки были близко к GPU. Именно так появился GFN.RU — совместный проект с Ростелекомом.
А вот Google Stadia (2019) показал, что даже триллионы долларов не спасут от неверной стратегии. Гугл построила мощные серверы на GPU AMD, обещала 4K@60, интеграцию с YouTube и мгновенный запуск игр по кнопке. Но:
контент был скудным;
игры приходилось покупать заново;
не было «ощущения владения»;
а главное — не было «киллер-фичи», ради которой стоило отказываться от консоли или ПК.
Когда в 2023 году Гугл закрыла Stadia, вернув всем деньги за покупки, это стало самым громким признанием: облачный гейминг — не про технологии, а про доверие, контент и экосистему.
Российский путь:
Playkey (2014) начал как стартап в Перми на базе NVIDIA GRID. Сначала это был «Netflix для игр», но позже сервис переключился на модель BYOG (Bring Your Own Game), что позволило избежать проблем с лицензированием. В 2021 году Playkey был выкуплен VK и интегрирован в MY.GAMES Cloud.
Loudplay предложил уникальный подход: облачный ПК по часам с собственным проприетарным протоколом, способным работать даже при 100–200 Кбит/с и 30% потерях пакетов. Это сделало сервис востребованным у тех, кто не хочет платить за подписку, но планирует иногда «запускать требовательную игру».
GFN.RU (2019–2023) стал локальным прорывом: серверы в Москве, Санкт-Петербурге, Екатеринбурге, пинг 30–50 мс даже на Урале, оплата в рублях. Но в 2023 году из-за санкционных ограничений и невозможности поддерживать качество сервиса проект закрылся. Даже лучшие технологии бессильны без стабильной инфраструктуры и доступа к глобальным ресурсам.
Будущее: когда «лаг» станет архаизмом
Еще недавно пинг в 200 мс казался нормой, а cегодня профессиональные киберспортсмены требуют стабильные 20–30 мс. При этом облачные сервисы вроде GeForce NOW обещают input-to-photon latency ниже 40 мс. И это только начало. В ближайшие годы задержка, как явление, может перестать быть проблемой вообще.
5G и оптика: «последняя миля» без компромиссов
Ключевой барьер — «последняя миля», то есть расстояние от вашего устройства до первого сетевого узла. Сейчас она активно сокращается:
Оптика до квартиры (FTTx) устраняет узкие места в проводной части. В Москве, Екатеринбурге или Новосибирске абоненты уже получают пинг до локальных хостов менее 2 мс. Это тот уровень, при котором даже облачный шутер чувствуется «как на локальной машине».
Серверы — в шаговой доступности
Из-за огромной территории нашей страны централизованные дата-центры в Москве — не решение, а проблема. Игрок из Владивостока или Калининграда платит за это лагами. Проблему решают edge-вычисления: дата-центры в крупном городе регионов.
Представьте: облачный игровой сервер работает в том же районе, где вы живете. Задержка — 3–5 мс. Это уже не «облако где-то в Европе», а реальная локальная инфраструктура.
Облако как продолжение устройства
Будущее — не в том, чтобы заменить ПК, а в том, чтобы интегрировать облако в сам игровой опыт:
NVIDIA GDN уже позволяет встраивать «игру по нажатию» прямо в веб-страницу — без скачивания и установки.
Гибридные сценарии: часть тяжелой логики — физика разрушений, ИИ-противники, генерация мира — обрабатывается в облаке, а на устройстве остается только визуализация и ввод.
В будущем ваш провайдер — ключевое звено инфраструктуры. От качества его оптики, локации edge-серверов и поддержки QoS зависит, будет ли облачный гейминг ощущаться как чудо или как разочарование.
В заключение
Многопользовательский гейминг никогда не был просто развлечением. С самого начала — от первых deathmatch-поединков в Doom до облачных сессий в GeForce NOW — он оставался мощным драйвером сетевых технологий. Именно игры заставляли инженеров изобретать client-side prediction, мастер-серверы, UDP-оптимизации и edge-вычисления. И именно ради игр строились LAN-сети в общежитиях, внедрялись QoS-политики у провайдеров и запускались целые облачные платформы.
Сегодня вы арендуете облако для бизнеса, чтобы хранить данные, масштабировать сервисы или запускать CI/CD-пайплайны. А завтра (или, может, сегодня) это же облако будет рендерить для вас AAA-игру на смартфоне без единого скачивания. Граница между «рабочей» и «игровой» инфраструктурой стирается. И в этом нет ничего удивительного, ведь требования те же: низкая задержка, высокая надежность, мгновенный отклик.
Так что в следующий раз, когда подключитесь к серверу Counter-Strike 2 или запустите Fortnite через браузер, помните: за плавностью движения и честным хедшотом стоят десятилетия эволюции сетей, протоколов и дата-центров.
Расскажите, а как вы играли свою первую игру? И как думаете, куда двинется гейминг дальше? Станет ли «облачный ПК» таким же привычным, как Wi-Fi? Поделитесь в комментариях ↓
Комментарии (2)

loxx
18.11.2025 07:15Помню как связывал 2 ноутбука com или lpt шнуром и играли в Duke Nukem 3D по "сети".
id_Alex
в QuakeWorld еще и физика движения сильно поменялась, появились strafe jumping - те кто быстро овладел этой техникой становились Богами арены Deathmatch!