В предыдущей статье о Центрифуге я рассказывал, что сервер был переписан с Python на Go (код Centrifugo на github, описание на opensource.mail.ru). C тех пор прошло несколько месяцев, за это время Центрифуга успела получить версию 1.0.0 и даже уйти немного дальше (последняя версия на момент этого поста — 1.4.2).

В этой статье нас ждет быстрый старт работы с Центрифугой, примеры реального использования, размышления о месте и предназначении Центрифуги в реалиях 2016 года, описание некоторых архитектурных особенностей/возможностей реал-тайм-сервера и примеры кода на Go, отвечающие за реализацию главных фич. Welcome aboard!

Напомню, что такое Центрифуга. Это сервер, который работает рядом с бэкендом вашего приложения. Пользователи приложения подключаются к Центрифуге, используя протокол Websocket или полифил-библиотеку SockJS. Подключившись и авторизовавшись с помощью HMAC-токена (полученного с бэкенда приложения), они подписываются на интересующие каналы. Бэкенд приложения, узнав о новом событии, отправляет его в нужный канал в Центрифугу, используя HTTP API или очередь в Redis. Центрифуга, в свою очередь, рассылает сообщение всем подключенным заинтересованным пользователям. Ничего принципиально нового: достаточно много продуктов предназначены для решения реал-тайм-задач, некоторые из них работают по похожей схеме.

Если вы слышали о сервисе pusher.com — то в некотором приближении можно рассматривать Centrifugo как self-hosted аналог.



То есть концептуально ничего не поменялось. Давайте посмотрим подробнее, как Центрифуга устроена и как решаются некоторые сопутствующие проблемы. Но начнем с того, как внутреннее устройство сервера преподнесено пользователям-разработчикам снаружи.

Быстрый старт


Покажем на быстром примере, как воспользоваться Центрифугой для прототипирования простой real-time-идеи. В реальном production-случае всё чуть сложнее и, например, потребует генерации параметров подключения на стороне бэкенда вашего приложения, но сейчас мы будем отключать всевозможные проверки, чтобы обойтись без бэкенда. Это позволит поскорей получить рабочий вариант и понять основное предназначение Центрифуги.

Задача будет простая: пользователь заходит на страничку в браузере и видит картинку. C помощью JavaScript-клиента Центрифуги мы подпишемся на канал screen-updates в Центрифуге и будем ждать входящих сообщений из него. Далее мы из административного веб-интерфейса Центрифуги будем отправлять (публиковать) в этот канал сообщения вида:

{
    "image": "https://habrastorage.org/files/6b3/ae5/fcb/6b3ae5fcbeaf49c480baca60f88e7d40.jpg"
}

где image — это url картинки.

При получении этого сообщения у всех пользователей картинка автоматически изменится на ту, что мы прислали в сообщении.

Скачиваем последний релиз Центрифуги для вашей операционной системы отсюда. На момент написания статьи это версия 1.4.2. Распаковываем zip-архив и запускаем бинарный исполняемый файл:

CENTRIFUGO_SECRET=secret ./centrifugo --insecure --insecure_admin --web

Открываем http://localhost:8000 и видим веб-интерфейс, из которого будем отправлять сообщения клиентам с помощью формы во вкладке Actions.

Кстати, установить Centrifugo можно и иным способом. Например, использовать Docker image или скачать RPM/DEB-пакет с packagecloud.io.

Создадим в новой директории файл `index.html` с содержимым:

<!doctype html>
<html lang="en">
    <head>
        <script src="//cdn.jsdelivr.net/sockjs/1.0/sockjs.min.js"></script>
        <script src="//rawgit.com/centrifugal/centrifuge-js/1.3.4/centrifuge.min.js"></script>
    </head>
    <body>
        <img id="img" src="//habrastorage.org/files/d8e/0f5/46c/d8e0f546cb374398a636f8b54f9fca54.jpg" width="500px" />
        <script type="text/javascript">
            var img = document.getElementById("img");
            var centrifuge = new Centrifuge({
                url: 'http://localhost:8000/connection',
                insecure: true
            });
            centrifuge.subscribe('screen-updates', function (message) {
                img.src = message.data.image;
            });
            centrifuge.connect();
        </script>
    </body>
</html>

После этого мы можем запустить HTTP-сервер, отдающий эту HTML-страничку:

python -m SimpleHTTPServer 3000

и открыть несколько вкладок с адресом http://localhost:3000 в браузере.

Во вкладке Actions административного веб-интерфейса Центрифуги мы можем написать имя канала screen-updates в поле channel, JSON указанного выше вида в поле data и опубликовать его в канал. Вот такой, например:

{
    "image": "https://habrastorage.org/files/6b3/ae5/fcb/6b3ae5fcbeaf49c480baca60f88e7d40.jpg"
}




На всех открытых страницах картинка сменится на только что отправленную. Вот готовый пример на codepen, использующий демоинстанс Centrifugo на Heroku:



Это чуть более симпатичная версия примера выше. Можете пройти демоинстанс на Heroku (пароль для входа: demo) и из вкладки Actions отправлять сообщения в канал screen-updates, наблюдая результат в окнах codepen. В этом случае ничего не придется устанавливать, чтобы получить общее представление.

Это был быстрый старт, и результат достаточно примитивен. Но представьте, какие возможности открываются, как только вы перенесете это на реалии живого веб-приложения — они ограничены только фантазией. В реальном проекте новые сообщения вы будете отправлять не вручную из интерфейса, а с помощью API Центрифуги и библиотек-клиентов для этого API. Также, скорее всего, не будут использоваться insecure флаги и параметры, которые вы могли наблюдать выше. Полное описание всех возможностей вы найдете в документации.

Как я уже говорил, у нас в Mail.Ru Group Центрифуга используется в интранете (внутренней социальной сети для сотрудников компании) — для лайков, комментариев, статуса занятости переговорных, результатов голосования и другого. Cейчас у нас 700 пользователей онлайн одновременно и публикуется около 300 новых сообщений в минуту. Это, конечно, совсем мало. Потребление CPU — в среднем около 1 %, памяти — около 200 Мб. Бывают случаи (например, после корпоративных рассылок), когда количество опубликованных сообщений достигает 2 тыс. в минуту а fan-out (то есть количество разосланных в соединения пользователей) достигает 300 тыс. сообщений в минуту. Опять же, ничего фантастического. Вот как раз такой случай можно увидеть на графике ниже:



К сожалению, в данный момент правильно сделанных бенчмарков Центрифуги нет, поэтому приходится оперировать цифрами из реальных проектов – в нашем случае нагрузка на Centrifugo незначительная.

Есть в Mail.Ru Group и еще несколько интересных применений Центрифуги, о которых хотелось бы рассказать.

Во-первых, это игра для сотрудников. Игроки собираются вместе в одном помещении, нажатием кнопки делятся на команды. Далее, как только команды рассаживаются за столы, начинается сама игра. Игроки заходят на сайт со своих мобильных устройств — смартфонов, планшетов, ноутбуков, — получают при помощи пуш-сообщений вопросы и отвечают на них. При этом на большом экране (телевизор, изображение с проектора) возникает статистика игры, а ведущий со своего устройства управляет игрой: переводит ее от раунда к раунду, рассылая игрокам новые вопросы и потом правильные ответы на них. Если вы слышали о The Jackbox Party Games, то это что-то похожее.

Мой коллега сейчас работает над проектом https://drawr.ru. Это кооперативная реал-тайм-игра, в которой люди могут весело провести время, рисуя и угадывая то, что изображено на рисунках других. Игра по своей внутренней архитектуре во многом напоминает ту, что я описывал в предыдущем абзаце, — Django + Centrifugo под капотом. Центрифуга отвечает за рассылку уведомлений об изменении игрового состояния пользователям и за внутриигровой чат. Попробовать можно прямо сейчас, но нужно найти с кем: минимальное количество игроков — три.

Далее, в нашем большом офисе Mail.Ru очень много дверей. Двери открываются после прикладывания пропуска к устройству-считывателю. Это позволило сделать несколько интересных вещей. Например, так называемый exit-poll — сотрудник входит в помещение и отвечает на вопрос, который моментально появляется на экране перед ним. Таким ненавязчивым образом сотрудники нашего отдела персонала могут собирать самую разнообразную статистику и мнения сотрудников по тем или иным вопросам. Интерфейс на экране — это просто вкладка браузера, подписанная на канал в Центрифуге, через который приходят данные о проходах через дверь.

Наши администраторы из техподдержки при входе сотрудника, используя примерно ту же схему, показывают на большом экране информацию о человеке и таск в Jira, с которым он к ним заглянул: экономит несколько секунд при дальнейшем общении.

Один из разработчиков сайта из Alexa TOP 250 (если очень интересно, какого именно сайта, — почитайте чат Centrifugo на gitter.com) в тестовом режиме запустил Центрифугу на 50 тыс. пользователей онлайн. При этом публикуется 6 тыс. новых сообщений в секунду (это именно новые, а не fan-out сообщения). Для балансировки клиентов использовались два m4.xlarge инстанса c Центрифугой на Amazon’е. Этот пример доказывает, что подавляющему большинству проектов производительности Центрифуги должно хватить с головой.

Server-side only push в 2016 году


В примере выше мы использовали пуш клиентам со стороны сервера. Центрифуга позволяет публиковать новые сообщения напрямую с клиента в обход бэкенда приложения, но всё же ее основное применение — именно server-side only push: отправка сообщений, инициируемая сервером в одном направлении — от сервера клиенту.

Такой однонаправленной схемы достаточно для решения реал-тайм-задач в большинстве приложений, возможно, кроме динамичных мультиплеерных игр и подобных, требующих максимально низкого времени отклика и более тесной интеграции бэкенда и реал-тайм-ядра.

Большинство современных приложений в основном read-only, новый контент создается редко, поэтому любой бэкенд должен без проблем справиться с новыми событиями, которые генерируют пользователи приложения. Например, если пользователь добавил комментарий в веб-приложении, то вы просто отправляете его HTTP POST-запросом (обычным или AJAX) — обрабатываете, валидируете, сохраняете в базу данных, — а потом рассылаете всем. Для этого совсем не нужно организовывать общение между пользователем и сервером через двустороннее соединение, что предоставляют веб-сокеты. Meteor — и Derby-подобные фреймворки по-своему прекрасны — но они не единственные инструменты для простой реализации реал-тайм-приложений.

Значимое преимущество Центрифуги: используя ее, вы никак не меняете способ генерации новых событий в вашем приложении. Это особенно критично, если бэкенд приложения написан на языке или фреймворке, не поддерживающем работу с большим количеством постоянных соединений (PHP и множество фреймворков на нем, Django и т. д.).

Еще раз подчеркну основную мысль, которую я пытаюсь озвучить: в большинстве случаев нам не нужно двунаправленное взаимодействие между клиентом и сервером через постоянное соединение. Все, что нужно, — это способ быстро доставлять пользователям новый контент, как только бэкенд приложения узнаёт о его появлении.

Недавно фреймворк Django получил MOSS Grant. Cудя по этой новости, скоро нас (пользователей Django) ждет принятие в ядро фреймворка проекта Channels. Это превратит Джанго в набор воркеров, которые посредством каналов будут общаться с так называемыми интерфейс-серверами через брокер. Интерфейс-сервер может обслуживать запросы клиентов по самым разным протоколам — HTTP, Websocket и т. д. Концепт очень красивый и интересный, и среди фич, которые станут возможны, — двунаправленное общение клиента и бэкенда на Джанго через веб-сокеты. За него будут отвечать специальные Websocket интерфейс-серверы. Однако вместе с этим появляются проблемы, когда события приходят в разном порядке на разные воркеры Джанго, — понадобится синхронизировать их, используя локи в брокере (один из возможных брокеров — Redis). К чему в итоге приведут нововведения на практике — непонятно, но появление локов в отдельном брокере — как минимум спорное решение. Благодаря этому Джанго займет дополнительную нишу на рынке фреймворков и реал-тайм-решений, но хорошо ли это с учетом вышесказанного — посмотрим.

Django — не единственный пример. Я не большой знаток того, что происходит в мире Ruby on Rails, но, судя по этой статье, «рельсы» также в скором времени получат (уже получили?) поддержку двунаправленного общения с пользователем через веб-сокеты, и некоторых разработчиков это справедливо настораживает.

Самое забавное: как только интернет практически полностью перебрался на браузеры с поддержкой веб-сокетов (ведь мы так этого ждали, правда?) — появляются сомнения, насколько вообще хороши Websocket’ы для веба в эру появления HTTP/2. Каждый открытый в браузере таб — это новое постоянное соединение клиента с сервером. Зачем избыточность, если HTTP/2 позволяет мультиплексировать все запросы к домену в разных табах браузера через одно соединение? Уже сейчас при соединении клиента и сервера по HTTP/2 пропадает ограничение спецификации HTTP/1.1 на количество открытых до одного домена соединений. Можно открыть большое количество вкладок браузера, каждая из которых использует Eventsource или XHR-Streaming для доставки сообщений пользователю, и не упереться в лимит (обычно пять-шесть, в зависимости от браузера).

При всем при этом нельзя не отметить, что Websocket как протокол очень даже хорош и, что немаловажно, позволяет соединяться с сервером из небраузерной среды: клиенты для веб-сокетов есть практически для всех языков программирования. Озвученный недостаток (использование отдельных соединений при открытии вкладок) в основном касается только веб-сайтов, но есть и другие приложения — десктопные, мобильные. Очень жаль, что так и не довели до ума драфт о мультиплексировании веб-сокетов через HTTP/2 соединение: видимо, на то были веские причины, я их не знаю — может, у кого-то есть догадки?

К сожалению, сейчас, в начале 2016 года, у нас нет идеального транспорта для реал-тайм-общения. Так или иначе у всех существующих есть ряд преимуществ и недостатков. Как и во многих вещах в программировании, выбор транспорта — это trade-off. Будем ждать новых возможностей, особенно с учетом спецификации PUSH PROMISE фреймов в HTTP/2 (вот, например, рабочий драфт по доставке нотификаций (онлайн и офлайн) в браузеры на основе PUSH PROMISE, реализация должна в скором времени появиться в Firefox, а потом и в остальных браузерах). Возможно, и Центрифуга в каком-то будущем станет поддерживать этот драфт, чтобы отправлять офлайн пуш-сообщения пользователям сайтов.

Так или иначе Центрифуга позволяет забыть о головной боли с транспортами и доставлять реал-тайм-сообщения клиентам, даже если бэкенд вашего приложения для этого изначально не подходит (или пока не подходит — Rails, Django из примеров выше). При этом не нужно менять ни код, ни философию работающего проекта — можно и дальше использовать любимый фреймворк и возложить ответственность за поддержание постоянных соединений и рассылку реал-тайм-сообщений на Centrifugo. Даже если вы пишете приложение на Go или Node.js — вы можете сосредоточиться на ядре и основной функциональности приложения, используя Центрифугу для реал-тайм-сообщений. Позже при желании вы легко откажетесь от нее в пользу собственного интегрированного в код проекта решения (напишете обработку постоянных соединений самостоятельно, перейдете, например, на Primus в случае с Node.js). В качестве транспорта, как я уже упоминал выше, можно использовать «чистые» веб-сокеты или все доступные транспорты SockJS. В ближайшем будущем Центрифуга научится общаться с клиентами по HTTP/2 — благодаря реализации HTTP/2, встроенной в стандартную библиотеку Go 1.6. Это положительно скажется на соединениях, использующих SockJS HTTP-транспорты (eventsource, xhr-streaming и др.).

Не стоит забывать о быстром примере real-time-приложения, который мы реализовали выше: можно без бэкенда (и с бэкендом) прототипировать реал-тайм-приложение — для этого есть готовый JavaScript-клиент и сервер в виде бинарного файла без зависимостей. На мой немного предвзятый взгляд — это одно из самых удобных и быстрых для старта решений.

Интересную модель можно получить, если использовать Центрифугу в связке с RethinkDB на бэкенде: подписавшись на changefeed документов, вы можете делать приложения, где требуется синхронизировать структуру данных между сервером и бэкендом, — а-ля Firebase.

Внутреннее устройство


Теперь о том, что внутри. В предыдущих статьях я много писал о возможностях Центрифуги, но мало о том, каким образом все это работает. Многое видоизменялось при эволюции проекта, в том числе и язык (Python -> Go). Сейчас используемые подходы и инструменты достаточно стабильны. Поэтому, кажется, cамое время рассказать о внутреннем устройстве сервера.

HTTP/Websocket-сервер


В простом приближении Centrifugo — это Websocket/HTTP-сервер. На отдельном порту поднимается стандартный Go HTTP server c зарегистрированными функциями — обработчиками запросов. Обработчики можно разделить на три категории:

  1. Клиентские соединения (Websocket или SockJS).
  2. HTTP API (публикация сообщений, выгрузка метрик и т. д.).
  3. Административные ресурсы, необходимые в том числе для работы веб-интерфейса.

Клиентские соединения — это не короткие stateless HTTP-запросы, а постоянные соединения. В случае с Websocket-соединениями и HTTP streaming-транспортами (xhr-streaming, eventsource), которые используют SockJS при недоступности веб-сокетов, все достаточно понятно. После установления соединения мы не закрываем его до тех пор, пока клиент онлайн (на самом деле это не совсем верно, так как в случае со streaming-транспортами иногда все же приходится сбрасывать клиентское соединение, чтобы Garbage Collector мог подчистить разросшееся до определенного размера тело ответа). Благо Go позволяет практически беззаботно работать с огромным количеством таких соединений. Есть небольшая проблема с polling-транспортами, например xhr-polling (он же long-polling), так как при отправке сообщения соединения с клиентами рвутся и переустанавливаются заново. Нужно хранить сессию клиента еще некоторое время, достаточное для реконнекта. Это берет на себя серверная реализация SockJS. А клиенту, в свою очередь, желательно реконнектиться к тому же самому инстансу сервера (это берет на себя балансер — например, sticky-сессии в Nginx).

Об HTTP API. Хотите опубликовать новое сообщение в канал — отправьте правильно сформированный POST-запрос на url `/api/`. Хотелось бы отметить, что каждый API-запрос по умолчанию должен быть подписан секретным ключом, который знают только Центрифуга и ваш бэкенд. В большинстве случаев эту дополнительную защиту можно отключить, так как запросы в API наверняка будут отправляться с определенного IP — так что правил firewall’a в production вполне достаточно. В таком случае запрос к API — это просто POST-запрос с JSON’ом, содержащим команды. Примерно такого вида:

{
    “method”: “publish”,
    “params”: {
        “channel”: “updates”,
        “data”: {
            “text”: “hello world”
        }
    }
}


Касаемо административного веб-интерфейса — это endpoint, позволяющий залогиниться по паролю, хендлер, который раздает статические файлы административного веб-интерфейса и websocket endpoint, через который веб-интерфейс в реальном времени получает сообщения, опубликованные в тот или иной канал (опционально), а также исполняет команды (например, публикует сообщение в канал — то что мы видели в примере выше).

Engine


Пожалуй, самое интересное под капотом Центрифуги сосредоточено в так называемых Engine’ах.

Однако прежде чем приступить к описанию работы встроенных Engine’ов, давайте посмотрим на особенности Центрифуги, которые так или иначе завязаны на Engine:

  • возможность запустить несколько инстансов Центрифуги на разных машинах, чтобы балансировать клиентские соединения между ними;
  • presence-информация — то есть информация о том, какие клиенты находятся в данный момент в канале;
  • history-информация — последние сообщения, отправленные в канал.


Первая особенность выливается в проблему: клиенты, подписанные на один и тот же канал, могут быть подключены к разным инстансам, поэтому при публикации сообщения в канал оно должно быть доставлено и тому и другому клиенту. Примерно то же самое для presence и history: каждый инстанс Центрифуги должен обладать доступом к полной информации о канале, чтобы предоставить ее клиенту в случае запроса.

Добавим к этому замечание, что Центрифуга не хранит ничего в постоянном хранилище. В случае с presence-информацией это не проблема: мы храним столько данных, сколько сейчас пользователей в каналах. А вот в случае с историей сообщений место в памяти исчерпалось бы достаточно быстро — поэтому Центрифуга хранит историю ограниченного размера и ограниченное время (конфигурируется разработчиком на глобальном уровне или на уровне отдельных каналов) — для реал-тайм-нужд этого более чем достаточно.

На данный момент, чтобы удовлетворять требованиям, Engine должен имплементировать вот такой Go-интерфейс:

type Engine interface {
	name() string
	run() error
	publish(chID ChannelID, msg []byte, opts *publishOpts) <-chan error
	subscribe(chID ChannelID) error
	unsubscribe(chID ChannelID) error
	channels() ([]ChannelID, error)
	addPresence(chID ChannelID, uid ConnID, info ClientInfo) error
	removePresence(chID ChannelID, uid ConnID) error
	presence(chID ChannelID) (map[ConnID]ClientInfo, error)
	history(chID ChannelID, opts historyOpts) ([]Message, error)
}

Полная версия в исходном коде по ссылке.

Этот интерфейс достаточно велик — это противоречит хорошей практике делать Go-интерфейсы небольшими. Однако этот интерфейс применяется только внутри Центрифуги, и его предназначение отличается от предназначения интерфейсов, которые разработчики используют в каждодневной практике. Не предполагается, что его будет использовать кто-либо извне. По сути, это единственный способ сделать поддержку нескольких разных движков в Go. У меня есть мысли, как сделать этот интерфейс чище — но не меньше. Имена методов достаточно говорящие, чтобы понять, за что они отвечают, — далее мы посмотрим, как этот интерфейс реализуют доступные для использования Memory Engine и Redis Engine.

Memory Engine


В самом простом случае, при небольшой нагрузке или для разработки нам достаточно одного инстанса Центрифуги без каких-либо дополнительных зависимостей. Существует так называемый Memory engine, который реализует интерфейс, обозначенный выше, и работает по умолчанию.

В случае использования Memory Engine’а мы ограничены только одним инстансом Центрифуги. Presence и history хранятся в памяти процесса. Все клиенты соединены с одним инстансом Центрифуги — так что никаких проблем с доставкой опубликованных сообщений всем клиентам нет — они все у нас под боком.

Управлять presence-данными несложно: клиент появляется — добавляем в структуру данных, клиент уходит — удаляем из структуры.

Пожалуй, самое хитрое тут — это история в канале. Как я уже говорил, она должна храниться заданное время. Давайте посмотрим, как это реализовано в Memory Engine’е. Чтобы в примере не привязываться к внутренним типам Центрифуги, предположим, что в истории мы должны хранить сообщения типа string, которые принадлежат определенному каналу (тоже string).

type historyItem struct {
    	messages []string
    	expireAt int64
}

func (i historyItem) expired() bool {
	return i.expireAt < time.Now().Unix()
}

type memoryHistoryHub struct {
	sync.RWMutex
	history   map[string]historyItem
	queue    priority.Queue
	nextCheck int64
}

func newMemoryHistoryHub() *memoryHistoryHub {
	hub := &memoryHistoryHub{
		history:   make(map[string]historyItem),
		queue:     priority.MakeQueue(),
		nextCheck: 0,
	}
	go hub.expire()
	return hub
}

где queue — это priority queue прямиком из документации Go. Код этой очереди полностью можно посмотреть тут.

Это структура, позволяющая добавлять новые элементы с помощью метода Push и доставать элементы с минимальным значением с помощью метода Pop. Обе операции в этой реализации выполняются за O(log(n)).

Пожалуй, необходимость тянуть код priority queue в проект — единственная причина, по которой я пожалел об отсутствии generics в Go.

Давайте посмотрим на то, как в инициализированную структуру мы можем добавлять новые сообщения:

func (h *memoryHistoryHub) add(channel string, message string, size, lifetime int) error {
	h.Lock()
	defer h.Unlock()

	_, ok := h.history[channel]

	expireAt := time.Now().Unix() + int64(lifetime)
	heap.Push(&h.queue, &priority.Item{Value: channel, Priority: expireAt})
	if !ok {
		h.history[channel] = historyItem{
			messages: []string{message},
			expireAt: expireAt,
		}
	} else {
		messages := h.history[channel].messages
		messages = append([]string{message}, messages...)
		if len(messages) > size {
			messages = messages[0:size]
		}
		h.history[channel] = historyItem{
			messages: messages,
			expireAt: expireAt,
		}
	}

	if h.nextCheck == 0 || h.nextCheck > expireAt {
		h.nextCheck = expireAt
	}

	return nil
}

Здесь мы добавляем в историю канала новое сообщение, при этом указываем такие параметры, как size и lifetime, — они отвечают за максимальное количество сообщений в истории и за время в секундах, которое история должна храниться, соответственно.

Метод, отвечающий за получение сообщений для канала из истории, выглядит вот так:

func (h *memoryHistoryHub) get(channel string) ([]string, error) {
	h.RLock()
	defer h.RUnlock()

	hItem, ok := h.history[channel]
	if !ok {
		return []string{}, nil
	}
	if hItem.expired() {
		delete(h.history, channel)
		return []string{}, nil
	}
	return hItem.messages, nil
}

Наконец, завершающая часть реализации — функция expire, выполняющаяся в отдельной горутине и раз в секунду подчищающая неактуальные данные в структуре:

func (h *memoryHistoryHub) expire() {
	var nextCheck int64
	for {
		time.Sleep(time.Second)
		h.Lock()
		if h.nextCheck == 0 || h.nextCheck > time.Now().Unix() {
			h.Unlock()
			continue
		}
		nextCheck = 0
		for h.queue.Len() > 0 {
			item := heap.Pop(&h.queue).(*priority.Item)
			expireAt := item.Priority
			if expireAt > time.Now().Unix() {
				heap.Push(&h.queue, item)
				nextCheck = expireAt
				break
			}
			channel := item.Value
			hItem, ok := h.history[channel]
			if !ok {
				continue
			}
			if hItem.expireAt <= expireAt {
				delete(h.history, channel)
			}
		}
		h.nextCheck = nextCheck
		h.Unlock()
	}
}

Обратите внимание, что чистка истории не делает лишней работы благодаря полю nextCheck — его значение соответствует моменту времени, когда чистка данных в структурах действительно становится нужна.

Таким образом мы можем добавлять сообщения в канал, забирать список последних сообщений из канала, при этом структура поддерживает размер истории в канале и в отдельной горутине подчищает неактуальные данные. Как я уже писал выше, в примере я использовал немного другие типы данных, чтобы упростить восприятие не самого короткого для статьи кода.

Redis Engine


Как несложно понять из названия — этот Engine работает, используя Redis в качестве брокера для сообщений и как хранилище для presence и history данных.

Запустить Центрифугу, используя этот движок, можно следующим образом:

centrifugo --config=config.json --engine=redis


У Redis Engine’а есть ряд преимуществ по сравнению с рассмотренным выше Memory Engine’ом:

  • можно запустить инстансы (ноды) Центрифуги на разных машинах (будут связаны PUB/SUB механизмом Редиса), балансируя подключения клиентов между этими нодами;
  • при перезапуске инстанса Центрифуги не теряется история сообщений в каналах;
  • можно публиковать сообщения через очередь в Редисе (используя RPUSH команду) — это позволяет сохранить порядок сообщений, опубликованных в канал, если они были добавлены в очередь Редиса в верном порядке.

Каждая нода Центрифуги подписывается на канал в Редисе, используя команду SUBSCRIBE, как только появляется первый клиент, желающий получать сообщения из канала. Когда заинтересованных клиентов не остается — инстанс Центрифуги отписывается от канала (UNSUBSCRIBE). Таким образом, каждая нода Центрифуги подписана только на те каналы в Редисе, которые интересуют клиентов, подключенных к ноде.

O presence. Так как при перезапуске инстанса Центрифуги данные о пользователях остаются в Редисе — важно иметь для них expiration-механизм. Это несложно сделать для ключей с помощью команды EXPIRE. Но в нашем случае presence-информация для канала — это HASH-структура в Редисе, нужен способ «экспайрить» не HASH целиком, а его отдельные значения. Redis Engine достигает этого, используя комбинацию двух структур данных Редиса — HASH’a и SET’a. Давайте посмотрим на функции, реализующие добавление/обновление presence-информации, ее удаление и получение. Centrifugo использует Redigo в качестве Redis-клиента, поэтому в примерах кода фигурируют вызовы API этой библиотеки.

Для начала взглянем на добавление presence-информации клиента в канале:

func (e *RedisEngine) addPresence(ch string, uid string, info []byte) error {
        conn := e.pool.Get()
        defer conn.Close()
        expire := 60
        expireAt := time.Now().Unix() + int64(expire)
        hashKey := “hash.” + channel
        setKey := “set.” + channel
        conn.Send("MULTI")
        conn.Send("ZADD", setKey, expireAt, uid)
        conn.Send("HSET", hashKey, uid, info)
        conn.Send("EXPIRE", setKey, expire)
        conn.Send("EXPIRE", hashKey, expire)
        _, err = conn.Do("EXEC")
        return err
}

Как только клиент появляется в канале (подписывается на него) — мы вызывaем addPresence, после чего, пока подписка клиента на канал активна, раз в 25 секунд (по умолчанию) обновляем информацию, вызывая этот же самый метод. В примере выше channel — это имя канала, uid — уникальный ID клиента, info — полезная информация о его подключении. В методе мы работаем с HASH- и SET-структурами. HASH хранит информацию, которая нам нужна, а SET позволяет индивидуально экспайрить значения HASH’a. При отсутствии обновления в течение 60 секунд мы считаем информацию в канале неактуальной и избавляемся как от отдельного ключа в HASH’е, так и от всех структур в целом.

Удаление presence-информации, когда клиент отписывается от канала, выполняется очень просто:

func (e *RedisEngine) removePresence(channel string, uid string) error {
        conn := e.pool.Get()
	defer conn.Close()
	conn.Send("MULTI")
	conn.Send("HDEL", “hash.” + channel, uid)
	conn.Send("ZREM", ”set.” + channel , uid)
	_, err := conn.Do("EXEC")
	return err
}

Наконец, когда кто-либо запрашивает presence-информацию — вызываем метод presence, отдавая только актуальную информацию и попутно подчищая неактуальную (в большинстве случаев неактуальной не будет):

func (e *RedisEngine) presence(channel string) (map[string][]byte, error) {
        conn := e.pool.Get()
	defer conn.Close()
	now := time.Now().Unix()
	hashKey := “hash.” + channel
	setKey := “set.” + channel 
	reply, _ := conn.Do("ZRANGEBYSCORE", setKey, 0, now)
	expiredKeys, _ := redis.Strings(reply, nil)
	if len(expiredKeys) > 0 {
		conn.Send("ZREMRANGEBYSCORE", setKey, 0, now)
		for _, key := range expiredKeys {
			conn.Send("HDEL", hashKey, key)
		}
	}
	reply, _ = conn.Do("HGETALL", hashKey)
	return replyToPresenceInfo(reply)
}

В коде Centrifugo этот метод написан как Lua-скрипт, выполняемый с помощью вызова EVALSHA команды с параметрами. Благодаря этому операция внутри Редиса атомарна. В случае с получением presence-информации это еще позволяет сэкономить на round-trip задержках при обращении к Редису. На самом деле на Lua написаны и другие методы, рассмотренные выше.

В случае с историей в Redis engine’е нет ничего сложного — все сводится к использованию команд LPUSH, LTRIM, LRANGE и EXPIRE.

Наконец, еще одна особенность Redis Engine’a — возможность слушать очередь (очереди) в Редисе, в которую бэкенд вашего приложения может складывать новые сообщения для публикации. Команда RPUSH добавляет сообщение в очередь на публикацию, а Центрифуга использует вызов BLPOP, чтобы сообщения из очереди забирать. Все достаточно просто, но есть небольшой нюанс: все сообщения, принятые из очереди, обрабатываются последовательно, чтобы сохранить их порядок в каналах. Это узкое место, если у вас публикуется очень много новых сообщений.

Для преодоления этого барьера возможно запустить Центрифугу таким образом, что она будет обрабатывать сообщения, полученные из разных очередей в отдельных горутинах, тем самым распределяя работу между ядрами процессора. Собственно, так можно существенно поднять пропускную способность на публикацию новых сообщений. Чтобы при этом сохранять порядок сообщений в каналах, бэкенд вашего приложения может выбирать номер очереди, в которую нужно положить сообщение, на основе имени канала, используя что-то вроде:

crc16(CHANNEL_NAME) mod N

где N — количество очередей в Редисе, которые слушает Центрифуга.

Напомню, что в большинстве случаев для публикации сообщений вы будете использовать HTTP API, а не возможности Redis engine. Но это зависит от конкретного случая.

Redis — это единая точка отказа. И хотя Редис сам по себе очень стабилен и не имеет свойства неожиданно падать, ничто в его исходном коде не обезопасит от поломок машин, отключения электричества в дата-центре, потери сетевой связности и т. д. Существуют способы добиться от Редиса отказоустойчивости (см. например). В первую очередь в этом поможет официальный способ — использование репликации вкупе с Redis Sentinel. Также существуют различные конфигурации прокси — Haproxy, twemproxy, codis. Большинство PaaS-платформ предлагают High-Availability (HA) Redis из коробки.

С версии 1.4.2 Центрифуга научилась работать с Sentinel — достаточно указать имя мастера из конфигурации Sentinel и хотя бы один Sentinel-адрес. К сожалению, Центрифуга не может работать с twemproxy и codis, так как последние не поддерживают PUBSUB-команды. C haproxy проблем нет — при желании можно придумать хитрую конфигурацию.

Последнее, что я затрону, описывая Redis Engine, — батчинг опубликованных сообщений. Большое количество параллельных запросов на публикацию новых сообщений (а это, как вы уже могли заметить, основная операция, которую используют приложения, работая в связке с Центрифугой) приводит к необходимости много раз сходить в Redis, чтобы вызвать там команду PUBLISH и тем самым опубликовать сообщение в нужный канал. Понятно, что такой случай можно серьезно оптимизировать, используя Redis pipeline, т. е. отправку большого количества запросов в одном раунд-трипе (RTT) до Redis’а, — тем самым мы уменьшаем latency и увеличиваем общую пропускную способность. Многие, когда дело касается реализации автоматического батчинга, в первую очередь думают о том, чтобы копить буфер сообщений в течение небольшого конфигурируемого промежутка времени и затем по событию таймера (или достижению определенного размера) сбрасывать накопленные данные в соединение. Это рабочий вариант, но есть гораздо более эффективный и простой подход, позволяющий максимально уменьшить latency и пропускную способность. Именно так батчинг публикаций организован в Центрифуге. То есть за публикацию сообщений отвечает отдельная горутина. Эта горутина в цикле отсылает накопленные с момента предыдущей отправки данные в Redis. Данные для отправки копятся в канале с достаточно большим буфером. С учетом однопоточности Redis’а такая схема позволяет добиться практически оптимальной производительности. Опять же, давайте посмотрим на код, который реализует описанный подход, он достаточно прост:

func fillPublishBatch(ch chan *pubRequest, prs *[]*pubRequest) {
    for len(*prs) < RedisPublishBatchLimit {
	select {
	case pr := <-ch:
		*prs = append(*prs, pr)
	default:
		return
	}
    }
}

func (e *RedisEngine) runPublishPipeline() {

    var prs []*pubRequest

    for {
	pr := <-e.pubCh
	prs = append(prs, pr)
	fillPublishBatch(e.pubCh, &prs)
	conn := e.pool.Get()
	for i := range prs {
		conn.Send("PUBLISH", prs[i].channel, prs[i].message)
	}
	_ := conn.Flush()
	for i := range prs {
		_, _ := conn.Receive()
	}
	conn.Close()
	prs = nil
    }
}

Оригинальный код с обработкой ошибок и опущенными для простоты восприятия нюансами работы с вызовом Lua-скриптов можно найти в исходном коде.

Клиентские соединения


Про клиентские соединения много писать не буду — все достаточно стандартно для подобного рода PUB/SUB-систем, написанных на Go и на других языках программирования. Мы храним клиентские подключения в специальных контейнерах — таким образом, чтобы при появлении нового сообщения в канале быстро найти активных заинтересованных клиентов (подписанных на этот канал), проитерироваться по ним и положить сообщение в очередь каждого клиента. Без очереди тут не обойтись, так как при итерации мы не можем позволить себе блокироваться на каком-либо медленном клиенте. Реализация очереди основана на работе из вот этого поста.

При достижении определенного конфигурируемого размера очереди клиентские соединения закрываются, тем самым очередь медленных клиентов бесконечно не растет. Отмечу, что изначально очередью клиентов были просто Go-каналы с буфером, но, во-первых, они не позволяют легко считать накопившийся в буфере размер данных (поэтому приходилось полагаться не на размер в байтах, а на количество сообщений), а во-вторых, при заполнении буфера блокируют рассылку сообщений. В первоначальной реализации, чтобы избежать блокировок при заполнении буфера, соединение закрывалось, т. е. использовалась следующая конструкция, позволяющая обнаружить момент заполнения буфера в канале сообщений:

select {
case client.messageCh <- message:
	return nil
default:
	return ErrChannelFull
}

Текущий вариант с очередью гораздо более предсказуем. Если клиенту неожиданно придет значительное количество небольших новых сообщений, соединение не будет закрыто (до тех пор пока не сработает вышеозвученный лимит на размер очереди).

Клиент, подключающийся к Centrifugo, должен в первом сообщении передать параметры подключения (ID пользователя, дополнительную информацию в виде JSON-строки), подтвержденные HMAC SHA-256 токеном. Эти параметры подключения и токен клиенту должен изначально передать бэкенд приложения. Я уже описывал это в предыдущих статьях, поэтому не буду повторяться — лучше всего параметры подключения описаны в документации Javascript-клиента.

Каналы и их настройки


Одна из интересных особенностей Центрифуги — возможность конфигурировать разные каналы по-разному, используя так называемые неймспейсы. На самом деле неймспейс — это просто префикс в имени канала с двоеточием, например, если есть канал public:news, то Centrifugo попытается найти неймспейс public в конфигурации и взять его настройки. Настроек каналов достаточно много, по умолчанию все дополнительные опции выключены. Настройки по умолчанию вполне подойдут для того, чтобы Центрифуга выполняла свою основную функцию: доставляла клиентам сообщения, отправленные с вашего бэкенда. Но есть масса полезных опций, включив которые вы можете добавлять функционал в каналы. Давайте посмотрим на эти опции:

  • publish — клиент сможет публиковать сообщения в канал самостоятельно, в обход вашего бэкенда. Эта возможность хороша для прототипирования, для демонстраций, ну или когда вы совершенно не заботитесь о том, что пролетает сквозь Центрифугу. Как я писал в начале статьи — основное предназначение Центрифуги это server-side push;
  • watch — сообщения из канала будут отправляться в административное websocket-соединение и показываться в веб-интерфейсе в реальном времени (полезно для отладки и в случае небольшого количества сообщений в каналах, чтобы следить за ними из веб-интерфейса). В случае серьезной нагрузки лучше эту опцию для канала не включать — веб-интерфейс сойдет с ума от большого объема сообщений, да и небольшой дополнительный оверхед от использования этой опции появляется;
  • anonymous — позволяет подключаться к Центрифуге пользователям с пустым ID юзера (например, если ваше приложение вообще не имеет зарегистрированных пользователей или страничка с реал-тайм-фичей находится в публичном доступе). В данном случае, если ID юзера — пустая строка (“”), соединение будет принято;
  • presence — включает presence-информацию в канале;
  • join_leave — включает отправку событий о том, что какой-либо клиент подписался (join) на канал или отписался (leave) от него;
  • history_size — размер истории в каналах (максимальное количество сообщений; напомню, Центрифуга — не постоянное хранилище с диском, она не может сохранять всю историю опубликованных сообщений);
  • history_lifeime — время жизни истории в каналах, по его истечении история будет удаляться;
  • recover — включает механизм восстановления сообщений, потерянных, например, в результате кратковременного разрыва связи (требует включенной истории, чтобы было откуда восстанавливать сообщения). Работает этот механизм аналогично Last-Event-ID из спецификации Eventsource;
  • history_drop_inactive — достаточно интересная опция, чтобы уменьшить количество памяти, потребляемой на хранение истории сообщений в каналах. Когда включена, Центрифуга не будет сохранять историю в те каналы, у которых нет подписчиков и срок жизни предыдущих сообщений истек.


Среди этих настроек находится то, что выгодно выделяет Центрифугу из толпы подобных серверов. Я имею в виду встроенную возможность получить presence-информацию, механизм восстановления сообщений после кратковременных разрывов сетевого соединения. Большинство бесплатных похожих решений из коробки умеют только PUB/SUB.

Практика показала, что настройки каналов без неймспейсов лучше оставить по умолчанию, а для каждой отдельной real-time фичи на сайте создавать отдельный неймспейс, если эта фича требует особых настроек (например, истории сообщений).

Модель доставки сообщений


С учетом вышеизложенного, читатель может понять, что Центрифуга не гарантирует доставку сообщений клиенту, делая лишь максимально возможное при такой архитектуре, чтобы предотвратить потерю сообщений (best effort). Сообщение клиенту будет доставлено максимум один раз (at most once). Для большинства реал-тайм-приложений это приемлемо — но в зависимости от требований может не устроить.

В частности, причинами потери сообщений могут быть сбои в работе Редиса. Да и вообще сам Редис доставку сообщений PUB/SUB-клиентам не гарантирует, поэтому и Центрифуга, построенная на его основе, автоматически наследует это свойство.

Centrifugo также поддерживает порядок сообщений внутри одного канала. Если вы делаете два последовательных API-запроса на публикацию сообщений на один инстанс Центрифуги или отправляете две команды на публикацию в одном запросе, то гарантированно сообщения в канале придут клиенту в том же порядке. Однако стоит понимать, что в случае двух параллельных запросов к API или публикации сообщений через разные ноды Центрифуги порядок в очередности гарантироваться не может.

Заключение


Помимо тех примеров использования, которые я назвал в начале статьи, мне известно о других успешных применениях Centrifugo — в нескольких внутренних и паре внешних проектов Mail.Ru Group, в некоторых стартапах в России и за рубежом. Надеюсь, и вы у себя тоже найдете Центрифуге применение — по-моему, она умеет достаточно много и позволяет достичь результата предельно просто. Она не завязана на язык программирования, работает в связке с бэкендом на любом языке. И что немаловажно — совершенно бесплатна (лицензия MIT). Например, лучший план уже упомянутого выше сервиса pusher.com включает в себя 20 млн сообщений в месяц (причем это fan-out сообщения), максимально 10 тыс. одновременных подключений и стоит 499$ в месяц (на февраль 2016-го, https://pusher.com/pricing). Это количество сообщений пролетит сквозь Центрифугу за секунды, а 10 тыс. подключений потребуют около 500 Mб памяти на сервере.

Конечно, cуществуют решения, которые по некоторым характеристикам превосходят Центрифугу. Однако я вижу преимущество Centrifugo в совокупности доступных из коробки возможностей. Надеюсь, эта статья позволит в том числе оценить и сопутствующие риски. Как и любое другое решение, использовать Центрифугу нужно с умом.



Возможно, кто-то из читателей Хабра поможет в развитии проекта: например, нужна помощь с клиентскими библиотеками для подключения с iOS и Android. Уже были успешные попытки эти библиотеки написать (например, для Android), однако полнофункциональных клиентов пока нет. Не так давно появился клиент на Go. Кто знает, если проект gomobile продвинется чуть дальше — возможно, это позволить сделать клиент на Go основой для клиентов под популярные мобильные платформы.

Ссылки:


P. S. Не могу не поблагодарить Paul Banks, который внес невероятно большой вклад в развитие Центрифуги. Во многом благодаря ему в последнее время удалось сделать много важных и полезных улучшений.

Комментарии (16)


  1. pavel_d
    30.03.2016 17:09
    +2

    Мы уже несколько месяцев используем centrifugо в продакшне, полет нормальный, в онлайне сейчас порядка 10-20 тысяч пользователей.
    Одна из проблем, с которой столкнулись — sharing вебсокет подключения между вкладками (так как обычно наши пользователи открывают много вкладок одновременно, плодить столько же подключений смысла нет). Мы используем crosstab.js, но он временами работает кривовато и иногда теряет связь между табами. Вы с таким сталкивались? Что-то используете для этого?


    1. FZambia
      30.03.2016 17:28

      Приятно слышать! Да, к сожалению, вебсокеты работают именно так — было бы здорово иметь возможность нативным способом мультиплексировать соединения в одно, но пока ее нет. Поэтому и возникают мысли про особенности HTTP/2 – если в вашем случае большое кол-во соединений из разных вкладок это проблема, то возможно стоит посмотреть в сторону использования HTTP-транспортов SockJS вкупе с HTTP/2 сервером? Центрифуга научится HTTP/2 в ближайшее время — как только Go 1.6.1 зарелизится — собственно транспорты вроде eventsource должны будут работать через одно соединение из разных вкладок. Возможно, что за последним Nginx-ом уже сейчас можно по HTTP/2 с Центрифугой общаться — но я пока не пробовал. Кстати, надеюсь, что в какой-то момент в будущем Centrifugo постепенно уйдет от SockJS, но это пока не скоро. Мы у себя crosstab и аналогичные решения не пробовали, потому что проблемы такой пока не стояло.


      1. igordata
        31.03.2016 16:19

        > было бы здорово иметь возможность нативным способом мультиплексировать соединения в одно, но пока ее нет.

        Ну с натягом можно назвать shared workers такой нативной возможностью. Для большинства посетителей работает. Остальные могут плодить по отдельному подключению на вкладку, благо их не так много будет.

        Однако Центрифуга требует вот такого шаманства:

        var window = self;
        importScripts("/centrifugo.js");

        Иначе не может вроде даже в консольку писать. SockJS например такого не требует, и даже теряет работоспособность. Поэтому приходится загружать сначала все скрипты, а Центрифугу в самом конце сотворив вот это колдунство.

        Скажите пожалуйста, а пуш в Service Workers планируется сделать? А то своими силами я это реализовать не могу, а хочется отправлять сообщеньки даже если сайт не открыт, как тот же Фейсбук делает.

        Ещё вопросик, пользуясь случаем, т.к.карма низкая, писать могу редко. Можно ли научить Центрифугу для вызовов API слушать не только TCP порт, но и просто unix socket? Возможно это несложно реализуется через какую-нить готовую библиотеку.

        Спасибо за вашу штуку! Она волшебная и исцеляющая! Реально. Пользоваться очень удобно.


        1. FZambia
          31.03.2016 17:19

          Спасибо! Видимо я вам в ЛС напишу, чтобы получше разобраться с shared worker'ами – так с ходу и сказать нечего, потому что не сталкивался до этого и не до конца пока понимаю.
          Пуш в Service Workers планируем, да — но только когда примут общий драфт для браузеров, чтобы не завязываться только на Хром и GCM, вот issue уже стоит. Но когда примут драфт пока не ясно.
          Про unix socket: в Go функция ListenAndServe, которая запускает HTTP-сервер, слушает tcp адрес, поэтому я не могу утверждать, что если логику этой функции вынести в проект и использовать unix-сокет все будет корректно работать.


      1. AterCattus
        04.04.2016 23:16

        А что критичного для вас в go 1.6.1, что не позволяет использовать http/2 сервер на 1.6?
        Мы пока лишь http/2 клиент используем из 1.6, так что интересно.


        1. FZambia
          05.04.2016 00:41

          Я думаю, что в случае Центрифуги ничего особо не держит, просто привычка дожидаться минорных версий с фиксами проблем, обнаруженных в релизе. Вообще, я думал к публикации статьи уже будет 1.6.1, но уже на 19 дней milestone 1.6.1 просрочен. Еще с 1.6 были проблемы у sockjs-go — если бы поспешил, то пропустил бы это в релиз.


          1. AterCattus
            05.04.2016 12:49

            Ожидание миноров это да, это очень хорошо. Но в случае http/2 пришлось, хоть и не без проблем, пересесть на 1.6, чтобы APNS обновить.


            1. FZambia
              05.04.2016 13:11

              Возможно, как вариант, можно было использовать golang.org/x/net/http2, как, например, вот тут


              1. AterCattus
                05.04.2016 13:21
                +1

                Он и используется) Но на 1.5 с ним не работает timeout + (и на 1.6) есть проблема с получение GOAWAY и SETTINGS фреймов. Пришлось патчить чуть-чуть.


    1. FZambia
      31.03.2016 20:38

      pavel_d после комментария от igordata и небольшого обсуждения в ЛС судя по всему SharedWorker – вполне себе путь работать через одно вебсокет-соединение. Всю работу с Центрифугой можно возложить на воркер, который будет рассылать полученные сообщения табам. Но тут мне самому предстоит покопаться прежде чем что-то дополнительно смогу сказать.


  1. wispoz
    31.03.2016 11:37

    Можете рассказать как реализована привязка сессии браузера к бэкенду, пример: Бэкенд на PHP, а работа с фронтедом через centrifugо.
    Я так понимаю это из серии StickySession?
    P.S: centrifugo.herokuapp.com — не работает, при вводе пароля:
    POST centrifugo.herokuapp.com/auth 400 (Bad Request)


    1. FZambia
      31.03.2016 11:51

      Привязка сессии пользователя к бэкенду никак не затрагивается в такой схеме. Для вас пользователь остается точно таким же как был до этого — просто теперь он еще соединен дополнительным постоянным коннектом с Центрифугой, от которой будет получать новые сообщения, отправленные вами с бэкенда в Центрифугу. Например, пользователь совершает какое-либо действие на сайте — пусть это будет добавление нового комментария. При этом этот комментарий вы отправляете на ваш бэкенд как и всегда — обычным или AJAX POST запросом. Соответственно при этом на бэкенд прилетает стандартный запрос от пользователя (который определяется вашим бэкендом стандартным для PHP способом). После валидации и сохранения комментария — отправляете его в нужный канал. Главное правильно организовать каналы. В моем понимании sticky sessions — это проксирование запросов клиентов на один и тот же инстанс бэкенда, поэтому возможно я не до конца понял вопрос и ответил не на него:)
      У меня демо инстанс работает и пароль (demo) подходит, в 3 браузерах проверил на всякий случай — может, опечатались?


  1. wispoz
    31.03.2016 11:58

    Да демо работает, извиняюсь.
    Вопрос вот в чем, как послать сообщение конкретному пользователю?
    В socket.io предлагают хранить все коннекты пользователей, у вас я так понял это через Redis сделано.


    1. FZambia
      31.03.2016 12:11

      Пользователь подписывается на канал personal_messages#2456 — где 2456 это ID пользователя (решетка это спец символ в Центрифуге, который запрещает другим юзерам подписываться на этот канал, в принципе можно и без нее обойтись — просто personal_messages2456, но обычно на персональные каналы другим подписываться не дают). Соответственно на бэкенде вы название этого канала для юзера знаете и отправляете сообщение в него. Redis тут никак не участвует (Центрифугу можно запустить и без Редиса — более того по умолчанию Redis не используется).


      1. wispoz
        31.03.2016 12:17

        То есть, пользователь со стороны клиента (браузера), авторизуется согласно:
        https://fzambia.gitbooks.io/centrifugal/content/mixed/private_channels.html
        А дальше подписывается на определнный канал (свой), и через бэкенд можно слать сообщения именно в тот канал, правильно я понимаю?
        Тогда слещующий вопрос, как достоверно сказать что тот пользователь что авторизуется и подписывается на канал, есть настоящий пользователь, грубо говоря что мне мешает послать любой UserId и подписаться на его приватный канал?


        1. FZambia
          31.03.2016 12:27

          Не совсем так — приватные каналы и каналы с решеткой немного разные вещи. При подписке на приватный канал на ваш бэкенд отправляется дополнительный AJAX запрос от клиента Центрифуги — чтобы ваш бекенд вернул подпись (на основе секретного ключа который знают только Центрифуга и ваш бэкенд), разрешающую клиенту подписку на этот канал. Каналы с решеткой позволяют этого лишнего запроса на бэкенд избежать. UserID при подключении также подтверждается HMAC SHA-256 токеном на основе секретного ключика, который вы генерите на бэкенде, валидный токен говорит Центрифуге о том, что при подключении был передан корректный UserID. Поэтому пока этот ключ не известен чужой UserID вы не передадите. В этой статье я про это не писал, потому что это было в предыдущих. Но вообще обо всех параметрах и подписях лучше начинать смотреть вот отсюда .