Максим Дунин (Nginx, Inc.)


Ведущий: Я представляю вашему вниманию следующего докладчика. Встречайте – Максим Дунин. И он расскажет о том, что же нового появилось в технологии под названием nginx.

Дисклеймер: речь пойдёт о нововведениях в 2016 году. Можно подумать, что это давно, но информация об изменениях в changelog от автора этих самых изменений полезна всегда!

Максим Дунин: Добрый день! Я Максим Дунин. Как вы, наверное, знаете, я разработчик nginx. Сегодня буду вам читать changelog вслух и с выражением. Для начала давайте определимся, с какого именно места мы будем читать changelog. Посмотрим на статистику.



Если верить W3Techs, нулевой версии nginx практически не осталось. Есть еще отдельные товарищи, которые держатся за Debian 6, но их мало, на них мы ориентироваться не будем. Если вы все еще используете нулевые версии nginx, вам стоит обновиться.


Первая версия – сейчас уже практически 97%. Я искренне считаю, что это хорошо, потому что когда 3 года назад я делал аналогичный доклад, все было очень печально, народ как-то очень усиленно сидел на старых версиях, мы предприняли массу усилий, чтобы как-то эту ситуацию изменить.



Смотрим подробнее на то, что происходит в первой версии. И видим, что фактически 50% пользователей уже на текущем стейбле 1.10, еще 5% достаточно смелые, чтобы использовать то, что мы используем и разрабатываем mainline 1.11. Остальные, так или иначе, выучили, что четные версии у нас стабильные, и как-то не спешат обновляться, наверное, просто потому что используют то, что предоставляют собственные дистрибутивы операционных систем и nginx не особо пользуются или не знают, чего нового появилось и зачем им нужно обновляться.

Сегодня я расскажу, зачем нужно обновляться, и что вы получили, если уже обновились до 1.10 или до 1.11.

Для начала – то, что появилось в ветке 1.9 и доступно в версии 1.10.



Мы научились, наконец-то, использовать порт клиента в различных местах, отошли от моделей, что IP’шников хватит всем, и, если вы много работаете с клиентами за NAT’ом (что сейчас, наверное, у всех), то Real_IP-модуль в том числе поддерживает порт, и можно вытаскивать его из proxy-протокола, можно передавать на бэкенд руками через X-Real-IP.



Следующий вопрос – идемпотентность. Кто знает, что такое идемпотентность? 3 человека в зале. Круто… Приблизительно это мне и говорил Игорь, когда я произносил слово «идемпотентность».



Идемпотентность – это такое свойство объекта или операции при повторе давать тот же самый результат. С точки зрения http, GET-запрос идемпотентен, потому что каждый раз вам возвращают один и тот же ресурс, если вы сделаете запрос не один раз, а два раза, то ничего не изменится. Если вы сознательно не пытались нарушить протокол http и не повесили на GET-запрос какую-нибудь операцию, как большинство счетчиков делают. Например, любая статистика у вас в результате не идемпотентна, потому что повторенный дважды GET-запрос засчитывает два хита. Но с точки зрения стандарта GET идемпотентен. Практически все методы http идемпотентны, кроме POST из основного стандарта и двух дополнительных методов LOCK И PATCH.

Почему это важно? Важно это потому что, когда nginx куда-то что-то проксирует, он имеет привычку запросы повторять. Для неидемпотентных запросов это может плохо кончиться, если ваше приложение ожидает полного соответствия стандарту. Вы можете от этого защититься, напрограммировав некую защиту для POST-запросов, чтобы детектировать дубли. Наверное, даже не можете, а должны защищаться, потому что, так или иначе, у вас, скорее всего, дубли из браузера будут прилетать. Но, поскольку мы стремимся быть стандартными, мы сделали так, что теперь nginx запросы неидемпотентные по умолчанию не повторяет и ведет себя так, как предполагает стандарт и т.к. некоторые люди программируют.

Если nignx начал уже отправлять запрос на бэкенд, случилась ошибка, повторно он этот запрос не отправляет для POST-запросов. GET-запросы замечательно отправляет, потому что имеет право. POST-запросы не отправляет. Если вам хочется вернуть прежнее поведение, это можно сделать легко с помощью конфигурации. Пишете: «proxy_next_upstream» и добавляете параметр «non_idempotent».



Следующий вопрос – запись в кэш. Мы в nginx записью особо долгие годы не занимались, потому что с записью все обычно просто. Вы сказали ОС: «Запиши мне в файлик данные», ОС сказала: «OK, я записала», а на самом деле сохранила в буфера и когда-то потом запишет.

Это не всегда так. Если у вас очень много записи, вы можете наступить на то, что буфера ОС закончились, и ваша запись заблокируется. Чтобы этого не происходило, теперь nginx умеет писать через thread’ы, если у вас очень много записи в кэш, вы можете с помощью директивы aio_write включить запись через thread’ы. Пока работает только через thread’ы. Вероятно, когда-нибудь в будущем сделаем и через posix aio.

Опять же, кэш теперь научился за собой следить и превентивно очищать зону разделяемой памяти от лишних записей, если у него памяти не хватает.



Теперь вы ошибок аллокации видеть не должны, если вдруг у вас зона маленькая, просто nginx будет хранить столько, сколько в зоне помещается. Он и раньше это пытался делать, но пытался он это делать по факту, т.е. когда он не мог аллоцировать очередную запись в разделяемой памяти, он говорил: «А давайте мы попробуем удалить самую старую запись», удалял ее и пытался аллоцировать снова. Обычно это получалось. Если у вас высокая нагрузка, много рабочих процессов, это могло не получиться просто потому, что какой-то другой рабочий процесс успевал освобожденную память занять. Плюс к тому, это требует некоторого времени, потому что предполагает удаление файла, соответственно, syscall, уход в диск. Не хочется этого делать в рамках обработки запроса, не хочется, чтобы пользователь ждал, теперь этим умеет заниматься cache manager.

Напрограммировали динамические модули, наконец-то.



Основные цели, которые мы ставили – это упростить сборку пакетов в первую очередь. потому что внешние зависимости у отдельных модулей сильно усложняют сборку и установку пакетов. Либо вы делаете некоего монстра, который зависит от всего в системе, либо вы не включаете какие-то модули, которые имеют плохие внешние зависимости, либо вы собираете много разных пакетов с такими модулями, с другими модулями. С точки зрения пакетирования, статическая сборка nginx – это боль.

Кстати, мы выложили в открытый доступ видеозаписи последних пяти лет конференции разработчиков высоконагруженных систем HighLoad++. Смотрите, изучайте, делитесь и подписывайтесь на канал YouTube.

Вторая цель, которая ставилась – это упростить отладку, потому что писать хорошие модули для nginx мало кто умеет и зачастую, когда к нам приходят с проблемами, проблема оказывается в сторонних модулях. Поэтому уже долгие годы первое, что мы просим, когда к нам приходят со словами: «А у меня nginx падает, все разваливается!», мы говорим: «Покажите нам “nginx –V”» и рекомендуем пересобраться без сторонних модулей и посмотреть, воспроизведется ли проблема. Скорее всего, она не воспроизведется.



Напрограммировали, теперь можно достаточно легко собрать динамический модуль. Для стандартных модулей это включается с помощью суффикса dynamic. Если вы собираете какой-то свой или сторонний модуль, вместо add-module вы используете add-dynamic-module. И потом в конфиге загружаете.



Переделать свой модуль, чтобы он умел загружаться динамически, достаточно тривиально. Мы предприняли массу усилий, чтобы максимально упростить это все для авторов модулей, и чтобы все это требовало минимальных переделок. Фактически вам нужно поменять config-файл, если он у вас в старом виде написан, чтобы использовался скрипт auto-модуля.

Если у вас сложный модуль, вам еще нужно проделать пару изменений во внутренней логике. Ничего сложного – вместо подсчета модулей с помощью собственного цикла нужно вызывать nginx-функцию, вместо глобальной переменной со списком модулей нужно использовать тот список, который теперь появился в цикле.

Конфиг переделывается как-то так.



Была прямая установка переменных со списками модулей, и стал вызов скрипта auto-модуля с поставленными параметрами для скрипта. Сам этот скрипт потом уже разберется – динамический ваш модуль собирают, статический собирают – и сделает все нужное.

Следующий вопрос – CPU affinity.



Nginx давно умеет CPU affinity, биндить рабочие процессы конкретным процессорам. Это конфигурилось как-то так. Т.е. бинарную маску задаете для каждого рабочего процесса, соответствующий рабочий процесс начинает работать на тех процессорах, которые ему разрешены. Это хорошо работало, когда были 2х-процессорные машины, 4х-процессорные машины. Сейчас, когда машины бывают 64х-процессорные, это уже немного неудобно конфигурить, потому что если вы хотите занять всю машину, у вас там 64 рабочих процесса по 64 бита в каждой маске, руками это уже писать невозможно. Я видел людей, которые пишут PERL-скрипты для того, чтобы делать это. Мы приняли их боль, сделали простую ручку auto, которая раскладывает рабочие процессы по процессорам один за одним. Если полной автоматики мало, можно указать маску, из которой nginx будет выбирать процессоры. Это позволяет ограничить эту раскладку каким-то сапсетом процессоров. Если в маске меньше бит, чем имеется рабочих процессов nginx, он просто пойдет по кругу.



Еще одна проблема, с которой периодически люди сталкиваются – это кэширование больших файлов. Совсем больших файлов, когда у вас 4 ГБ имидж или 40 ГБ имидж, или много-гигабайтное видео. Nginx, конечно, умеет такие файлы кэшировать, но делает это не очень эффективно, особенно, когда речь идет про range-запросы. Если вам присылают range-запрос на что-то из файлика 2 Гб, nginx пойдет скачивать файл целиком, чтобы положить его в кэш, положит его целиком в кэш и, когда до второго Гб докачает, начнет возвращать ответ клиенту. Latency для клиента получается совершенно запредельной. Как-то с этим хочется бороться, но опять же зачастую нужно только начало файла. Наоборот, если у вас какой-нибудь видеостриминг с длинным и скучным фильмом, большинство клиентов открывают, скачивают первые несколько Мб этого потока и после чего соединение закрывают. А вы пошли и скачали все несколько Гб, к себе в кэш положили и думаете, что они нужные.

Как с этим бороться? Одно из возможных решений которое предполагает, что у вас файлы на бэкенде не меняются – это качать по кускам и кэшировать тоже по кускам. У нас появился модуль slice, который умеет качать и кэшировать по кускам.



Он создает последовательно подзапросы на диапазоны заданного размера. И мы можем эти диапазоны, отдельные кусочки небольшого размера, закэшировать с помощью стандартного кэша. При отдаче клиенту эти кусочки склеиваются. Все работает и кэширует очень эффективно, но, опять же повторюсь, это все можно использовать только в неких специфических условиях, когда у вас файлы на бэкенде не меняются. Если у вас файлы меняются, то вполне возможна ситуация, когда клиенту отдалась половина файла, потом файл поменялся и что делать дальше? Второй половины у нас просто нет. Сейчас nginx пытается отслеживать подобные ситуации и закрывать соединения, ругаясь громко, но, вообще, если у вас такое, то этот модуль вам не нужен. Это стоит использовать, когда у вас просто статика на бэкенде, и вы ее пытаетесь раздавать и кэшировать.



Пока суд да дело, SPDY умер, вместо него появился HTTP/2. Отличия есть, но небольшие. С точки зрения общей логики идея все та же – мы в рамках одного соединения мультиплексируем много запросов, за счет этого пытаемся экономить на установлении соединений и экономить latency. Как-то это работает, что-то это дает. Не могу сказать, что это работает хорошо с той точки зрения, что очень много всяких нюансов в реализациях, протокол новый, много кто делает неправильно, в том числе сам google делает в chrome неправильно. Мы им периодически пишем тикеты про то, что они эту часть протокола обрабатывают не так, ту часть протокола обрабатывают не так, встраиваем в nginx workaround для всего этого. Как-то оно работает, я лично не большой фанат этого протокола, в основном, потому что протокол бинарный, и это боль с точки зрения отладки и разработки.

Теперь его мы тоже нормально умеем, даже убрали некоторые ограничения, которые были раньше в SPDY, с точки зрения реализации в nginx. Если хотите, можете пробовать пользоваться. Наверное, многие уже пробовали и пользовались. Тема популярная, говорят про него много.



Научились несколько sub_filter’ов делать за раз, заодно sub_filter разогнали. Раньше не умели, это было плохо, а теперь умеем и это хорошо, с одной стороны. С другой стороны, если вы используете sub_filter, наверное, у вас опять же что-то не так в архитектуре. Для highload это плохое решение.



Разогнали слегка обработку новых соединений. Точнее говоря, сделали ручку, которая их позволяет обрабатывать быстрее. Смотрим на график. На графике тест количества обрабатываемых запросов в секунду в тысячах запросов от количества рабочих процессов. Видим, что совсем не скалируется. Почему так? Потому что у нас по умолчанию включен accept_mutex, и фактически у нас всегда работает один рабочий процесс. 25 тыс. соединений в секунду он как-то обрабатывает, а дальше не может, потому что все сериализованно.

Выключаем accept_mutex. Смотрим – где-то до 2-х рабочих процессов, может быть, до 3-х скалируется, 60 тыс. запросов в секунду выдает, дальше все становится только хуже с увеличением количества рабочих процессов. Почему так? Процессор у нас не кончился, но зато система начала лочиться на listen-сокете. У нас один listen-сокет, получаем contention просто на этом listen-сокете.

Как решать? Добавлять listen-сокетов. Простое решение. Можно добавить руками, разнести по IP-адресам, и все у вас будет хорошо. Если руками неудобно или невозможно, IP-адрес, например, один, теперь это можно сделать с помощью специальной ручки reuseport. Эта ручка позволяет nginx создавать для каждого рабочего процесса собственный listen-сокет, с помощью опции so_ reuseport.

Работает на Linux’е не очень хорошо, работает на DragonFly BSD хорошо, но, к сожалению, малопопулярная ОС. Если вы пытаетесь сделать это на Linux’е, стоит иметь в виду, что при изменении количества рабочих процессов у вас будут теряться соединения. Если вы уменьшили количество рабочих процессов, nginx один из listen-сокетов закроет. Если какие-то соединения в этом listen-сокете лежат, они закроются. Linux пока не умеет перераспределять эти соединения между другими сокетами.

С точки зрения производительности что получаем? Получаем вполне неплохое скалирование где-то до 8-ми рабочих процессов. Дальше опять полка. Почему полка? Потому что клиент на той же машине и ест вдвое больше, чем nginx. И когда у нас 8 процессоров заняты nginx, а остальные 16 заняты клиентом, больше машина не может – все, у нее процессор кончился. Если хочется больше, надо клиента на какие-нибудь другие машины выносить.



Еще одна большая вещь, которую добавили – это модуль Stream. Он позволяет балансировать произвольные соединения, не привязываясь к HTTP. В общем и целом, умеет почти то же, что и HTTP, но чуть попроще, чуть поменьше. Сейчас мы говорим про версии 1.9 и 1.10. Умеет балансировку произвольных соединений с теми же методами балансировки, что и у HTTP, Round-robin умеет, IP hash умеет. Умеет принимать SSL от клиентов, умеет устанавливать SSL к бэкендам. Умеет ограничивать количество соединений, умеет ограничивать скорость в этих соединениях, на бэкенд умеет через proxy-протокол отправлять адрес клиента. Даже умеет немного UDP, но так, чуть-чуть. Можно принять UDP-пакетик от клиента и отправить его на бэкенд, а потом обратно принять один или несколько пакетиков от бэкенда и отправить его обратно к клиенту. Если вам нужно, скажем, балансировать DNS, то, в принципе, можно сделать это с помощью модуля Stream. Если у вас что-то сложное на UDP, то, наверное, сейчас вам счастья не будет. Но зато произвольные TCP-соединения умеем в хвост и в гриву, как хотите.



И всякого разного по мелочи. Научили Resolver пользоваться не только UDP, но и TCP. Это позволяет работать нормально, если у вас больше 30 А-записей, и DNS-ответ не влезает в 512 байт UDP-пакета. Теперь Resolver может в этом случае увидеть, что там стоит битик truncate и пойти по TCP получить полный список. Если вы балансируете с использованием переменных имен и т.д. и используете Resolver, чтобы узнавать списки бэкендов, то вам это немного поможет. Блоки upstream теперь могут быть в разделяемой памяти. Это позволяет держать общий state между рабочими процессами. Т.о. если один рабочий процесс увидит, что ваш бэкенд умер, то все остальные об этом тоже узнают. Если у вас лист кон балансировка, и вы хотите минимизировать количество соединений к бэкендам, то, опять же, оно теперь не в рамках одного рабочего процесса работает и знает соединения только в конкретном рабочем процессе, но и знает все соединения по всему nginx.

Разделяемая память теперь работает на версиях Windows ASLR, т.е. Vista и новее. Если вы вдруг пытаетесь использовать nginx под Windows, вам это немного поможет. Но хочу заметить, что не надо использовать nginx под Windows в продакшне, пожалуйста. Это может быть очень больно. Он серьезно для этого никогда не точился.

SSLv3 мы по умолчанию выключили. Если очень надо можно включить, но, наверное, не надо.

Добавили переменную $upstream_connect_time, которая – сюрприз – показывает время, потраченное на установление соединения с бэкендом.

Умеем печатать полный конфиг по ключику «-T». Это, как показала практика нашего собственного support, очень важная и нужная фича, когда у вас траблшутинг, и вы пытаетесь разобраться, что у клиента не работает. Полный конфиг люди зачастую прислать просто не могут. Не понимают, где его брать. Мы этот процесс автоматизировали.

И научились выводить версию OpenSSL в выводе «-V». Причем, даже научились ее выводить не просто так, а смотреть, с какой версией OpenSSL nginx был собран и с какой будет сейчас работать. Если вдруг у вас nginx был собран с одной версией OpenSSL, а вы сейчас работаете с другой версией OpenSSL, он вам это покажет.

Собственно, более или менее все про ветку 1.9. Все это доступно в стабильной версии 1.10.2.



Что у нас появилось нового в 1.11. Это mainline-ветка, которую мы сейчас разрабатываем. Последняя версия 1.11.5. Что появилось?



В Stream появились переменные. Вообще, Stream усиленно развивается. Появились модули, которые умеют работать с переменными – map, geo, geoip, split_clients, real ip, access log, появилась возможность вернуть некий простой ответ из переменных или просто статическую строку return. Можно теперь делать всякие странные конструкции с помощью map’ов, limit_conn, чтобы применять ограничения избирательно. В общем, практически то же самое, что мы умеем делать в HTTP.



Опять же, в Stream мы научились заглядывать внутрь SSL-соединения, при этом, не снимая SSL. Зачем это может быть нужно? Вам может быть нужно посмотреть на server_name, который прислал клиент, и отправить клиента либо на один бэкенд, либо на другой бэкенд. Сейчас умеем вытаскивать из client_hello server_name. Есть для этого переменная, можно по этой переменной отбалансировать на один или другой бэкенд – на слайде пример, как это сделать. Это нужно включать явно, потому что по умолчанию мы, конечно, ничего не ждем. Если мы хотим дождаться client_hello, то включаем директиву ssl_preread, nginx дождется и, соответственно, будет переменная ssl_preread_server_name.



Научились ограничивать количество соединений с конкретными бэкендами, т.е. для каждого сервера вы теперь можете прописать max_conns, и nginx не будет открывать больше заданного числа соединений к данному бэкенду. Исходно это было сделано для NGINX Plus. Сейчас мы помержили open source просто для того, чтобы сделать людям приятно, с одной стороны, и таскать кастомного кода – с другой.



Научились работать в режиме transparent proxy. Обычно, если вам нужно передать адрес клиента на бэкенд, вы либо в HTTP используете заголовки с адресом клиента, либо, если речь идет про произвольные соединения, вначале соединения передаете заголовок proxy-протокола с адресом, портом. Это, к сожалению, не всегда возможно использовать, есть люди, у которых ничего из этого не работает. Есть люди, которые пытаются использовать nginx не со своими бэкендами, а просто внешний мир как-то проксировать.

Теперь можно в директиве proxy_bind сказать параметр «transparent», и она попытается сделать bind с нужной опцией для того адреса, который ей передали. Соответственно, если вы передадите туда remote_addr, т.е. адрес клиента, она сделает bind на адрес клиента. Соответственно, если вы построили сеть так, чтобы это все работало, то transparent proxy будет работать. Но для этого нужен root, для этого нужна специально построенная сеть. Вообще, если вы со своими бэкендами работаете, скорее всего вам лучше этого не пытаться делать. Может быть, это полезно со всяким legaсy-софтом, который обучить понимать X-Forwarded-For или X-Real-IP нереально.

Еще одна вещь, которой научились… Кто скажет, сколько соединений можно установить к одному бэкенду, если у нас есть один IP-адрес? Есть фронтенд с одним IP-адресом. Сколько соединений можно установить?



65 535 по количеству портов. Потому что destination-порт у нас один, а локальных портов, ну, максимум 65 535. Если у нас, соответственно, два бэкенда – 128 тысяч. Если у нас 10 бэкендов, то больше полумиллиона соединений можно установить, это не проблема.

А теперь пишем в конфиг «proxy_bind» и указываем IP-адрес. Наши полмиллиона портов при десяти бэкендах превращаются обратно в 65 тысяч. Почему так происходит? Происходит это потому что системный вызов bind делается до коннекта, то есть он не знает, куда именно мы будем коннектиться и он должен выбрать локальный порт. Поскольку куда именно мы будем коннектиться, он не знает, он должен выбрать локальный порт так, чтобы можно было потом законнектиться куда угодно, а всего локальных портов у нас 65 тыс. Соответственно, в 65 тысяч мы начинаем упираться, просто написав в конфиге «proxy_bind».

Как с этим бороться? Бороться с этим можно. На свежих версиях Linux есть специальная опция IP_BIND_ADDRESS_NO_PORT, которая говорит bind’у, что не надо ему выбирать локальный порт, мы его использовать не будем, клянемся, что не будем и, соответственно, операционная система не будет его выбирать, а сделает это как обычно в системном вызове connect, когда уже будет знать, куда именно мы хотим приконнектиться. Это опять возвращает нам наши многие тысячи соединений, даже если мы используем bind.



Следующий вопрос – accept mutex. Что, вообще, такое accept mutex? Это такая ручка для борьбы с проблемой thundering herd. Если у вас есть listen-сокет и много процессов, все процессы ждут событий на этом listen-сокете, т.е. ждут, пока придет клиент. Вот, клиент приходит, все процессы ждут, ядро все процессы разбудило. Клиент один, какой-то один процесс его забрал, а все остальные проснулись просто так, просто потратили процессор, погрели окружающий воздух, ничего полезного не сделали. Традиционный метод борьбы – это сказать только одному процессу, чтобы он слушал и ждал новых соединений, а все остальные пусть обрабатывают старые и о новых соединениях не беспокоятся.

Есть проблема с таким подходом. Ну, во-первых, у нас процессов не так много, чтобы это было как-то актуально, а, во-вторых, есть проблемы. Одну из проблем я показывал чуть раньше. Если мы забываем выключить accept mutex, то в наших тестах на количество соединений в секунду мы получаем полочку, которая никак не зависит от количества рабочих процессов, очень удивляемся. Ну, то есть, мы-то не удивляемся, потому что мы знаем, что это такое, а пользователи nginx зачастую удивляются, пишут нам письма с вопросами, иногда возмущенные, иногда публикуют бенчмарки про то, какой nginx плохой. Ну, в общем, нас это утомило – очень долго объяснять и бессмысленно, главное, потому что процессов так мало, вполне можно обойтись без всего этого.

Кроме того, accept mutex нельзя использовать на Windows, потому что на Windows у нас недопрограммирована нормальная работа с сокетами. Если вдруг вы запустили несколько рабочих процессов и включили accept mutex, то на Windows у вас все просто встанет колом. Точнее, сейчас не встанет, потому что accept mutex на Windows принудительно выключен и игнорируется. Даже если вы попытаетесь его включить, он все равно не включится.

При использовании listen reuseport accept mutex не нужен, потому что у каждого рабочего процесса свой listen-сокет. И, наконец, на свежих версиях Linux в ядре появился флаг EPOLLEXCLUSIVE, который позволяет сказать ядру, чтобы оно будило не все процессы, а только один. Это не для всех программ допустимо, потому что у вас может случиться какая-то другая активность, т.е. процесс разбудят, а он пойдет чем-то другим заниматься. В nginx это вполне работает. Так что мы accept mutex по умолчанию выключили, EPOLLEXCLUSIVE теперь поддерживаем.



Так что если у вас совсем свежий Linux, вы ничего не потеряли, у вас сплошные плюсы, если у вас не Linux или что-то чуть более старое, то вы, в общем, тоже ничего не потеряли, у вас сплошные плюсы, потому что если вы будете запускать какие-нибудь бенчмарки, вы увидите реальное поведение системы, а не поведение accept mutex.



Следующий вопрос – SSL и сертификаты. SSL – это такая штука, где большая часть времени тратится на handshake. И handshake сводится к тому, чтобы проверить подлинность сертификата. Сертификаты бывают современные – RSA и ECDSA, т.е. на эллиптических кривых. RSA – это хорошо, но дорого, а эллиптические кривые – это быстро и, в общем, тоже хорошо, но не везде работает. В частности, не работает на Windows XP. Как показывают всякие сервисы статистики, Windows XP сейчас все еще от 5 до 10%. Так что, если переключитесь на ECDSA-сертификаты, вам будет несчастье, вы 5% клиентов потеряете. Наверное, если вы большая компания, вы себе не можете этого позволить.

Что делать? Вот циферки (на слайде). Запускаем по SSL speed, видим, что двухкилобитный RSA дает 400 подписей на ядре, мы можем сделать, а ECDSA – 5000 с лишним, и это не предел на самом деле. Это циферки от достаточно старой версии ОpenSSL. Конечно, когда вы поставите перед этим еще forward secrecy, все немножко ухудшится. На реальных handshake’ах с nginx циферки немного не такие впечатляющие, но все равно 300 handshake’ов в секунду в случае RSA, 1000 handshake’ов в секунду на ядре – в случае ECDSA. Рост в три раза.

То, что хочется получить, теперь мы умеем делать так. Вы можете сказать nginx’у: «Вот тебе два сертификата, работай с ними», и nginx их по мере необходимости будет предъявлять клиенту. Если клиент новый и умеет ECDSA, будет использоваться ECDSA, все будет быстро. Если клиент старый, то для него будем использовать RSA.



Кроме того, в SSL теперь можно задавать несколько кривых одновременно, если у вас достаточно свежая OpenSSL. По умолчанию, если раньше был prime256v1, теперь загадочное слово «auto». «Auto» зависит от того, какая именно версия OpenSSL у вас используется. В совсем свежем сначала будет кривая бернштейновская 25519, потом тот же самый prime256v1, который был раньше по умолчанию. Настоятельно рекомендую не трогать, просто имеет смысл знать, что такая ручка есть. Но трогать не надо.

dhparam – параметры для Диффи-Хеллмана обычного классического. По умолчанию мы теперь не предоставляем. Если раньше внутри nginx были защиты килобитные параметры, то теперь их нет, и по умолчанию у вас DHE-шифры, т.е. forward secrecy с использованием Диффи-Хеллмана выключены. Это на самом деле хорошо, потому что они медленные по сравнению с эллиптическими кривыми и есть все основания полагать, что существуют атаки даже на достаточно большую битность, потому что они поддаются предпросчету.



В динамических модулях существуют проблемы. В той реализации, которая в стабильной версии сейчас, проблема связана с тем, что структуры в nginx зависят от опции сборки. Nginx, если ему чего-то там не нужно, он это что-то из структуры убирает, позволяет сделать структуру поменьше, а nginx побыстрее. Это приводит к тому, что если вы собираете модуль, то собирать его нужно с теми же самыми опциями сборки, что и основной nginx, куда вы этот модуль собрались грузить.

В ситуации сборки пакетов это работает нормально. Когда вы собираете основной nginx и к нему множество пакетиков с разными модулями, вы можете контролировать опции сборки и собрать все одинаково. Это не всегда удобно, когда вы хотите свой модуль для каких-то произвольных пакетов подсобрать. Можно, но не всегда удобно. И, опять же, под каждую сборку nginx вам приходится делать свою сборку модуля. Теперь у нас есть специальная опция configure --with-compat, которая включает режим совместимости при динамической загрузке модулей, и все соответствующие поля, вне зависимости от опций сборки, в структурах nginx присутствуют. Соответственно, модули и nginx становятся бинарно совместимыми, даже если вы какие-то опции сборки поменяли, главное, чтобы среди опций был with-compat, тогда вы можете собрать свой модуль и загрузить в любой другой nginx, собранный тоже с опцией with-compat.

Кроме того, теперь можно так собирать модули и грузить их в наш коммерческий продукт NGINX Plus. Если раньше из-за той же самой проблемы собрать модули для NGINX Plus вы сами не могли, потому что там структуры другие внутри были, то теперь можете собрать сами свои модули и загрузить в наш коммерческий NGINX Plus.



И всякое разное по мелочи:

  • EPOLLRDHUP на Linux. Теперь мы умеем на него полагаться, если видим, что ядро свежее, это экономит syscall’ы при детектировании, а не закрыл ли клиент соединение.
  • HTTP/2 улучшаем, дополняем.
  • Map научился работать с произвольными комбинациями переменных и строк.
  • Для злопамятных людей появилась переменная $request_id, которая может использоваться для идентификации конкретного запроса.

Все это есть в 1.11.5. И разработка продолжается.



Свежий nignx можно скачать у нас на сайте. Если вы используете FreeBSD, можно поставить из портов, если вы используете Linux, то системные пакеты, скорее всего, у вас старые, хотя последнее время ситуация слегка улучшается. Мы предоставляем собственную сборку. Можно взять у нас на сайте. Для модулей, которые имеют внешние зависимости, у нас теперь отдельные пакеты с внешними зависимостями.

Спасибо за внимание!

Контакты


» mdounin@mdounin.ru
» Блог компании Nginx

Этот доклад — расшифровка одного из лучших выступлений на профессиональной конференции разработчиков высоконагруженных систем HighLoad++.

Сейчас мы уже вовсю готовим конференцию 2017-года — самый большой HighLoad++
в истории. Если вам интересно и важна стоимость билетов — покупайте сейчас, пока цена ещё не высока!
Поделиться с друзьями
-->

Комментарии (45)


  1. Taciturn
    26.07.2017 20:40

    Известно что вы ненавидите Windows и её пользователей, из-за чего не поддерживаете больше одного worker'а и ввели лимит на 1024 соединения. Нет ли у вас планов перестать ненавидеть пользователей Windows и убрать искусственный лимит числа соединений?


    1. TimsTims
      26.07.2017 22:54
      +1

      По-моему здесь публиковалась статья, в которой раскрывалась причина 1го воркера, если мне не изменяет память связанного с блокировками i/o. И там же автор делал большую доработку ядра, чтобы обойти это ограничение.


      1. Taciturn
        26.07.2017 23:14
        +2

        Так ведь в моём комментарии ссылка именно на эту статью. Там же про искусственность ограничения в 1024 соединения написано.


      1. crea7or
        27.07.2017 00:31

        Какими блокировками? На IOCP чуть ли не лучшая реализация асинхронности для сокетов делается. Тут как раз была статья разработчика nginx, который ничего про IOCP не знает и не хочет.


        1. Serge78rus
          27.07.2017 09:40
          +7

          Только чтобы использовать преимущества этой чуть ли не лучшей реализации, архитектура приложения должна быть изначально заточена именно под нее. А это будет уже совсем другой продукт. Лучше иметь действительно хороший сервер под POSIX системы, чем так себе, но универсальный. Другой вопрос — почему до сих пор нет чего-либо подобного nginx, изначально написанного под Windows, но это уже совсем другая история…


          1. symbix
            27.07.2017 17:34
            +2

            Почему же нет? Есть, IIS называется.


            1. Serge78rus
              28.07.2017 09:27

              Я бы IIS сопоставлял скорее с apache, а не с nginx. Хотя мое тесное общение с IIS остановилось на уровне 2003 сервера.


              1. mayorovp
                28.07.2017 09:52

                IIS не похож ни на Apache, ни на nginx. Совершенно другой принцип как конфигурации, так и работы с сетью.


                1. Serge78rus
                  28.07.2017 12:04

                  Согласен, но я говорил не про похожесть, а про позиционирование продукта. Хотя, для меня лично, IIS и apache были похожи тем, что могли взаимодействовать с пользовательскими расширениями по ISAPI.


          1. crea7or
            27.07.2017 21:52

            Ну не так уж сильно он от kqueue отличается, на мой взгляд.


          1. PsyHaSTe
            02.08.2017 13:51

            Serge78rus Kestrel?


            Лучше иметь действительно хороший сервер под POSIX системы, чем так себе, но универсальный.

            Да почему "или-или"? Ребята справляются.


            1. Serge78rus
              03.08.2017 08:38

              Ребята, конечно, справляются. Огромное спасибо им за это. Но давайте взглянем на их труд, так сказать, вооруженным взглядом (sloccount). Вот результаты по директориям проекта:

              src/

              Total Physical Source Lines of Code (SLOC) = 1,522
              Development Effort Estimate, Person-Years (Person-Months) = 0.31 (3.73)
              (Basic COCOMO model, Person-Months = 2.4 * (KSLOC**1.05))
              Schedule Estimate, Years (Months) = 0.34 (4.12)
              (Basic COCOMO model, Months = 2.5 * (person-months**0.38))
              Estimated Average Number of Developers (Effort/Schedule) = 0.90
              Total Estimated Cost to Develop = $ 41,993

              src/unix

              Total Physical Source Lines of Code (SLOC) = 13,355
              Development Effort Estimate, Person-Years (Person-Months) = 3.04 (36.49)
              (Basic COCOMO model, Person-Months = 2.4 * (KSLOC**1.05))
              Schedule Estimate, Years (Months) = 0.82 (9.81)
              (Basic COCOMO model, Months = 2.5 * (person-months**0.38))
              Estimated Average Number of Developers (Effort/Schedule) = 3.72
              Total Estimated Cost to Develop = $ 410,741

              src/win

              Total Physical Source Lines of Code (SLOC) = 16,774
              Development Effort Estimate, Person-Years (Person-Months) = 3.86 (46.35)
              (Basic COCOMO model, Person-Months = 2.4 * (KSLOC**1.05))
              Schedule Estimate, Years (Months) = 0.90 (10.74)
              (Basic COCOMO model, Months = 2.5 * (person-months**0.38))
              Estimated Average Number of Developers (Effort/Schedule) = 4.32
              Total Estimated Cost to Develop = $ 521,807

              То есть большая часть кода для платформ unix и win не пересекается. О чем я и пытался сказать в своем комментарии.


              1. PsyHaSTe
                03.08.2017 12:06

                Ок, не пересекается. Но теперь можно взять эту либу (написанную один раз) и использовать. Это ничем не отличается от написания своих врапперов. Собственно это оно и есть. Просто системы довольно сильно отличаются. Но суть та же.


                А вообще я отвечал на кусок


                Другой вопрос — почему до сих пор нет чего-либо подобного nginx, изначально написанного под Windows, но это уже совсем другая история…

                Он есть. Точнее, под libuv, но зачем писать что-то под платформу, когда можно писать кроссплатформенно, не теряя ничего.


                1. Serge78rus
                  03.08.2017 15:41

                  А я сейчас отвечал на

                  Да почему «или-или»? Ребята справляются.


                  1. PsyHaSTe
                    03.08.2017 15:53

                    Что там пересекается или нет — деталь реализации. Раз есть удобный и быстрый интерфейс для кроссплатформенной работы, грех им не пользоваться.


                    1. Serge78rus
                      03.08.2017 20:13

                      Да я с Вами согласен, сам довольно часто пользуюсь кроссплатформенной библиотекой POCO. Но изначальная статья об nginx, а он написан не поверх libuv, и заставить его работать под Windows так же, как и под Linux — это переписать с нуля с кучей #ifdef и прочей подобной «радости»


    1. Ivan_83
      27.07.2017 02:36
      +18

      Пользователи венды должны страдать!

      На самом деле, чтобы понять почему nginx и многое другое ещё оч долго не будет работать на венде так же хорошо как под бсд и линуксом нужно разбираться в том, как именно всё работает в разных системах.

      Я оставлю в стороне то, что венда платная и в ней многих сетевых и ядерных фич нет и не будет, я расскажу про то почему лично я свой код не портирую под венду.

      Итак.
      У нас есть бсд/линукс.
      Мы берём сокет, помечаем его как неблокирующий (если мы не читали доки, если читали то сразу создаём такой и экономим целый сискол), далее мы его или слушаем или конектим и цепляем к kqueue()/epoll() на чтение/запись (чтобы получать события что из него есть что читать/можно записать) и уходим спать/заниматься другими делами.
      Происходит событие на сокете, мы берём наш любимый буфер (он может быть скажем статический для потока, потому что поток всё равно одновременно читает только с одного сокета и для многих задач это ОК или он может быть привязан к сокету и там прочитанные/не отправленные данные с прошлого раза) и скармливаем его и сокет в recv()(read/recvfrom...), потом смотрим результат (можно сказать копирования из ядра в наш буфер) и… в общем уже не важно.
      Важно только то, что у нас есть буфер сокета в ядре в котором данные могут лежать пока мы не захотим их прочитать.
      Или наоборот, мы можем навалить туда своих данных на отправку и забить — освободить свой буфер/занять его другим.

      И вот это более менее одинаково работает в бсд и линухе и каких то ещё ос.
      У меня ушло примерно 1к+ строк кода на си чтобы абстрагироваться от kqueue()/epoll()+timer_fd() ну и в обвязке ещё немного ifdef __linux__.

      И вот торжественный момент: куча кода написана, всё великолепно работает на бсд и линухе (ну может ещё под другими ос, но мне не интересно, потому промолчу).

      Теперь смотрим на виндуст — как бы там тоже взлететь.
      Самое крутое что там есть это конечно IOCompletionPort. Только одна беда: ему нужно буфера передавать при постановке задания на в/в, там типа нет внутренних буферов в сокете где данные могут валятся пока нам не вздумается их прочитать. (В netmap, dpdk такая же идеология, но там оно сразу и понятно для чего)
      Это конечно хорошо, типа никакого лишнего копирования (может быть — хз что там в ядре и дровах), но у нас уже куча отлично работающего и оттестированного кода под совсем другую модель управления буферами/данными.
      Ну и я промолчу про ушлёпские WSA* которые придётся где то по дальше оборачивать вместе со всеми их параметрами.
      Кроме этого есть традиционный select() (кажется как раз там лимит в 1024 дескриптора), но он жутко медленный и неудобный, гугль в помощь почему.
      Есть WSAASyncSelect(), он вроде как не плох, и я даже видел один IO двигло универсальный который как раз его и использовал под вендой, но ему нужно создавать окно и ловить эвенты фактически как оконные сообщения. Зато с таймерами вроде проблемы нет. Выглядит это несколько костыльно. И хз как оно будет под нагрузкой.
      Есть WSAPoll() про который видимо знает не так много людей, и в котором есть бага которую МС чинить не будет, теперь это фича для совместимости.
      Ещё было что то про оверлаппед/мьютексы но там вроде как также проблема что и в IOCP — зерокопи и буфера сокетов отсутствуют.

      Резюмируя.
      1. Под вендой нет годного, рабочего и адекватного механизма работы с сокетами совместимого по логике с kqueue()/epoll()/poll(). Что то есть, но оно либо тормозное либо с багами, либо про него мало кто что знает/примеров нет, хз какие там грабли.
      2. Сильно отличающиеся названия функций и параметров: обычные connect()/socket() окаменели а WSA* нужно ещё как то оборачивать. А параметров у них ощутимо больше.
      3. Дофига отличий при работе с теми же файлами: я и про обратные слеши, и про регистр и про файловые потоки и пр. Ещё дофига отличий в работе с памятью, да и вообще всё очень другое / не похожее. Правильно накорябать службу со всеми обвязками в виде счётчиков производительности и wmi и всякими прочими рюшками это достойно отдельного проекта, уж больно там дохрена обвязки выходит, и не тривиальной.
      4. Нафига вообще было начинать делать под венду я не знаю, видимо академический интерес / проверить свои силы. Уверен что если где то внутри и есть ngx_socket()/ngx_close() то только из за венды.
      5. Не понятно зачем это всё делать. В смысле к чему убивать кучу времени и сил на портирование, когда нормальные люди всё равно ставят бесплатный линукс, а вендузятники один хер ничего не купят и будут ныть что у них ничего не работает, притом в 95% потому что они сами виноваты. Ну и даже если сделать, всё равно оно будет без как либо интересных фич, ибо их в системе нет.
      Ну и про отладку отдельная песня: если под линухом/бсд можно и ядро пропатчить и посмотреть что за херня, то под виндой чтобы только посмотреть нужно оч постараться.

      2 crea7or
      апач умеет IOCP ещё с лохматых времён (10+ лет).

      Будь мужиком: собирай nginx сам из портов с нужными опциями!


      1. PsyHaSTe
        02.08.2017 13:56

        Ivan_83 Ну я выше ссылку вот дал, вроде и кроссплатформенное, и быстрое. Как-то сделали же?


        1. Ivan_83
          03.08.2017 00:56

          Да я в курсе что есть libevent, libuv, boost и хз что ещё.
          Когда я смотрел первые две то не увидел того что мне было нужно. То ли плохо смотрел, то ли не было этого там.
          Плюс такая либа это довольно большой кусок не только кода но и идеологии: наименования, подходы, стили и прочее.
          Ещё эти либы несут с собой и риски: однажды их могут забросить или поменять АПИ/АБИ без обратной совместимости, сменить лицензию или что то ещё.

          Что же касается скорости — далеко не факт.
          Если мне потребуется ускорить какой то оч нужный мне сценарий работы то я могу у себя сделать что угодно, а вот с такой либой я ничего сделать не смогу.
          Даже больше, возможно даже ситуация когда в либе будет баг но фикс не возьмут, без него жизни нет и придётся таскать либу с собой и как то юзать её если в системе она уже есть но без фикса.

          К примеру, у меня самописный http сервер умет использовать accept фильтры под фрёй и какой то костыль под линухом, суть такова что под фрёй у меня accept() возвращает сокет когда уже из него можно вычитать сразу запрос целиком, а под линухом когда просто есть что то для чтения.
          Или вот упомянутый выше reuseport — у меня оно тоже есть.
          Я стараюсь все вкусняшки которые есть в nginx и у себя делать (если они мне полезны) и у меня это получается.


          1. PsyHaSTe
            03.08.2017 01:07

            Что же касается скорости — далеко не факт.
            Если мне потребуется ускорить какой то оч нужный мне сценарий работы то я могу у себя сделать что угодно, а вот с такой либой я ничего сделать не смогу.

            Тогда по заветам Алана Кея и железо под себя делать надо :) А то там подкрутить в процессоре чужом тоже ничего не получится.
            Учитывая бенчи майкрософта вполне на уровне nginx работает kestrel на базе как раз libuv. Что на линуксах, что на винде. Ну и в плане мейнейнерства майкрософт вряд ли вложился бы в технологию-однодневку, и при любом раскладе у нас есть ментейнер, который будет это дело развивать. В случае изменения лиценхзии, то довольно редкое событие, всегда можно ответить такой операцией, как форк. Очень удобно.


    1. Zonzen
      27.07.2017 09:21
      +10

      web-сервер на windows? Вы шутите?


      1. varnav
        27.07.2017 14:22
        +2

        сам по себе web-сервер на windows — не редкость, в виде IIS.
        Вопрос зачем нужен nginx на windows


    1. Evengard
      27.07.2017 11:44

      Linux subsystem on Windows (тот который на Windows 10) вам в помощь. Это конечно не решает все проблемы, но хоть какое-то решение.


      1. Taciturn
        27.07.2017 12:05
        +1

        Я не прощу решать какие-то проблемы, давным давно существует форк nginx в котором всё поправлено. Я не прошу начать собирать nginx под Windows, это и так уже делается, сборки доступны на оф. сайте. Я не прошу ничего менять. Меня интересовал исключительно искусственный лимит на число соединений — как следует из ссылки на статью, которую я привёл, это просто число в исходниках, которое меняется без каких либо сложностей.


        1. mayorovp
          27.07.2017 13:15
          +1

          Этот лимит вообще-то прописан в системных заголовочных файлах...


        1. mdounin
          27.07.2017 14:49
          +2

          Лимит на число соединений при использовании select(), он же FD_SETSIZE, задаётся, к сожалению, только при компиляции. И при этом влияет на скорость любого вызова select(), т.к. битовые массивы соответствующего размера приходится копировать между приложением и ядром.


          Значение по умолчанию для FD_SETSIZE на Windows — 64, что совсем смешно. При сборке бинарников, выкладываемых на nginx.org, мы ставим FD_SETSIZE в 1024, что выглядит разумным компромиссом между скорость и количеством возможных соединений. Особенно учитывая, что основная задача nginx/Windows — это тестирование.


          Если этого мало — можно пересобрать из исходников с любым устраивающим вас значением (инструкция по самостоятельной сборке — тут). Или прислать патч, меняющие значение, используемое при стандартной сборке, как-то обосновав новое значение. Тут важно понимать, что лимит — всё равно будет, ибо select(). Вопрос только — какой именно, и что это будет означать с точки зрения производительности.


  1. Hint
    26.07.2017 21:36

    Подскажите, есть ли простой способ включить http2 с ALPN для современных браузеров на CentOS 7? Nginx из официального репозитория.


    1. larrabee
      26.07.2017 22:46
      +3

      Да. Скачать SRPM, подредактировать его (включить статическую сборку с нужной версией openssl, добавить или удалить плагины и тд) и настроить автоматическую сборку и свой репозиторий. Звучит страшно, но работы на пару часов.
      Плюс подхода в возможности иметь nginx с нужной версией openssl не трогая системную либу и в возможности кастомизировать пакет.
      Как более легкий вариант- использовать docker с ОС, в которой нужная версия openssl.


    1. IlyaEvseev
      27.07.2017 19:59

      Мы собираем Nginx под CentOS 7 с поддержкой http2.
      Но нашу сборку надо использовать осторожно, т.к. много стандартных модулей отключено и много нестандартных добавлено.
      Устанавливается так:
      yum install http://repo.docker.ru/pub/linux/centos/7/noarch/docker-release-1-1.el7.noarch.rpm
      yum install cdnnow-nginx


  1. crea7or
    27.07.2017 00:34

    А есть планы собирать Real_IP по умолчанию и грузить его динамически? На freebsd жуткая боль в жопе от того, что пакет идёт без него и приходится тянуть один только nginx из портов.


    1. rdc
      27.07.2017 01:46

      разве?

      # nginx -V
      nginx version: nginx/1.12.1
      built with OpenSSL 1.0.2k-freebsd 26 Jan 2017
      TLS SNI support enabled
      configure arguments: … --with-http_realip_module …


      1. crea7or
        27.07.2017 01:54

        Ну у меня так же, только из портов и выбран real_ip при конфиге, даже в доках написано, что по умолчанию не собирается. Есть какой-то пакадж, который вообще всё содержит, но как-то его ставить, чтобы был только один этот к стандартному набору…


        1. rdc
          27.07.2017 01:57
          +1

          но пакет nginx собран с ним)


          1. crea7or
            27.07.2017 21:50

            Вот ведь, полез проверять — и вправду собран с ним! С апреля включили в поставку. Спасибо!


    1. mdounin
      27.07.2017 18:10

      Грузить динамически — точно нет. Собирать по умолчанию — возможно, в рамках оптимизации политики "что мы собираем по умолчанию", она сейчас получается сильно отличающейся от того, что мы же собираем в пакетах.


  1. nikitasius
    27.07.2017 11:54
    +3

    Впечатлений как от Плейбоя! Спасибо!


  1. IlyaEvseev
    27.07.2017 19:29
    +2

    Вопрос по reuseport. Написано «Работает на Linux’е не очень хорошо».
    Имеется в виду только указанная дальше потеря соединений при уменьшении количества рабочих процессов?
    Или что-то ещё?


    1. mdounin
      27.07.2017 22:53

      Да, имеется в виду потеря соединений при закрытии сокетов, и соответственно при уменьшении количества рабочих процессов. Как недавно выяснилось, это приводило также к потере соединений при тестировании конфигурации, но этот негативный эффект легко исправить (и уже).


  1. stranger777
    27.07.2017 21:45
    -1

    Вы знаете, учителя делятся на две категории: одни пишут учебники, чтобы показать, какие они умные, другие — чтобы научить. Так вот, для того, чтобы людям была понятнее «идемпотентность» (а не лезли люди в словарь, изучая конфиг nginx), можно было написать

    strong_equivalence
    — что, согласитесь, с одной стороны интуитивно понятнее, а с другой не заставляет лезть в словарь и является сущностным переводом этого термина на «русский понятный».


    1. mdounin
      27.07.2017 23:16
      +3

      А при чём тут strong_equivalence, и что именно вы понимаете под этими словами? Ведь не strong equivalence principle же?


      Что такое идемпотентность — известно из математики, и явно описывается в стандарте HTTP. А чтобы не лазить в словарь, мы и в документации описали.


    1. Nikita_Danilov
      29.07.2017 20:46

      Честно говоря, тот факт, что в аудитории сидело много людей так или иначе связанных с вебом/бэкендом, а что такое идемпотентность знало лишь трое — меня несколько… смущает.
      Странно это, лезть в словарь чтобы посмотреть одно из базовых определений стандарта HTTP (как выше написали к тому же и из математики).


      1. symbix
        30.07.2017 00:17

        Вообще говоря, корректнее говорить про safe method.
        Идемподентность не всегда возможна, разумеется, да и в rfc речь идет о "CAN", когда про safe method MUST.
        Например, файл мог измениться. Или это метод, который отдает текущее время.


      1. alekciy
        31.07.2017 10:34

        Мне вот кажется, что если бы сказали «детерминированность», то рук было бы больше. Не синоним, но близко.


  1. stranger777
    28.07.2017 00:45

    Спасибо за ответ.
    Имею в виду сущность слова, от лат. idem – тот же самый и potens – сильный, мощный; букв. – равносильность, но, конечно, правда ваша, конфигу лучше быть описанным в терминологии стандарта.
    Когда встретил это слово в конфиге, пришло в голову именно при помощи словаря искать суть, потому что гугл выдал примерно это:

    Скриншот


  1. annenkov
    28.07.2017 09:21

    С точки зрения веб-разработки из последних нововведений особенно порадовал $request_id, как говорится мелочь, а приятно :) Спасибо за него, для логирования и разбора полетов вещь крайне полезная и наконец-то из коробки, а не с помощью костылей.