Привет, Хабр! К написанию статьи меня подтолкнуло знакомство с механизмом socket activation в Linux, на который я случайно наткнулся и не смог пройти мимо. Технология старая, но заслуживает большого внимания, а моя статья раскрывает одно из множества потенциальных практических применений.

Говоря кратко, socket activation позволяет не держать сервис запущенным постоянно. Вместо этого systemd держит открытым только сокет, а как только на него прилетает TCP-пакет, мгновенно поднимает нужный процесс, передавая ему входящее соединение (файловый дескриптор). Для пользователя всё выглядит прозрачно: пакет ушёл и дошёл куда нужно, даже если целевой сервис изначально не был запущен.

В качестве примера использования в статье я опишу SSH-туннель по требованию, который поднимается в момент первого обращения и гасится сам, когда трафик затихает.

Кстати, короткоживущий туннель оставляет куда меньше следов в сетевом трафике, чем постоянное соединение, что может быть полезно в некоторых ситуациях (вы знаете, в каких), где желательно избежать паттерна долгого keepalive.

А теперь о реализованной задаче.

Задача банальная, а готового решения нет

Нужно прокинуть порт с удалённого сервера на локальную машину, но так, чтобы туннель не висел постоянно. База данных, админка, любой иной сервис, где туннелирование по SSH разумно — без разницы.

Что я перепробовал:

  • ssh -L работает до первого дисконнекта, закрыл крышку ноутбука — туннель умер, открыл — поднимай туннель руками снова.

  • autossh или bash + cron плодят зомби-процессы и держат соединение, которое висит круглосуточно, хотя реально нужно лишь периодически.

  • WireGuard, OpenVPN и другие полноценные VPN — часто это просто излишество.

Не нашёл элегантного решения — написал своё.

Почему не хотелось тащить что-то новое

Главный ориентир в моей карьере — технический прагматизм. Я не люблю плодить точки отказа и дополнительные сущности, которые нужно поддерживать (зачем тащить что-то лишнее в систему, если базовые инструменты Linux умеют всё из коробки?) bash, OpenSSH и systemd умеют всё необходимое. Надо только правильно их скомбинировать.

Готовую утилиту, реализующую этот подход, я выложил на GitHub в виде проекта ondemand-ssh-tunnel.

Как это работает

Я взял то, что уже есть в любом современном дистрибутиве Linux, — systemd. А конкретно — механизм socket activation.

Жизненный цикл соединения

[systemd слушает порт] -> [Входящий TCP-запрос] -> [systemd будит сервис]
         ↑                                                  ↓
[Сервис убивается]                                 [SSH-туннель поднят]
         ↑                                                  ↓
[Таймаут бездействия]  <-----------------------    [Трафик проксируется]

Давайте взглянем на сокет

Файл: ssh-odt@.socket:

[Unit]
Description=On-Demand SSH Tunnel Socket (%i)

[Socket]
ListenStream=@LISTEN_ADDRESS@:@LISTEN_PORT@
FreeBind=yes
ReusePort=yes
Accept=no
TriggerLimitIntervalSec=10s
TriggerLimitBurst=5000
MaxConnections=20000
Backlog=2048

[Install]
WantedBy=sockets.target

Разберём каждую строку:

ListenStream=@LISTEN_ADDRESS@:@LISTEN_PORT@ Адрес и порт, которые systemd будет слушать. Подставляются из конфига при установке. Именно сюда прилетает первый пакет, который будит туннель.

FreeBind=yes Позволяет сокету подняться, даже если указанный адрес ещё не назначен интерфейсу. Полезно при старте системы — сокет не упадёт, если сеть ещё не поднялась.

ReusePort=yes Разрешает нескольким сокетам слушать один порт. На практике это ускоряет перезапуск — новый сокет поднимается до того, как старый окончательно закрылся.

Accept=no Ключевой параметр socket activation. При no systemd передаёт сокет целиком в сервис… Так как сам клиент ssh не умеет напрямую работать с такими сокетами, мы будем использовать прослойку systemd-socket-proxyd (о ней — в разборе .service файла).

TriggerLimitIntervalSec=10s и TriggerLimitBurst=5000 Защита от шторма соединений. Если за 10 секунд прилетит больше 5000 активаций — systemd притормозит. На практике это никогда не срабатывает, но без этого параметра при DDoS сервис будет перезапускаться в петле.

MaxConnections=20000 Максимум одновременных соединений на сокет. Для локального проброса порта это потолок, который вы никогда не достигнете — но явно лучше, чем системный лимит по умолчанию.

Backlog=2048 Размер очереди TCP-соединений, ожидающих принятия. Пока сервис поднимается, входящие пакеты не теряются — они ждут в этой очереди.

WantedBy=sockets.target Сокет запускается вместе с остальными сокетами системы — до того, как поднимутся обычные сервисы. Туннель будет доступен с первых секунд после загрузки.

«Капкан» расставлен

Сейчас systemd висит на порту и ждёт первого TCP-пакета.

Что происходит дальше? Как только пакет прилетает, systemd автоматически ищет .service-файл с точно таким же именем (в нашем случае это ssh-odt@.service) и запускает его, передавая ему управление.

И вот здесь кроется главная хитрость. Обычный консольный клиент ssh не умеет напрямую подхватывать открытые сокеты от systemd, и если мы просто укажем запуск ssh в сервисе, то ничего не сработает, а трафик потеряется.

Чтобы подружить их, мы используем прослойку — systemd-socket-proxyd. Эта утилита из комплекта systemd берёт трафик из нашего сокета и проксирует его на локальный порт, который уже держит поднятый SSH-туннель.

Как выглядит наш сервис

Чтобы не городить сложную логику прямо в unit-файле, я написал bash-скрипт, который поднимает и сам SSH-туннель, и systemd-socket-proxyd. Вызов этого скрипта мы положим в наш сервис.

Взглянем для начала на файл ssh-odt@.service:

[Unit]
Description=On-Demand SSH Tunnel Service (%i)
After=network-online.target
Wants=network-online.target
Requires=ssh-odt@%i.socket
BindsTo=ssh-odt@%i.socket

[Service]
Type=simple
User=root
StandardOutput=journal
StandardError=journal

ExecStart=/usr/local/bin/ssh-odt.sh %i
ExecStopPost=/bin/sh -c 'sleep 1; systemctl start ssh-odt@%i.socket 2>/dev/null || true'

SuccessExitStatus=0 1 255

Restart=on-failure
RestartSec=2s

TimeoutStartSec=60s
TimeoutStopSec=15s

KillMode=mixed
KillSignal=SIGTERM
SendSIGKILL=yes

LimitNOFILE=102400
LimitNPROC=4096
PrivateTmp=no

Отмечу наиболее важные моменты, без которых всё может работать не так как хотелось бы, а результат не достигнут:

BindsTo=ssh-odt@%i.socket Жестко привязывает жизнь сервиса к сокету. Если падает сокет, падает и сервис.

SuccessExitStatus=0 1 255 SSH иногда завершается с кодом 255 при дисконнектах или таймаутах. Мы говорим systemd, что это нормальная ситуация, чтобы сервис не помечался как failed (красным в логах).

ExecStopPost=… — Это главная фишка самовосстановления! Когда наш скрипт (и туннель) завершает работу по таймауту бездействия, эта строчка через секунду заново активирует сокет, который снова готов ловить новые пакеты. Без этой строчки туннель отработает только один раз.

Разберём логику вызываемого скрипта

Я не буду приводить весь скрипт с проверками переменных и логированием (полный код можно посмотреть под спойлером ниже). Разберём только три ключевых механизма, на которых всё держится.

Поднятие самого SSH-туннеля

Мы используем стандартный клиент ssh, но с обвесом из полезных флагов, чтобы он работал как надёжный демон.

# ...
SSH_OPTS=(
    -N # Не выполнять удаленные команды, нужен только проброс портов
    -o "ExitOnForwardFailure=yes" # Упасть, если порт на той стороне занят
    -o "ServerAliveInterval=15"   # Защита от зависания TCP-сессии
    -o "ControlMaster=yes"        # Мультиплексирование для быстрого закрытия
    -o "ControlPath=${CONTROL_SOCKET}"
)

/usr/bin/ssh "${SSH_OPTS[@]}" \
    -L "${TUNNEL_BIND_ADDRESS}:${TUNNEL_LOCAL_PORT}:${TARGET_HOST}:${TARGET_PORT}" \
    "${REMOTE_USER}@${REMOTE_HOST}" &

SSH_PID=$! # Запоминаем PID туннеля

Запуск прокси-прослойки

Туннель поднят и слушает локальный порт, например, 18443 (на самом деле любой свободный, так как это для внутреннего использования). Теперь нужно передать в него трафик из сокета, который открыл systemd.

# Важный нюанс: systemd передает файловые дескрипторы сокета процессу через 
# переменную $LISTEN_PID. Так как наш bash-скрипт является родителем, 
# мы должны явно подменить $LISTEN_PID на PID самого proxyd, иначе он не подхватит сокет!

LISTEN_PID=$BASHPID /usr/lib/systemd/systemd-socket-proxyd \
    "${TUNNEL_BIND_ADDRESS}:${TUNNEL_LOCAL_PORT}" &

PROXY_PID=$!

Мониторинг бездействия

Именно в этом файле можно организовать мониторинг бездействия и гашения соединения для возврата к прослушке сокета. Для проверки активности я использую простой бесконечный цикл, который раз в несколько секунд считает установленные соединения на нашем порту с помощью утилиты ss. Как только счетчик бездействия превысит лимит — скрипт завершает работу.

while true; do
    sleep "${CHECK_INTERVAL}"

    CURRENT_CONNECTIONS=$(ss -tn state established \
        "( sport = :${LISTEN_PORT} or dport = :${LISTEN_PORT} )" 2>/dev/null \
        | tail -n +2 | wc -l)

    if [[ "${CURRENT_CONNECTIONS}" -gt 0 ]]; then
        IDLE_COUNT=0 # Трафик есть, сбрасываем таймер
    else
        IDLE_COUNT=$((IDLE_COUNT + CHECK_INTERVAL))
        if [[ "${IDLE_COUNT}" -ge "${IDLE_TIMEOUT}" ]]; then
            break # Лимит достигнут — выходим, trap cleanup убьет процессы
        fi
    fi
done

Полный код

Скрытый текст
#!/usr/bin/env bash
#
# ssh-odt.sh — On-Demand SSH TCP tunnel entrypoint.
# Launched by systemd socket activation (ssh-odt@<instance>.service).
#
# Usage: ssh-odt.sh <instance-name>
#

set -euo pipefail

# --- Instance resolution ---
readonly INSTANCE="${1:?Usage: $0 <instance-name>}"
readonly CONFIG_DIR="/etc/ssh-odt.d"
readonly CONFIG_FILE="${CONFIG_DIR}/${INSTANCE}.conf"

if [[ ! -f "${CONFIG_FILE}" ]]; then
    echo "[$(date)] [${INSTANCE}] ERROR: config not found: ${CONFIG_FILE}" >&2
    exit 1
fi

# shellcheck source=/dev/null
source "${CONFIG_FILE}"

# --- Configuration defaults ---
: "${REMOTE_HOST:?REMOTE_HOST is required in ${CONFIG_FILE}}"
: "${REMOTE_USER:=root}"
: "${REMOTE_PORT:=22}"
: "${TARGET_HOST:=127.0.0.1}"
: "${TARGET_PORT:=443}"
: "${TUNNEL_BIND_ADDRESS:=127.0.0.1}"
: "${TUNNEL_LOCAL_PORT:=18443}"
: "${LISTEN_PORT:=8443}"
: "${SSH_KEY_PATH:=/root/.ssh/id_rsa}"
: "${IDLE_TIMEOUT:=120}"
: "${CHECK_INTERVAL:=10}"
: "${KNOWN_HOSTS_PATH:=/root/.ssh/known_hosts}"
: "${CONTROL_SOCKET_PATH:=/run/ssh-odt-${INSTANCE}-control}"
: "${PID_FILE_PATH:=/run/ssh-odt-${INSTANCE}.pid}"
: "${ACTIVITY_FILE_PATH:=/run/ssh-odt-${INSTANCE}-activity}"

# --- Logging helpers ---
log()     { echo "[$(date)] [${INSTANCE}] $*"; }
log_err() { echo "[$(date)] [${INSTANCE}] ERROR: $*" >&2; }

# --- Derived aliases ---
readonly SSH_DIR="$(dirname "${KNOWN_HOSTS_PATH}")"
readonly KNOWN_HOSTS="${KNOWN_HOSTS_PATH}"
readonly CONTROL_SOCKET="${CONTROL_SOCKET_PATH}"
readonly PID_FILE="${PID_FILE_PATH}"
readonly ACTIVITY_FILE="${ACTIVITY_FILE_PATH}"

# Track exit code across trap handler (EXIT trap fires on every exit path).
EXIT_CODE=0

mkdir -p "${SSH_DIR}"
chmod 700 "${SSH_DIR}"

# Pre-load host key if absent.
if ! ssh-keygen -F "${REMOTE_HOST}" -f "${KNOWN_HOSTS}" >/dev/null 2>&1; then
    log "Adding host key for ${REMOTE_HOST}..."
    ssh-keyscan -H -p "${REMOTE_PORT}" "${REMOTE_HOST}" >> "${KNOWN_HOSTS}" 2>/dev/null || true
fi

# --- Cleanup handler ---
cleanup() {
    log "Cleaning up..."
    ssh -S "${CONTROL_SOCKET}" -O exit dummy 2>/dev/null || true
    [[ -n "${PROXY_PID:-}" ]] && kill "${PROXY_PID}" 2>/dev/null || true
    rm -f "${PID_FILE}" "${ACTIVITY_FILE}" "${CONTROL_SOCKET}"
    exit "${EXIT_CODE}"
}
trap cleanup SIGTERM SIGINT SIGHUP EXIT

# Grace period for socket activation handoff.
sleep 0.5

# --- SSH options ---
SSH_OPTS=(
    -N
    -o "BatchMode=yes"
    -o "StrictHostKeyChecking=accept-new"
    -o "UserKnownHostsFile=${KNOWN_HOSTS}"
    -o "ServerAliveInterval=15"
    -o "ServerAliveCountMax=3"
    -o "TCPKeepAlive=yes"
    -o "ExitOnForwardFailure=yes"
    -o "ConnectTimeout=30"
    -o "ControlMaster=yes"
    -o "ControlPath=${CONTROL_SOCKET}"
    -p "${REMOTE_PORT}"
)

[[ -f "${SSH_KEY_PATH}" ]] && SSH_OPTS+=(-i "${SSH_KEY_PATH}")

# --- Start SSH tunnel ---
log "Starting tunnel: ${TUNNEL_BIND_ADDRESS}:${TUNNEL_LOCAL_PORT} -> ${REMOTE_HOST} -> ${TARGET_HOST}:${TARGET_PORT}"

/usr/bin/ssh "${SSH_OPTS[@]}" \
    -L "${TUNNEL_BIND_ADDRESS}:${TUNNEL_LOCAL_PORT}:${TARGET_HOST}:${TARGET_PORT}" \
    "${REMOTE_USER}@${REMOTE_HOST}" &

SSH_PID=$!
echo "${SSH_PID}" > "${PID_FILE}"

sleep 2

if ! kill -0 "${SSH_PID}" 2>/dev/null; then
    log_err "SSH process failed to start"
    EXIT_CODE=1
    exit 1
fi

# --- Start systemd-socket-proxyd ---
log "Starting socket proxy -> ${TUNNEL_BIND_ADDRESS}:${TUNNEL_LOCAL_PORT}"
LISTEN_PID=$BASHPID /usr/lib/systemd/systemd-socket-proxyd "${TUNNEL_BIND_ADDRESS}:${TUNNEL_LOCAL_PORT}" &
PROXY_PID=$!

log "Tunnel active (ssh=${SSH_PID}, proxy=${PROXY_PID})"
touch "${ACTIVITY_FILE}"

# --- Idle-timeout monitor ---
IDLE_COUNT=0

while true; do
    sleep "${CHECK_INTERVAL}"

    if ! kill -0 "${SSH_PID}" 2>/dev/null; then
        log "SSH process exited unexpectedly"
        break
    fi

    if ! kill -0 "${PROXY_PID}" 2>/dev/null; then
        log "Proxy process exited unexpectedly"
        break
    fi

    CURRENT_CONNECTIONS=$(ss -tn state established \
        "( sport = :${LISTEN_PORT} or dport = :${LISTEN_PORT} )" 2>/dev/null \
        | tail -n +2 | wc -l)

    if [[ "${CURRENT_CONNECTIONS}" -gt 0 ]]; then
        [[ "${IDLE_COUNT}" -gt 0 ]] && \
            log "Activity detected (${CURRENT_CONNECTIONS} conn), idle timer reset"
        IDLE_COUNT=0
        touch "${ACTIVITY_FILE}"
    else
        IDLE_COUNT=$((IDLE_COUNT + CHECK_INTERVAL))
        if [[ "${IDLE_COUNT}" -ge "${IDLE_TIMEOUT}" ]]; then
            log "Idle timeout (${IDLE_TIMEOUT}s) reached — shutting down"
            break
        fi
    fi
done

log "Tunnel exiting"

Что это даёт на практике

Проблема

autossh

ssh-odt

Туннель существует, даже когда не нужен

Да, держит соединение 24/7

Нет, гасится по таймауту бездействия

Туннель умирает при разрыве соединения

Надо настраивать keepalive

Переподнимается автоматически при следующем запросе

Ресурсы в простое

SSH-процесс висит всегда

Процесса нет, лишь сокет слушает порт

Зомби-процессы

Классическая проблема

Жизненным циклом управляет systemd

Мониторинг

Самописный

systemctl status из коробки

Мульти-инстанс: несколько туннелей независимо

В реальных проектах прокидывать нужно не один порт. В версии 2.0 добавлена поддержка нескольких независимых туннелей.

Установка и настройка

# 1. Создаём конфигурационный файл в /etc/ssh-odt.d
sudo bash install.sh install nyc3-sql-3306

# 2. Правим конфигурационный файл
# /etc/ssh-odt.d/nyc3-sql-3306.conf

REMOTE_HOST=relay.example.com
LISTEN_PORT=3306
TARGET_PORT=3306
TUNNEL_LOCAL_PORT=13306

# 3. Применяем — скрипт валидирует конфигурационный файл, рендерит юниты и запускает сокет
sudo bash install.sh install nyc3-sql-3306

Каждый инстанс полностью изолирован: свой процесс, свой таймер бездействия, свой сокет. Если упадёт один — остальные продолжат работать как ни в чём не бывало. Важно отметить, что первая и последняя команда — это не опечатки, первая команда создаёт конфиг, последняя его использует.

Почему этого не было раньше?

Честно — не знаю... Может, мы привыкли решать проблемы добавлением новых абстракций, а не использованием того, что уже есть под рукой, а может я сам придумал велосипед, поэтому туннель по требованию был никому и не нужен.

Для защищённого TCP-форварда не нужен VPN. Для поддержания туннеля не нужен отдельный демон. Достаточно bash, OpenSSH и systemd — инструментов, проверенных десятилетиями, которые уже лежат в вашей ОС.

Итого

  • Автоматический перезапуск при следующем обращении к сокету после разрыва

  • Автоотключение по таймауту бездействия

  • Мульти-инстанс: настройте столько портов и их целей, сколько хотите

  • Никаких новых зависимостей — только systemd и OpenSSH

GitHub (MIT)

Комментарии (33)


  1. phikus
    27.04.2026 06:51

    Что-то я так и смог придумать вменяемого юскейса. Довод "процесс висит даже когда не нужен" очевидно высосан из пальца


    1. lemix85 Автор
      27.04.2026 06:51

      Здравствуйте! Спасибо за комментарий, попробую ответить.

      Если рассмотреть socket activation более широко, то это возможность прозрачно для пользователя запустить сетевой сервис ровно в тот момент, когда он действительно понадобился (редко используемый веб-сервер или, например, тяжеловесный сервер LLM).

      Если говорить конкретно про SSH-туннелирование, то сегодня это наиболее надёжный способ выхода в мировой интернет. Подход on-demand позволяет не светить постоянным туннелем круглосуточно (появился трафик — туннель мгновенно поднялся и сам закрылся при простое).


      1. phikus
        27.04.2026 06:51

        Могли бы перефразировать техническим языком что значит "светить туннелем"?


        1. lemix85 Автор
          27.04.2026 06:51

          Постоянно открытый туннель является долгоживущим TCP-соединением, клиент вынужден регулярно обмениваться с сервером keepalive-пакетами. Я же предлагаю автоматизировать создание туннеля только на время когда нужно пустить по нему трафик.


  1. j_larkin
    27.04.2026 06:51

    Погодите, а разве в современной убунте не сокет за ссш отвечает? Там, вроде как, и так не процесс висит. Или я не правильно понял?


    1. netricks
      27.04.2026 06:51

      Ну так, сокет то кто-то должен открывать и читать... вот демон sshd этим и занимается. А он вполне себе процесс


      1. MiracleUsr
        27.04.2026 06:51

        Нет, там как раз systemd сокет открывает и ждет подключения.

        Starting with 24.04 LTS (actually with 22.10) sshd management has changed; it is now controlled via socket activation in systemd. This is a shift from the traditional service-only model used in Ubuntu 22.04 and earlier.

        New Debian based systems are moving towards systemd socket activation for SSH. In other words, the sshd.service is no longer enabled and started directly. Instead, ssh.socket is enabled and listens on TCP port 22.

        When a connection comes in, it triggers ssh.service, which runs the SSH (/usr/sbin/sshd) daemon on demand.


        1. lemix85 Автор
          27.04.2026 06:51

          Всё совершенно верно, спасибо за отличное дополнение! Начиная с Ubuntu 22.10 сервер (sshd) по умолчанию работает через сокеты. А в статье применяется та же самая механика, но уже к клиенту для управления исходящими туннелями, демонстрируя возможности socket activation.


  1. zompin
    27.04.2026 06:51

    Любой узел что светит в интернет постоянно сканируется, значит сервис останавливаться просто не будет. Какой смысл в таком решении?


    1. xaerowalk
      27.04.2026 06:51

      Тут другой юзкейс. Ставишь себе локально и когда тебе нужна панель управления твоей CMS на удаленном хосте, где все закрыто кроме ssh, открываешь в браузере условный localhost:10201 и автоматически поднимается туннель до удаленного хоста и открывается страничка, без дополнительной писанины в терминале. Маленькая приятная автоматизация.


      1. lemix85 Автор
        27.04.2026 06:51

        Здравствуйте! Всё так, спасибо за понимание кейса.


      1. gogie
        27.04.2026 06:51

        Чтобы открыть в браузере localhost:10201 всё равно придётся запустить команду ssh -L , поэтому не вижу разницы


        1. lemix85 Автор
          27.04.2026 06:51

          Вручную команду запускать не нужно. Systemd сам дежурит на порту 10201. Как только браузер к нему обращается systemd автоматически поднимает ssh-туннель и передаёт ему это соединение. В этом и заключается главная фишка.


          1. gogie
            27.04.2026 06:51

            Ну если на Линуксе то да, просто он редко у кого на десктопе стоит, да и systemd не сказать чтобы сильно популярен, поэтому я почему-то подумал что вы про удалённый сервер говорите


            1. durnoy
              27.04.2026 06:51

              Не понимаю. Если systemd не популярен, то что тогда?


    1. dTi
      27.04.2026 06:51

      Опередили меня с вопросом. Надо еще докручивать что-то для отделения полезного трафика от всего мусора. Речь же про "любой" пакет. Надо еще фильтровать.


    1. lemix85 Автор
      27.04.2026 06:51

      Здравствуйте! Вы подняли хороший вопрос. Если выставить сокет наружу, "кто-нибудь" действительно не даст сервису уснуть. Но тут речь скорее о локальной прослушке, поэтому внешний мусор до него просто не долетит.


  1. JBFW
    27.04.2026 06:51

    Раньше это делал inetd без всякого systemdа, просто в конфиге указывался порт и программа, которую дергать когда на этот порт устанавливается соединение.

    Он и сейчас так же точно работает, только по умолчанию теперь не установлен, не модно.


    1. select26
      27.04.2026 06:51

      Я думал я один про это помню )) Кстати, в emmbed'ах до сих пор используется частенько.

      Не нашёл элегантного решения — написал своё.

      В 1997 году я купил первую большую книгу по администтрированию Unix/Linux. В предисловии было написано: "Unix система старше вас, поэтому ваша задача наверняка уже решалась. Читайте документацию."
      А автор изобрел велосипед )


      1. lemix85 Автор
        27.04.2026 06:51

        Здравствуйте! Цитата из книги отличная, но мне кажется, мы рассматриваем технологию в немного разных контекстах) В ответе на самый первый комментарий под статьёй я постарался подробнее раскрыть и широту применимости этого подхода, и конкретную проблему, которую он решает сегодня.


        1. select26
          27.04.2026 06:51

          У вас изящное решение!
          Просто оно уже было в истории, ушло за ненадобностью и возвращается снова..


          1. JBFW
            27.04.2026 06:51

            Слово "ненадобность" - оно такое, ненадёжное...

            С появлением постоянного доступного быстрого интернета многое из эпохи диалапа ушло за ненадобностью. А сейчас приходится вспоминать, только модемы теперь другие...


    1. lemix85 Автор
      27.04.2026 06:51

      Здравствуйте! Совершенно верно, inetd - прародитель этого подхода.


    1. Kurochkin
      27.04.2026 06:51

      xinetd - более функциональная реинкарнация "старого" inetd, и более простой вариант для embedded, где может не быть systemd. Да, всё уже придумано до нас.


      1. JBFW
        27.04.2026 06:51

        Так для inetd и не нужен systemd )


  1. Raam
    27.04.2026 06:51

    Ещё есть старый добрый knock - knock. Когда файрвол открывает нужные порты только если клиент правильно постучался в нужной последовательности в другие порты. И при этом порт нужного сервиса открывается не для всех подряд а только для того ip, который постучался. Поэтому сканеры не обнаружат сервис даже если порт открыт и используется. А у вас если я правильно понимаю сервис и порт если поднимаются и открываются, то абсолютно для всех входящих ip?


    1. Kurochkin
      27.04.2026 06:51

      Port knocking многие относят к "security through obscurity", но как по мне - это лучше, чем разрешать всем сканерам/ботам даже начинать соединение.

      Решение автора явно не претендует на работу файрвола, задача "не пускать китайцев" - это туда.


  1. ss-pol
    27.04.2026 06:51

    Для этих целей давно придумали inetd. Но и особенности этого подхода тоже никуда не делись.

    Самая главная - безопасность сервиса будет зависеть от безопасности systemd/inetd. И если inetd это небольшая программа, давно изученная вдоль и поперёк, то systemd это огромный (чтобы не сказать монстрообразный) и активно развивающийся проект.

    Я бы не советовал выставлять открытый им порт в интернет...


    1. susbox
      27.04.2026 06:51

      Мне кажется, у вас, как и у многих (и я в их числе), возникло представление, что задача решается на сервере, в то время, как автор описывает способ автоподнятия туннеля до сервера по первому «стуку» в порт на локальной машине, и вследствие этого ни о каких сервисах открывающих порты наружу, речи не идёт.

      Речь о том, что вот нужен туннель до сервера допустим по FTP - клиент стучится на локальный адрес и порт, а система это видит и поднимает туннель, соединяя его с портом, куда постучали.


      1. JBFW
        27.04.2026 06:51

        Тут явно напрашивается шуточка "зумеры изобрели дозвон" - но если так - это замечательно, на самом деле. Очень актуально.
        (да, я тоже так понял что речь о сервере, а не о клиентской машине)

        Тогда вот еще "из старого": как раз во времена интернетов по модему, с дозвонами и прочим подобным, активно использовалась программа pppd, она умела с помощью другой программы chat дозваниваться до провайдера, устанавливать соединение и т.д., причем умела делать это и "по запросу": открываем, скажем, браузер, пишем адрес - и pppd видя что нужен интернет - сама дозванивалась.

        Но у нее была еще не особо известная фича: ей в общем-то всё равно что запускать, chat с модемом или ssh туннель, какой-то скрипт, или даже тупо nc, по которому потом можно пустить PPP и таким образом поднять IP-канал.
        Единственно что - тут надо разделять трафик, которому канал не нужен, и тот, для которого нужен. Навскидку не вспомню, надо будет подумать, чисто ради интереса на всякий случай...


        1. lemix85 Автор
          27.04.2026 06:51

          Аж олдскулы свело) Спасибо за отличную историческую справку!


  1. Self_Perfection
    27.04.2026 06:51

    Трюк хороший, но мне мне кажется обычно лишние миллисекунды на поднятие соединения при первом обращении к сокету хуже, чем лишние занятые килобайты RAM от постоянно запущенного ssh клиента.


  1. linux-over
    27.04.2026 06:51

    systemd переизобрели inetd?