Специализация компании «Edison» — разработка софта на заказ. Не то, чтобы мы сели, написали, отдали и забыли. Это растянутый во времени процесс, и заказчик является его полноправным участником. Мы предоставляем заказчику не просто рабочую силу мозгов наших программистов, но целую структуру разработки ПО как услугу, включающую в себя нашу сетевую инфраструктуру и наши сервисы.



В разработке программного обеспечения мы используем


Систему управления проектами. Выбранная нами система является зрелым продуктом на рынке, обладает всей широтой функциональных возможностей, заточена именно на проекты по разработке программного обеспечения. В то же время она обладает достаточной гибкостью настройки и доработки. К примеру, мы разработали для неё свой плагин для учёта предоплаченных часов.

Система управления проектами — сердце нашего производственного процесса. Посредством неё происходит постановка задач нашими заказчиками для разработчиков, координация командной работы для крупных проектов, учёт предоплаченных часов для проектов с повременной схемой оплаты.



Систему управления исходным кодом. Репозитории исходного кода — это сокровищница нашего производственного процесса. В ней хранится исходный код всех проектов, над которыми мы работали, за исключением тех случаев, когда заказчик желает, чтобы после завершения проекта мы удалили свою копию. Неоднократно сохранённая у нас версия исходного кода пригождалась заказчику уже спустя продолжительное время после завершения сотрудничества для восстановления работоспособности его проекта.

Мы используем систему управления исходным кодом GIT. Она является, пожалуй, самой популярной в мире среди разработчиков. Очевидным и основным преимуществом любой системы управления исходным кодом является то, что изменения в исходном коде производятся системно, а не хаотически. Каждое изменение фиксируется как самостоятельный этап развития исходного кода, снабжается осмысленным описанием, привязывается к конкретной задаче. Так достигается полный контроль не только над текущим состоянием исходного кода, но и над всей историей его развития. Для нас преимущества используемой системы GIT в том, что эта система обладает достаточной гибкостью для командной работы над исходным кодом и для работы над несколькими версиями одновременно.



Файловое хранилище. Помимо исходного кода к проектам может относиться различная документация и прочие файлы. Для этих целей у нас организовано сетевое файловое хранилище с разграничением доступа на уровне учётных записей: только участники команды конкретного проекта имеют доступ к материалам проекта.

Тестовые сервера. Разработать ПО — это лишь полдела. Далее, необходимо его отладить, протестировать и внедрить. Для этих целей на тех проектах, где это необходимо, мы используем виртуальные тестовые сервера. Под каждый такой проект выделяется отдельная виртуальная машина, на которой разворачивается копия рабочего окружения разрабатываемого приложения. Благодаря этому мы имеем возможность воспроизвести максимально приближённую к боевой обстановку для тестирования и отладки нашего продукта. В некоторых случаях, когда того требует специфика проекта, для тестирования подбирается и закупается особое оборудование.



У нас есть собственные серверные комнаты, не находящиеся под юрисдикцией какого-либо дата-центра. Тем самым обеспечивается полная изоляция от каких бы то ни было третьих лиц. В серверные имеют право входить только избранные сотрудники, при этом ведётся строгий контроль доступа.



Также используется виртуализация, для того, чтобы виртуальные машины, на которых работают тестовые сервера проектов наших заказчиков, «крутились» изолированно друг от друга в полностью виртуальной среде.



Таким образом идёт разграничение прав доступа между разработчиками: разработчик, работающий на проекте «А» не может иметь доступ к какой-либо версии кода проекта «Б», потому что они отлаживаются на разных тестовых машинах, исходные коды хранятся в разных репозиториях.

Разграничение доступа происходит чётко по проектам: только те лица, которые имеют отношение к данному проекту, имеют доступ к исходному коду, к тестовому окружению, к задачам проекта в багтрекере.

Бесперебойный доступ к ресурсам — наше всё


Поскольку заказчик является полноценным участником проекта, он также имеет доступ ко всем этим элементам инфраструктуры. Мы обязаны организовать и организуем бесперебойный доступ к этим ресурсам извне, так как наши заказчики расположены по всему миру. Круглосуточная доступность этих ресурсов извне, а не только внутри офиса, является ключевым моментом. Для этого у нас организовано следующее.

  1. Зарезервированный интернет-канал. Предоставлен тремя независимыми интернет-провайдерами с публичным IP-адресом и с достаточной пропускной способностью. Даже если происходит какой-то перебой с интернетом, наши сервисы всё равно остаются доступны как для заказчиков, так и для контрагентов, с которыми мы совместно работаем над проектом. И, конечно, для самих разработчиков. Резервный канал – это очень важно, потому что в нашей работе коммуникация между разработчиком и заказчиком играет ключевую роль. Разработчики, назначенные на проект, являются полноценными участниками команды заказчика. Заказчик руководит разработкой, направляет её, задаёт тон, русло разработки, и, помимо багтрекера, это происходит путём живого общения (настолько живого, насколько это удобно заказчику). Поэтому критически важно, чтобы наши разработчики всегда были онлайн, доступны для совещаний и корректировок. Резервный канал позволяет достичь этих целей: круглосуточной доступности ресурсов и доступности разработчиков для заказчика в рабочее время.

    Наличие резервного канала решает проблему мелких сбоев у интернет-провайдеров: вероятность того, что у всех провайдеров будут одновременные перебои на их внутренних сетях, крайне мала. В случае, если случается сбой у магистральных провайдеров, то в этом случае ничего помочь не может, это — форсмажор. В плане доступности в компании Edison Software Development Centre предприняты те шаги, которые реально могут устранить «проблему последней мили» – обрывы на ветке провайдера от магистрали до конкретного пользователя. То есть с точки зрения бесперебойности два-три не очень стабильных канала лучше, чем один стабильный.

  2. Серверный комплекс. Это отдельная комната, доступ в которую строго регламентирован ограниченному кругу лиц. С помощью климатического оборудования в ней поддерживается оптимальная температура и влажность, рекомендованная для работы этого оборудования. Так обеспечивается отказоустойчивость, долговечность оборудования, защита от сбоев, перегревов.



Тем не менее, любая техника имеет свойство изнашиваться, поэтому у нас предусмотрен ряд мер для защиты от преждевременного износа и различных сбоев в работе.

Всё серверное оборудование подключено к источникам бесперебойного питания, что позволяет выдерживать кратковременные перебои в электроснабжении и автоматически мягко выключать всё оборудование при более продолжительных отключениях электроэнергии.



На всех серверах организован рейд — зеркалирование жёстких дисков на уровне оборудования. Поэтому даже отказ одного из жёстких дисков не приводит к потере данных. Являясь материализованным сгустком интеллектуальной энергии наших сотрудников, данные — это то, что мы продаём, интеллектуальная собственность, которую мы предлагаем нашему заказчику. И её воплощением является информация, хранимая на жёстких дисках. Соответственно, это самое ценное, что мы должны сохранять.



Помимо зеркалирования используется система ежедневных резервных копий, без которой невозможно представить сколько-нибудь серьёзное хранилище данных. Ежедневно все критически важные данные (исходный код, база данных багтрекера, файловое хранилище проектных данных и внутренней документации) архивируются в автоматическом режиме, создаётся архивная копия.

Затем по защищённому (зашифрованному) каналу эта копия передаётся в географически удалённое хранилище. Так мы защищаемся от физического уничтожения данных в результате любого происшествия, которое может привести к порче оборудования в серверной (пожар, потоп и прочее).



Поделитесь в комментариях здесь и у нас на нашей странице в Фейсбуке или во ВКонтакте, чем отличается инфраструктура разработки в ваших компаниях.

Комментарии (13)


  1. mgyk
    26.10.2015 21:35
    +11

    Хм, серверная в туалете — это оригинально :) Как и «сервер» c подсветкой. Ну или я отстал от последних трендов кафельного горячего и холодного коридора


    1. 0leGG
      26.10.2015 21:38
      +5

      Новое слово в серверостроении — серверная тумбочка!


  1. lair
    26.10.2015 22:09
    +6

    Хм, а может просто этот эккаунт захватил кто-то, кому выгоден черный пиар «настоящего белого Эдисона»?


  1. Drumi
    26.10.2015 22:32
    +3

    Почему так мало картинок?


  1. ivanych
    26.10.2015 22:51
    +3

    Такое ощущение, что парочка студентов в подсобке общаги собрали пару компов и делают вид, что они — серьезная организация. А статьи на хабр пишет младшая сестра одного из них.

    image


    1. Botkin
      27.10.2015 08:50
      +1

      К сожалению, действительно выглядит как курсовая работа


    1. scarab
      27.10.2015 12:10

      Есть ещё один вариант. Я неоднократно сталкивался с несколько презрительным отношением программистов к системным администраторам: мол, мы творческие личности, элита, а вы просто продвинутые эникейщики.
      Если этот «Edison», как мне показалось, небольшая программистская контора и у верхушки тоже стоят экс-программисты — вполне возможно, что на сисадминах и инфраструктуре решили сэкономить. Мне приходилось видеть IT, построенное программистами, решившими, что они админы — очень похоже на картинки. «Серверная» в какой-то кладовке, пара системников с гордым названием «наши Сервера!» под столом, единственный бытовой кондиционер за 5000 рублей… наряду с полным непониманием роли ДЦ в современном мире.


  1. camelos
    27.10.2015 07:46

    На картинке с системой управления проектами — Jira?


  1. u_story
    27.10.2015 07:57

    Как осуществляется поддержка версионности в файловом хранилище?


  1. scarab
    27.10.2015 14:02
    +5

    Ребята, простите, но вы правда считаете, что здесь есть, чем хвастаться?
    Два системника в туалете и китайский бытовой кондиционер? И NAS для домашнего пользования как инфраструктура бэкапов?

    Ну ок, в конце 90-х подобным образом жили многие. В том числе и ныне крупные софтверные гиганты. Но, чуваки, на дворе заканчивается 2015 год.
    Вас ЭТО пока устраивает? Да не вопрос, я видел даже банки, у которых инфраструктура состояла из десятка положенных на бок древних системников и асусовского роутера. Пока оно работает — всем кажется, что так и надо.

    Но, чёрт возьми, я бы не хвастался этим, будь я на вашем месте.


  1. servekon
    27.10.2015 18:49

    Главная картинка для привлечения внимания и к вашей организации не имеет никакого отношения?


    1. lair
      27.10.2015 19:01

  1. xamd
    27.10.2015 19:59

    О, у статьи «Почему мы не любим опенспейсы» появилось продолжение!