Я часто сталкивался с ситуацией, когда задачу по оценке объёма работ и стоимости реализации спускали именно аналитикам, которые в дальнейшем общались с архитекторами, разработчиками и тестерами.
Поэтому данная статья посвящена ИТ-аналитикам и начинающим владельцам программных продуктов, которые столкнулись с необходимостью провести оценку стоимости разработки информационной системы, сервиса или доработки уже существующего решения.
1. Базовая теория
Перед тем, как начать рассматривать методы оценки проектов по разработке систем, стоит ответить на вопрос, что из себя представляет оценка. Дело в том, что большинство специалистов заблуждаются. Путают оценку с планированием и подгоняют её под бизнес-цели.
Данная путаница (заблуждение) не позволяет оценивать проекты разработки так, чтобы они были успешными и учитывали реальную ситуацию.
Очень важно пересматривать оценку по несколько раз. С каждым пройденным этапам жизненного цикла программного продукта (и этапов проекта) проводить новую итерацию оценки, при этом точность будет повышаться (понимаю, что это очевидное утверждение, но часто оценка проводится только на старте, а дальнейшее управление проектом происходит, как реагирование на возникаюющие изменения, а оценка, как инструмент уже не используется).
2. Метод оценки - Декомпозиция
Метод декомпозиции подразумевает, что составляется верхнеуровневый список задач по созданию ИТ-продукта, который детализируется настолько, насколько это возможно. Чем детальнее будет выполнена декомпозиция, тем более точной будет оценка. Есть много хорошего материала, как правильно делать декомпозицию, в этой статье я постараюсь передать именно суть метода при проведении оценок.
Конечно, на начальных этапах проекта данный метод будет менее точным, чем на последующих.
Ниже приведён пример таблицы для декомпозиции задач:
№ |
Задача |
Ресурс |
Объём (ч/ч) |
Стоимость за ед. ресурса (т.р.) |
Способ расчёта стоимости за ед. |
Вид затрат |
1 |
Подготовка требований |
Аналитик |
120 |
1.2 |
Средняя стоимость часа работы аналитика по компании или рынку |
Основная и дополнительная заработная плата сотрудников |
1.2. |
... |
В неё можно добавить дополнительные аналитики, например:
грейд сотрудника (junior, middle, senior - т.к. от грейда будет зависеть ставка).
Локация сотрудника (Москва, СПБ, Екатеринбург и т.д.)
Подразделение сотрудника
Риски (описание возможных рисков)
Сложность задачи
Важность задачи
и т.д.
Приведённая выше таблица не является исчерпывающей. Вы можете добавлять в неё любое количество аналитик, которое потребуется. Я специально не использую термин ИСР (Иерархическая структура работ) или WBS (Work Breakdown Structure) т.к. для большинства специалистов он ассоциируется с планированием работ, хотя на самом деле инструмент многоуровневой декомпозиции нужен именно для оценки. Он не включает в себя календарное планирование (календарные сроки выполнения работ). Для календарного планирования правильно использовать другой инструмент - план-график проекта. К тому же, если мы говорим про гибкие подходы к разработке, то детальных план-графиков может не быть, планирование происходит по другому (спринты, канбан и т.д., другие словами итеративное планирование и выполнение задач), при этом метод декомпозиции всегда будет актуален.
При декомпозиции задач я заранее стараюсь их классифицировать по видам затрат, в дальнейшем это поможет правильно учесть расходы в бюджете компании и посчитать себестоимость.
Упрощённый список основных видов затрат для ИТ-проектов (для примера):
Основная и дополнительная заработная плата сотрудников |
Стоимость электроэнергии, потребляемой комплексом вычислительной техники |
Стоимость вспомогательных материалов |
Затраты, связанные с арендой помещения |
Затраты на оборудование (ЦОД) |
Затраты на текущий и профилактический ремонт |
Затраты на сетевое управление |
Затраты на управление системой |
Затраты на оборудование сотрудников |
Амортизационные отчисления |
Ключевой вопрос при декомпозиции - как сильно надо детализировать? т.е. на насколько мелкие задачи необходимо разбивать? На старте проекта важно учесть все задачи, которые влияют на scope (содержание) проекта, при этом понимая, что со временем требования будут детализироваться и оценку потребуется уточнять, сверять с бизнес-целями.
На картинке ниже продемонстрировано, как снижается неопределённость по мере детализации требований.
3. Метод оценки - Расчёт по метрикам и сравнение исторических данных
Суть данного метода в использовании всех имеющихся данных для расчёта стоимости разработки и проведения оценки. Оценка происходит на основании значений разных метрик, которые умеет считать компания.
Метрика- это сформулированная единица измерения, позволяющая получить численное значение определённого свойства ИТ-процесса, ИТ-проекта или продукта. Т.е. с помощью метрик мы измеряем процесс, проект или продукт в целом. На самом деле метрики можно использовать на группу связанных процессов, на портфель проектов или схожие продукты. Важнее всего, чтобы метрика была обоснованной и полезной, иначе её применимость может быть под вопросом.
Примеры метрик, которые могут быть использованы для оценки объёма работ и стоимости разработки:
Категория |
Метрика |
Бизнес-требования |
Среднее количество часов на подготовку бизнес-требований |
Сценарии использования (Use cases) |
Среднее количество часов на подготовку бизнес-требований |
Истории пользователей (user story) |
Среднее количество часов на подготовку истории пользователей |
Проектирование (архитектура) |
Среднее количество часов на подготовку архитектуры |
Реализация |
Среднее количество часов на реализацию одной задачи средней сложности (низкой, высокой) |
Запросы на изменение |
Среднее количество часов на реализацию запроса на изменение |
Дефекты |
Среднее количество часов на дефект |
Процесс разработки |
Sprint Goals Delivery – % достижения целей спринта (соответствие плана спринта/ выполненному факту) |
Процесс разработки |
Team interaction – вовлечённость команды разработки в продукт на ретроспективе, встречах, планировании спринтов, задач (опрос и оценка руководителя) |
Эффективность |
% соответствия реализации функционала ожиданиям заказчика, ожиданиям рынка |
Эффективность |
% соответствия реализации функционала бизнес-требованиям заказчика в рамках запроса на изменение |
Это явно не исчерпывающий перечень. Показателей крайне много и самое главное разумно их использовать. Конечно, собирать вручную данную информацию невозможно, для этого есть специальные ITSM системы, трекеры задач и системы управления разработкой, которые обладают специальный функционалом.
При использовании метода расчёта по метрикам очень важно понимать какие проекты сравнивать. Многое зависит от языка разработки и стека технологий. Например, надо очень осторожно сравнивать показатели из проекта на Платформе 1С и проектов на open source технологиях, даже если бизнес задача идентичная (что маловероятно, но для простоты примера). А вот если сравнивать проекты на базе 1С с другими проектами на 1С (при условии схожести задачи), тогда точность оценки на базе метрик будет высокой.
Мне кажется важным ещё раз подчеркнуть, что использовать метрики необходимо осторожно и не всегда на базе них можно сделать корректную оценку, важно учитывать особенности заказчика, особенности команды и т.д. Плюс в больших компаниях даже среднее время на реализацию одной задачи может считаться по разному в разных проектах.
Сравнивать показатели можно не только по проектам внутри компании, но и по отрасли в целом (т.е. с другими схожими компаниями). Есть известный термин - бенчмаркинг. По сути это процесс сравнения собственных показателей с их значениями у других компаний с целью выявления возможных зон роста и развития. Обычно, в бенчмаркинге сравнивают финансовые показатели компании (часто посредниками являются консалтинговые фирмы), но на разных ИТ конференциях тоже можно пообщаться с коллегами и обменяться опытом.
3.1. Определение размера программного продукта
Для проведения корректных оценок на основании исторических данных надо уметь определять размер программного продукта. Для этого существуют два виды показателей:
Системные метрики, например:
Модули системы (если они системно разделены)
Веб-страницы, пользовательские окна (интерфейс)
Классы
Компоненты системы
Таблицы базы данных
Строки кода (LOC)
Функциональные метрики, например:
Функции системы
Систематизированные требования к системе (если у требований есть чёткая классификация)
Сценарии использования (Use Case)
Пользовательские истории (user story)
Количество запросов от пользователей
Количество запросов по API
Функциональные метрики (функционально-ориентированные метрики) позволяют измерять программный продукт, процесс его разработки с помощью классификации и разделения функционала.
Системные метрики (размерно-ориентированные метрики) позволяют достаточно точно измерить программный продукт и процесс его разработки с помощью системных артефактов. Самый популярный и всем известный пример размерно-ориентированной метрики это - LOC (Lines Of Code) количество строк кода в программном продукте.
Для разных программных продуктов будет правильно использовать разные системные и функциональные метрики, например для относительно простых сайтов подойдут - веб страницы. Для систем, которые чётко разделены на разные функции - функции системы. При этом стоит использовать несколько метрик сразу (например, таблицы БД, строчки кода и функции).
Ниже приведён достаточно простой пример определения средней стоимости, качества и производительности на основании количества строк кода.
Проект |
Затраты чел/мес |
Стоимость (млн. руб.) |
KLOC |
Документация, страницы |
Ошибки |
Команда, чел. |
№ 1 |
4 |
12 млн. |
11,2 |
424 |
24 |
12 |
№ 2 |
7 |
20 млн. |
18,5 |
680 |
67 |
10 |
№ 3 |
10 |
22 млн. |
23,1 |
560 |
83 |
15 |
№ 4 |
2 |
8 млн. |
4,5 |
240 |
10 |
10 |
№ 5 |
12 |
28 млн. |
25,5 |
928 |
45 |
10 |
Таблица содержит данные о проектах за последние несколько лет и на основании неё можно определить размерно-ориентированные метрики производительности и качества (для каждого проекта) с помощью формул ниже. Это позволит использовать эти показатели для проведения оценок и сравнения с новым проектом.
Производительность = Длина тысяч LOC / затраты чел.мес
Качество = Кол-во ошибок / Длина тысяч LOC
Средняя стоимость = Стоимость (млн. руб.) / Длина тысяч LOC
Документированность = Кол-во страниц документации / Длина тысяч LOC
Системные метрики имеют свои недостатки. Они очень зависимы от языка и стека технологий. Сравнить совершенно разные программные продукты бессмысленно.
3.2. Использование поправочных коэффициентов
Поправочные коэффициенты следует использовать, чтобы учесть разные факторы влияющие на процесс разработки. Данный метод подойдёт на ранних этапах, когда высокий уровень неопределённости. Поправочный коэффициент можно использовать, как для стоимости, так и для оценки объёма работ (всё зависит от перечня факторов).
Ниже приведён пример списка возможных факторов и итоговый поправочный коэффициент (который посчитан, как среднее значение). Но метод расчёта коэффициентов может отличаться и завесить от степени влияния самого фактора, а также других условий. Для каждого отдельного проекта разработки следует рассчитывать собственные, уникальные поправочные коэффициенты.
Описание фактора |
Оценка фактора |
Коэффициент |
Требуемая надежность |
Критично |
1,3 |
Требуемое качество продукта |
Высокое |
1,2 |
Сложность продукта |
Крайне высокая |
1,3 |
Документирование жизненного цикла |
Не обязательно |
0,7 |
Возможности аналитика |
Низкие, используются сотрудники начального уровня |
1,2 |
Опыт работы с приложением |
Низкий |
1,1 |
Опыт работы со стеком |
Низкий |
1,2 |
Непрерывность персонала |
Низкий |
1,2 |
Среднее значение |
1,15 |
4. Метод оценки - Экспертный
Не существует такого эксперта, который сможет корректно оценить проект в целом, поэтому метод экспертной оценки подразумевает оценку каждой отдельной задачи соответствующим квалифицированным специалистом, а в дальнейшем суммирование всех этих оценок для получения объёма работ, ч/ч и стоимости.
Есть несколько основных правил использования данного метода:
Важно сравнить мнения разных экспертов для одной и той же задачи, проводить групповые обсуждения.
Существенную пользу принесёт подготовка чек листов для всех участников. Это поможет не упустить важные моменты и повысить точность. Чек листы будут очень сильно отличаться в зависимости от типа задачи, поэтому следует попросить экспертов самостоятельно составить их.
Самой важной частью данного метода является сравнение оценок с фактическими результатами и поиск способ повышения точности, добавление нового пункта в чек лист или необходимость консультации дополнительного эксперта.
В экспертной оценке часто используют метод PERT (Program Evaluation Review Technique). Идея PERT заключается в определение ожидаемой оценки на основании оптимистичного, среднего и пессимистичного сроков выполнения задачи. Вот, как это выглядит:
Задача |
Оптимистично (ч/ч) |
Наиболее вероятно (ч/ч) |
Пессимистично (ч/ч) |
Расчёт PERT (ожидаемый вариант) |
Разработка экранной формы приёма платежей для ФЛ |
3 |
6 |
12 |
6.5 |
Формула для расчёта:
PERT = (Оптимистично + (4 * Наиболее вероятно) + Пессимистично)/6
5. Другие модели и подходы к оценке
В данной статье я затронул те методы оценки, которые сам использую, но данный перечень не является исчерпывающим. Ниже представил более общую информацию о других методах оценки проектов разработки ПО, которая может вам приходится.
5.1. Косвенные оценки
Данный метод предполагает использование связанных показателей для оценки задачи. Например, у вас есть информация, что один тестовый сценарий на аналогичном проекте выполняется за 2 часа, но нет понимания, сколько этих тестовых сценариев будет. Самый простой способ, это посчитать их относительно количества сформулированных требований (например, user story) или количества запросов на изменение.
Объём дополнительного времени на разработку можно посчитать с учётом времени, которое было затрачено на исправление дефектов, выполнение изменений по уже реализованному функционалу.
5.2. Специальные системы для проведения оценок
На рынке есть специализированные системы для оценки проектов разработки, которые используют сложные математические формулы на основе данных, которые сможет предоставить компания.
5.3. Покер планирование (или Scrum Poker)
Это разновидность метода экспертной оценки, подходит для не очень больших проектов с маленькими командами. Является одной из самых популярных техник оценки в проектном менеджменте, в основана на достижении договорённости по объему работ и временных затрат между участниками команды.
5.4. Модели оценки (стандарты)
Есть несколько, если можно так выразится, стандартов по проведению оценки стоимости проектов по разработке ПО:
Модель Oracle AIM для оценки трудоёмкости. Она основании на полном и точном знании процесса, а также крайне глубокой декомпозиции.
-
Модель СОСОМО (и СОСОМО II) - сложная модель оценки разработанная ещё в 70-х года, которая устанавливает соответствие между размером системы в тысячах условных строк кода, типом проекта и трудоемкостью разработки системы.
Немного более современные модели IFPUG FPA и FPA mkII, в них были введены понятия транзакции, а также репозитория кода.
6. Ключевые ошибки при проведении оценок
Вредные оценки. Использование оценок для давление на команду, а не как инструмент повышения точности планирования и реализации бизнес-целей.
Оценки с запасом. Часто сотрудники берут немного времени "про запас" т.е. сверху и дают завышенную оценку.
Интуитивные оценки. Лучше потратить 10 минут на анализ задачи, её детализацию и уточнение, а потом уже давать оценку. Интуитивные оценки чаще всего ведут к нарушению сроков и увеличению стоимости.
Оценка ради бизнес-цели. Когда оценку даёт человек, который заинтересован в выполнении бизнес-цели. Желание выполнить поставленную цель не является плохим явлением, но очень важно давать объективные оценки (особенно, если это касается заказчика или вывода продукта на рынок).
Субъективные оценки. Следует избегать исключительно субъективных оценок, ведь разработчики чаще дают оптимистические оценки, а менеджеры проектов наоборот, пессимистические (так сказать закладывают риски). Вместо этого лучше использовать работу над ведением рисков и доведение их до стейкхолдеров, делать планы реагирования.
Косвенные затраты и задачи. Не весь объём задач по разработке системы учитывается при оценке. Часто это бывает из за недостаточности проработанной бизнес модели, бизнес требований или отсутствие проектирования.
Хаос в разработке, отсутствие процесса. Ключевые проблемы (это не полный перечень, уверен, что его можно дополнить):
Отказ от полноценного планирования из за давление со стороны заказчика или руководства. Под полноценным я понимаю тот уровень, который подойдёт для достижения целей и эффективной работы команды.
Отсутствие коммуникаций внутри команды (отсутствие дейли или другие митингов для синхронизации команды, наличие психологических барьеров в общении участников команды).
Отсутствие стандартизированного процесса разработки (когда все понимают, какой порядок работы в JIRA, Confluence и как задача переходит из аналитики в проектирование, а из проектирования в разработку и т.д.).
Упрощённый и недостаточный анализ требований.
Отсутствие вовлечённости бизнес пользователей и заказчика.
Упрощённое проектирование и отсутствие подходов к разработке, качеству написания кода.
Отсутствие подходов к тестированию или тестирования в целом.
7. Итог
Надеюсь, что данный материал оказался вам полезными и вы сможете его применить в своей работе. Методы оценки разделены, чтобы лучше понять их, но конечно использоваться могут все одновременно.
Цель статьи, это дать ключевую информацию по теме проведения оценок разработки программных продуктов, чтобы читатель смог сформировать общее представление.
Буду благодарен конструктивной критике и буду рад, если поделитесь своими методами проведения оценок, которые не учтены в статье. Спасибо.
Комментарии (6)
vadimr
01.02.2023 16:07+1Из своей многолетней практики я извлёк убеждение, что только аналого-сопоставительный метод даёт реалистичные оценки. Если нет человека, который ранее руководил разработкой чего-то подобного – бессмысленно угадывать трудоёмкость, а если такой человек есть – то особо незачем. Разве что для бизнес-отчётности.
Оценка снизу-вверх, как всякий метод интегрирования, накапливает ошибки и теряет значимость через небольшое количество итераций.
Хорошим предметом для медитации после завершения проекта являются таблицы экспертной оценки трудоёмкости, заполненные до его начала. С неизбежностью обнаруживается, что, даже угадав общую сумму, промахиваемся мимо отдельных слагаемых, а следовательно, суммирование – это имитация оценки, а не реальный метод.
klimkinMD
03.02.2023 11:22Чем детальнее будет выполнена декомпозиция, тем более точной будет оценка.
В этой деятельности существует опасность эффекта фрактала, хотя и у оценки могут быть свои цели.
avf48
03.02.2023 12:50"КЛЮЧЕВАЯ ОШИБКА" - Это думать, что кучка миллиардеров, сделавших деньги на соцсетях и тиндерах умнее ракетостроителей.
ГОСТ Р 58302-2018 Управление стоимостью жизненного цикла. НОМЕНКЛАТУРА ПОКАЗАТЕЛЕЙ ДЛЯ ОЦЕНИВАНИЯ СТОИМОСТИЖИЗНЕННОГО ЦИКЛА ИЗДЕЛИЯ. Общие требования
5.1 Для оценивания стоимости ЖЦ используют следующие показатели:
- стоимость ЖЦ;
- стоимость владения;
- стоимость приобретения;
- стоимость эксплуатации;
- стоимость эксплуатации за календарный период времени;
- затраты на эксплуатацию в единицу календарного времени;
- остаточная стоимость изделия на расчетный год;
- стоимость утилизации;
- остаточная стоимость составных частей изделия и материалов послеутилизации;
- стоимость разработки.
ГОСТ Р 56136-2014 УПРАВЛЕНИЕ ЖИЗНЕННЫМ ЦИКЛОМ ПРОДУКЦИИ ВОЕННОГО НАЗНАЧЕНИЯ. Термины и определения
ГОСТ Р ИСО/МЭК 25021-2014 Информационные технологии. СИСТЕМНАЯ И ПРОГРАММНАЯ ИНЖЕНЕРИЯ. Требования и оценка качества систем и программного обеспечения(SQuaRE). Элементы показателя качества
ПС: И на риски, профессии, процессы, описание проектов и результатов тоже есть свой ГОСТ.
SSukharev
03.02.2023 14:42И что работает вот это вот все? Из моей практики ещё ни один проект не был выполнен во время, с теми ресурсами и затратами с которыми в него вошли, хорошо, если бюджет перезаложили раза в два, а если нет, то вся работа в убыток. Из рассказов коллеги у которого 50 крупных проектов за спиной в качестве или РП или руководителя проектного офиса только один вписался в бюджет и был сдан во время, потому что руководили разработкой там японцы.
WondeRu
А теперь как делают в реальности:
Оценка разработки (всевозможными методами, описанными в вашей статье)
Дальше 30% от разработки в человекочасах на тестирование
Дальше 30% от разработки в чч на исправление дефектов
Прибавляем 1 фулл тайм руководителя проектов на всю длительность проекта (это вы должны уже понять в 1-3 пп)
Добавляем 1-2 аналитиков на фуллтайм (плавающее привлечение не помогает на больших проектах)
Добавим 0.5 девопса и 0.5 ui/ux на весь проект
Закладываем 10-20% сверху всего этого на приемку/опытную эксплуатацию.
Если нужна гарантия, то растягиваем 1-2 разрабов с 20% загрузкой на год, еще добавляем 0.1 проджекта.
И даже на Pi умножать потом не нужно будет)
Amelchenko Автор
Спасибо за комментарий!
В реальности делают очень по разному, даже используют специальные системы для проведения оценок, всё зависит от отрасли и проектов. Но вы правы, часто происходит именно так, как вы описали.