Всем привет! Меня зовут Дмитрий Шкилёв, я тимлид команды Teachers Platform. Мы занимаемся личным кабинетом преподавателя и внутренними ресурсами, которые необходимы для обеспечения работы преподавателей. 

Сегодня хотелось бы поговорить про такую не очень популярную историю, как измерение показателей команды разработки. За рамками статьи хочу оставить, почему необходимо измерять что-либо в работе команды — это тема для отдельного рассказа. Также тут вы не найдёте готовых рецептов для построения бордов в Grafana, но зато получите всё необходимое, чтобы начать их делать самостоятельно. Цель статьи — поделиться, как с минимумом инструментов измерять интересующие тимлида показатели.

Под катом несколько кейсов. Они актуальны для конкретной команды с ее укладом, поэтому прежде всего погружу вас в наши процессы. Но при этом прошу помнить, что статья — не агитация за определённый процесс работы, а описание способа построения дашбордов на примере отдельно взятой команды. Вы вправе сами решить, делать ли вам Code Review, логировать ли время, оценивать с помощью идеальных часов или стори поинтов, использовать ли сабтаски или связанные таски, как связывать баги с задачами и каким образом разделять задачи по эпикам. И я надеюсь, что после прочтения статьи вы сможете создать актуальный для вас борд.

Немного контекста о процессах в команде
  • Работаем по Agile c двухнедельными спринтами.

  • Команда делится на две части: Discovery и Delivery. Discovery — это продакт, аналитики, дизайнеры и ресёрчер. Delivery — тимлид, разработчики и QA. Задача Discovery — изучать потребности клиента, формировать требования и выбор проектов, которые принесут компании наибольший результат. Задача Delivery — качественно реализовать проект в ожидаемые сроки.

  • Раз в спринт я, как тимлид, провожу 1:1 c разработчиками и QA, а еще ретро со всей командой. Раз в квартал проходят квартальные ретро.

  • Есть процесс квартального планирования, в результате которого собираются проекты и скорятся на соответствие целям компании и приносимому результату. По каждому проекту создаётся техрешение вместе с оценкой. Те проекты, которые мы берём в квартал, проходят ресурсное планирование, в рамках которого строится диаграмма Ганта по конкретным задачам, причём задачи предварительно закрепляются за конкретными разработчиками.

  • Планирование спринта проводится дважды — сначала предварительное на встрече руководителей команды, а затем финальное со всей командой.

  • Раз в полгода разработчики и QA проходят грейдирование. По результатам грейдирования принимается решение о повышении оплаты.

  • Разработчики логируют рабочее время в JIRA. QA не логируют ничего.

  • Каждая задача разработки обязана пройти Code Review и ручное тестирование (автоматизаторов у нас в команде пока нет).

  • Один из принципов Skyeng — это открытость, поэтому каждый должен иметь открытый доступ не только к своим результатам, но и чужим. 

  • Ещё один принцип — это честность, поэтому мы не боимся открыто говорить о проблемах и принимать ошибки.

Перед тем, как начать

Мы работаем с JIRA. Теоретически, можно сделать отдельный JIRA report, но у нас практически нет Java-разработчиков, да и это займет время. Но зато есть Grafana и доступ к реплике БД JIRA. Поэтому мой выбор пал на связку Grafana + Jira. Нужно было лишь разобраться во внутреннем устройстве БД JIRA. Особо рекомендую обратить внимание на историю изменений и кастомные поля.

Некоторые лайфхаки можно найти на просторах сети. Например, для определения задач, которые входят в спринт, можно воспользоваться этим советом. Дополнительно потребуется заджойнить имя спринта и добавить по нему условие. Также для виджетов по закрытым/созданным в рамках спринта задачам рекомендую добавить условие соответственно на resolutiondate/created, иначе запросы могут вернуть не те данные. Еще стоит учесть, что задачи могут переходить из одного спринта в другой и менять свои Original Estimate. Для отображения корректного Original Estimate в рамках прошедшего спринта потребуется сделать подзапрос к истории изменений и взять последнее значение до даты старта спринта.

Скорее всего вы уже используете какой-то плагин для логирования времени. В нашем случае — это Work Time Calendar. Следует изучить структуру таблиц плагина, чтобы иметь возможность как минимум достать ворклоги. Для учёта времени, которое проводит задача в определенном статусе, у нас используется плагин Time to SLA. Этот плагин особенно будет полезен для тех команд, которые не практикуют логирование времени.

Теперь давайте перейдём к разбору кейсов, в которых дашборды в Grafana могут помочь.

Sprint Report

Тимлиду важно понимать, что в целом происходит во время спринта, а также видеть ситуацию по каждому человеку из команды. Если общие отчёты в JIRA есть, то вот по людям собрать инфу уже проблематично. Кроме того, полезно бывает посмотреть производительность человека в динамике, ведь никто не в состоянии постоянно показывать топовые результаты.

Для того, чтобы это стало возможным, я вынес на отдельный дашборд интересующие меня показатели. При построении дашборда вы можете определить, какие показатели интересны именно вам, ведь у каждой команды и компании своя специфика. 

Все виджеты я условно разбил на следующие группы:

  1. Общие ключевые показатели команды — первые два ряда виджетов на скрине выше, плюс цели спринта, чтобы о них всегда помнить.

  2. Показатели разработчиков.

  3. Показатели QA.

  4. Детализированные таблицы с данными по конкретным задачам.
    По этим таблицам можно «отдебажить» что пошло не так в конкретном случае.

Одновременно на дашборде отображаются результаты только одного спринта. Дополнительно можно отфильтровать по людям.

Расскажу подробнее о виджетах, на которые чаще всего обращаю внимание.

Время по статусам

В этом виджете показывается время, которое задачи провели в конкретном статусе. Особенно полезен этот виджет будет для команд, которые не практикуют логирование времени в задачах. По нему можно понять, в каком месте процесса есть проблемы. Я, например, у себя заметил проблемы с зависанием задач на стадии Code Review. Поэтому создал отдельные виджеты для отслеживания задач на этой стадии и работы с командой для ускорения процесса Code Review.

Следует отметить отдельный статус NEED INFO FROM BUSINESS. В него мы переводим задачу, когда ждём информацию от бизнеса для ее решения. В идеале это число должно равняться нулю, так как к началу спринта все вопросы уже должны быть решены. Если в этом статусе задачи проводят много времени, то это означает, что задачи были плохо проработаны.

Для реализации этого виджета необходимо настроить SLA по каждому статусу с помощью плагина Time to SLA. После этого останется лишь просуммировать данные по всем задачам в спринте.

Top sprint performance developers

В этом виджете выводится информация о том, сколько идеальных часов (Original Estimate) закрыл разработчик. Исторические данные виджета помогают понять среднюю производительность человека и лучше планировать его нагрузку на следующие спринты. Кроме того, открытые данные по производительности дают дополнительный бонус — ребята немного включают соревновательный режим в производительности и с каждым разом закрывают всё больше задач :) Для этого полезно хотя бы иногда начинать дейли с показа текущего значения виджета.

Sprint performance rating

Здесь смотрю, насколько каждый разработчик реализовал взятые на себя обязательства по выполнению задач.
Здесь смотрю, насколько каждый разработчик реализовал взятые на себя обязательства по выполнению задач.

Формула проста: количество завершённых часов делится на количество взятых изначально в спринт. При этом, если разработчику добавили новые задачи и он их сделал, из-за чего он не успел сделать взятые перед началом спринта, то у него всё равно будут хорошие показатели.

Code Review

Для решения ситуации с Code Review я сделал несколько виджетов, чтобы отобразить количество задач с превышением и количество часов, на которое превысили SLA. Кроме того, сгруппировал результаты по исполнителям и по ревьюерам. 

Наиболее интересен последний виджет, который показывает, на сколько часов в каждом конкретном случае был превышен ревьюером SLA по времени проведения Code Review. Не всегда в проблеме виноват ответственный за Code Review человек. Возможно, ему одновременно упало большое количество задач на ревью или задачи были очень объемными. Виджет только подсвечивает такие моменты, но разбираться в причинах нужно самостоятельно.

Logged time in sprint

Виджет помогает поддерживать актуальными данные по логированию времени. Видеть ситуацию на дашборде значительно удобнее, чем делать выгрузку ворклогов за определённый период и смотреть там часы по каждому человеку. 

Для реализации необходимо использовать данные вашего плагина для логов, у нас это Work Time Calendar.

Dev production bugs и QA production bugs

Количество багов, которые дошли на production по разработчикам и QA. 

Для хранения информации о багах на production мы выбрали кастомное поле, которое вручную обновляется в случае обнаружения бага по задаче на production. Возможно, у вас принят другой способ отслеживания багов — например, создание issues с определённым типом и их связи с изначальной задачей. В таком случае потребуется написать более сложный запрос, но это тоже возможно.

Количество задач, отправленных на доработку по разработчикам и QA

Здесь смотрим, насколько качественно разработчики выполняют задачи и как много дефектов находят QA.

Sprint issues not completed

Пожалуй, это самый интересный виджет в группе виджетов с детализированными таблицами по задачам. По нему на 1:1 можно посмотреть, какие конкретно задачи человеку не удалось выполнить, до какой стадии в рамках спринта он успел их довести и сколько времени на них уже потратил, а также сравнить с запланированным временем.

Бывает полезно посматривать на этот виджет во время спринта, чтобы понимать ситуацию по каждой задаче и иметь возможность оперативно подключиться, если становится понятно, что задачу можно и не успеть сделать за спринт. Если вдруг у вас перестанет работать JIRA, но реплика БД будет работать, то по этому виджету вполне можно провести дейли (у меня такой случай один раз был).

Issues with excess

В виджете отображаются задачи с превышением фактически потраченного времени над запланированным. Я показываю только задачи с превышением более 15%, чтобы не обращать на мелочи внимания. Лучше вывести конкретные часы (плановые и фактические), чтобы понимать превышение — это всего час или десять часов. Этот виджет тоже бывает полезно посмотреть на 1:1 и проговорить, что по отдельным задачам пошло не так.

Задачи с превышением времени по Code Review SLA

Если есть проблемы с Code Review, то по этому виджету становится видно, на каких конкретно задачах возникли проблемы и какое превышение времени было. Что даёт возможность детально разобрать проблему на 1:1

Дашборд Sprint Report позволил мне сэкономить несколько часов в спринт на составление ручных отчётов в экселе для юнит-лида и облегчил подготовку к 1:1 и ретро. 

JIRA — statistics by services

Если:

  • к вам когда-нибудь приходили с вопросом «А сколько времени ушло на разработку этого сервиса?»

  • вам интересно узнать, сколько вы тратите времени на разработку своих и не только своих сервисов;

  • вы хотите понять насколько уложились в оценки по разработке новых сервисов;

…то вам может быть полезен отдельный дашборд в Grafana c количеством потраченного времени по сервисам.

Я смотрю на три показателя, которые мы используем в команде:

  • Initial Estimate — изначальная оценка. Ставится один раз после проведения техревью и не меняется. Если по задаче произошёл scope change, то лучше завести отдельную задачу.

  • Original Estimate — у нас это оценка задачи на момент перед стартом спринта (мы перед каждым спринтом проставляем Original Estimate и Remaining Estimate равными цифрами).

  • Logged Time — количество часов, которое залогировали по задаче.

Разница между Initial Estimate и Logged Time показывает, насколько мы ошибаемся в оценке. Original Estimate позволяет контролировать объем задач в спринте.

Как это работает

Спасибо команде инфры: после деплоя каждой задачи у неё проставляется лейбл deployed-<название сервиса>. По этим лейблам я определяю сервис, в рамках которого шла работа по задаче. Ну а дальше остаётся только просуммировать задачи с группировкой по сервису, в которые были зарезолвлены в обозначенное время. Вы можете у себя организовать такой же процесс, проставлять лейблы вручную или придумать другой способ разделения по сервисам.

На что стоит обратить внимание

Необходимо следить за лейблами. Замечал случаи, когда новые задачи заводились путём клонирования и лейблы клонировались от исходной задачи. В итоге у задачи было несколько деплойных лейблов, что приводило к задвоению/затроению оценок.

Анализируя полученные цифры, можно найти для себя ряд сюрпризов. Я, например, обнаружил, что в рамках квартала у нас ушло значительно больше времени на доработку сервиса соседней команды, чем мы рассчитывали.

Если приходится регулярно фиксить баги в каком-то сервисе, то с помощью такого отчёта легко показать бизнесу, сколько времени уходит на поддержку работоспособности сервиса, а это даёт рычаг для обоснования необходимости устранения технического долга.

По количеству сервисов, на которые тратится основной объём времени, тоже можно сделать выводы. Если у вас больше 3 сервисов, на каждый из которых уходит более 5% времени, то это говорит о расфокусировке команды. В этом случае стоит проговорить зоны ответственности и понять, действительно ли вам стоит отвечать за все эти сервисы или есть более подходящая команда. Возможно, пришла пора разделять команду на части.

Грейдирование

Раз в полгода у нас проходит грейдирование разработчиков. Ребята оценивают сами себя, друг друга и получают оценку от руководителей. Необходимо ответить на вопросы о производительности разработчика и количестве задач, которые вернули после тестирования. Чтобы определить грейд, необходимо знать точные цифры по каждому разработчику:

  1. % задач, которые были возвращены QA после тестирования на доработку.

  2. % задач, в которых разработчик уложился в оценку.

  3. % задач, которые были сделаны быстрее, чем их оценивали.

Естественно, эти цифры не зависят от респондента, но долгое время каждый отвечал «по личным ощущениям», и они не всегда совпадали с правдой. Так как же считать эти показатели?

С % задач, которые были возвращены QA после тестирования, мне повезло. У нас уже было кастомное поле WasInTesting, которое автоматически увеличивалось на 1 каждый раз, когда задача из разработки отправлялась в тестирование. Осталось только посчитать % задач, у которых этот показатель был >1.

Что касается сравнения фактических результатов и планируемых, то количество залогированных часов в JIRA есть (поле jiraissue.timespent). Плановые часы мы также сохраняем в отдельном кастомное поле Initial estimate (Original estimate не можем использовать для этого, так как мы его меняем каждый раз перед началом спринта). Остается сравнить количество потраченных часов на задачу и плановых.

У нас есть задачи на исследования, которые мы заранее не оцениваем. Для формирования корректной выборки необходимо исключить их. Это легко можно сделать, если помечать их отдельным лейблом (мы выбрали лейбл research).

Как известно, аппетит приходит во время еды. Поэтому кроме необходимых показателей для ответов на вопросы грейдирования я вывел и ряд других, которые позволяют понять, как человек поработал в этом квартале, увидеть конкретные задачи, на которые ушло много времени. Дашборд доступен для всей команды. Каждый видит свои результаты и результаты коллег. Всё прозрачно и непредвзято. Это повышает доверие команды к результатам грейдирования и компании в целом, а также мотивирует ребят на улучшение своих показателей.

Вот что из всего этого получилось:

Заключение

На первый взгляд получившиеся отчёты кажутся громоздкими и трудно представить, как своими руками создать нечто подобное. Но на самом деле это не так уж и сложно, главное — начать. 

У меня в самом начале был всего один график. Периодически я дорабатывал первый борд и создал остальные, когда в них возникла необходимость. До сих пор продолжаю усовершенствовать борды и с каждой итерацией они становятся полезнее и точнее.

В качестве результата вы получаете инструмент, с помощью которого можно достаточно просто мониторить производительность сотрудников и процессы в команде, обнаруживать аномалии и оперативно их устранять.

Комментарии (17)


  1. ashofthedream
    03.02.2023 18:42
    +2

    На сколько, по вашему мнению, улучшился рабочий процесс? Повлияли ли на мотивацию ребят эта дашборда? Стали ли они укладываться в сроки? Что происходит с ребятами, у которых низкие показатели?


    1. dmitryshk Автор
      03.02.2023 19:51
      +1

      На сколько, по вашему мнению, улучшился рабочий процесс?
      Стали ли они укладываться в сроки?

      Я бы не сказал, что дашборд сам по себе улучшает рабочий процесс. Скорее он облегчает работу тимлиду и позволяет вовремя находить аномалии. Результаты улучшаются за счёт того, что становится понятным с кем и над чем работать. Например, проблемы с долгим Code Review мы убрали в большинстве случаев. Дашборд делает процессы и результаты по ним более прозрачными. Одно дело сказать человеку: "мне кажется, что ты плохо перформишь", и совсем другое показать на графике результаты в сравнении с другими членами команды.

      Повлияли ли на мотивацию ребят эта дашборда?

      Да, писал про это, когда описывал виджет "Top sprint performance developers". Ребята начинают соревноваться друг с другом за лучший perfomance. Плюс тут появляется неплохое поле для дополнительной мотивации. Например, наградить лучшего перформера за спринт / квартал. Или хотя бы просто похвалить человека, который первым выполнил взятый на себя объем работ.

      Что происходит с ребятами, у которых низкие показатели?

      У нас собралась довольно сильная команда. Если новенький видит, что он не дотягивает до уровня остальных, то он всячески пытается как можно быстрее нагнать, чтобы остаться в команде профессионалов. Реальный кейс - у меня человек самостоятельно проанализировал свои результаты на основе борда и нашёл причину из-за которой у него не получалось работать с достаточной производительностью. Немного поменяв свой образ жизни, ему удалось повысить свою производительность почти в два раза, да и на общем самочувствии сказалось положительно. Я бы точно не смог это сделать за него, особенно учитывая удалённый формат работы.
      Конечно, не всегда всё может закончиться хорошо, но на это и есть испытательный срок.


      1. Ninjak
        05.02.2023 01:00

        Я считаю, что не стоит показывать такие дэшборды ребятам, от них обычно больше вреда, чем пользы. А то, что вы описываете, выглядит как какой-то идеальный мир, но в настоящем мире такого не бывает. Я прям посмеялся насчёт того, что кто-то соревнуется и сам находит причины ;)


  1. EvgeniiR
    03.02.2023 22:21

    Чтобы определить грейд, необходимо знать точные цифры по каждому разработчику:

    ...

    % задач, которые были сделаны быстрее, чем их оценивали.

    Секрет повышения в Skyeng - завышать эстимейты по задачам. Чем сильнее завысишь, тем лучше.

    А если без сарказма, от всей статьи ощущение будто разработчиков по строчкам кода оценивают. Метрики то подобрали посложнее, но суть та же.

    Как показатели для нахождения узких мест в процессе - да, конечно.

    Как возможность заметить, что поведение конкретного разработчика изменилось, и спросить, что у него случилось - ок.

    Как метрики чтобы оценивать грейд разработчиков - написание автотестов, кажется, должно быть более важной задачей, чем попытка вывести разработчика который баги не производит.


    1. dmitryshk Автор
      04.02.2023 12:13
      +1

      Секрет повышения в Skyeng - завышать эстимейты по задачам. Чем сильнее завысишь, тем лучше.

      Это так не работает. Если завышаешь оценки по задачам, то их не берут в работу, т.к. проект становится не таким экономически привлекательным. Да и тимлид есть, который может спросить почему оценка настолько высока. Впрочем, хакнуть возможно любую метрику по отдельности при желании. В данной метрике можно логировать время на 5 минут меньше изначальной оценки, а остальное списывать на митинги, например. Если задача заняла примерно то же самое время, то никто этого и не заметит. Но если мы практически уложились по задаче в оценку, то это ведь хорошо, не так ли? А вот чтобы избежать более серьёзных отклонений нужно смотреть и на другие метрики, например, на количество времени, потраченных на митинги.

      Как метрики чтобы оценивать грейд разработчиков - написание автотестов, кажется, должно быть более важной задачей, чем попытка вывести разработчика который баги не производит.

      Тут не всё так просто, как кажется на первый взгляд. Автотесты делают разработку дороже в 1,5 - 2 раза, а если автотесты пишут сами разработчики, то ещё и увеличивает на столько же время выполнения задач. Поэтому к автотестам нужно подходить обдуманно. Я считаю, что точно нужно покрывать критически важный функционал и писать тесты по найденным багам, особенно если они были найдены на проде. Но ставить себе планку в какой-то процент покрытия тестами кода не стоит, т.к. это приведёт к излишним тратам. Автотесты - это как страховка, можно купить себе полное КАСКО и застраховаться от всего или почти от всего (читаем условия, написанные мелкими буквами), а можно застраховать только отдельные риски - угон, тотал. Каждый сам решает в соответствии с его бизнесом что ему важнее - принять риск или заплатить больше, но застраховаться от всего.


      1. EvgeniiR
        04.02.2023 15:11
        +1

        Впрочем, хакнуть возможно любую метрику по отдельности при желании

        Хакнуть то можно. Вопрос в том, зачем делать это поощряемым поведением, создавая прямую связь между завышением оценок и повышением по грейду.

        Нормальное поведение, где разработчик старается оценивать задачи честно, при этом, наоборот, оказывается невыгодным.

        Автотесты - это как страховка, можно купить себе полное КАСКО и застраховаться от всего или почти от всего (читаем условия, написанные мелкими буквами), а можно застраховать только отдельные риски - угон, тотал. Каждый сам решает в соответствии с его бизнесом что ему важнее - принять риск или заплатить больше, но застраховаться от всего.

        Имхо, автотесты это одно из обязательных условий для того чтобы:

        а) Иметь хоть какие-то гарантии в долгосрочной перспективе;

        б) Иметь возможность поддерживать короткий цикл обратной связи.

        Без них цена и время ручного регрессионного тестирования будет постоянно увеличиваться.

        Но ставить себе планку в какой-то процент покрытия тестами кода не стоит, т.к. это приведёт к излишним тратам.

        Действительно, не стоит. К любым метрикам нужно относиться настороженно, чтобы они не приводили к излишним тратам.

        Работа не ради метрик делается, всё таки - об этом оба мои комментария под вашей статьёй.


        1. dmitryshk Автор
          04.02.2023 15:34
          +1

          Хакнуть то можно. Вопрос в том, зачем делать это поощряемым поведением, создавая прямую связь между завышением оценок и повышением по грейду.

          Нормальное поведение, где разработчик старается оценивать задачи честно, при этом, наоборот, оказывается невыгодным

          Для грейдирования у нас каждый разработчик проходит оценку разными респондентами. Указанные 3 метрики - это только часть из показателей, которые можно легко измерить. Насколько мне известно, пока ни у одной компании в мире нет объективного способа оценки разработчиков. Но при этом у каждой компании есть потребность в их оценке, иначе нельзя будет понять можно ли увеличить сотруднику оклад или нет, подходит ли он по результатам испытательного срока на выбранный уровень или его уровень ниже/выше. Поэтому метрики нужны, а бороться с злоупотреблением нужно за счёт культуры.


  1. msartaev
    05.02.2023 04:10
    +1

    Грейдирование это какой-то полный ад.

    Ну т.е.вместо желания поработать, 100% все люди будут перезакладываться в сроки. И норм сеньор объяснит тимлиду, почему они такие завышенные) если тимлид норм сеньер, то его надо уволить и взять нормального, который будет команду качать, а не код писать. Убрать все три метрики из грейдирования, еще лучше убрать код-ревью, но это слишком зрелая команда должна быть)


    1. dmitryshk Автор
      05.02.2023 18:48

      Ок. Вот вы тимлид. У вас нет грейдирования, в принципе нет каких либо измерений производительности. Вот приходит к вам сотрудник и говорит - хочу больше денег. Что вы ему ответите?


      1. msartaev
        06.02.2023 06:51

        Ну если у вас либо никак, либо только так, то лучше никак:) но вообще в каждом случае что-то индивидуальное отвечу. Опираться нужно на какие-то достижения, проактивность и всякое такое, что мы в рамках 1-1 и активностей команды будем обсуждать и за что ему будут давать обратную связь. может быть он что-то новое выучил и от этого бизнес получил стопицот миллионов или придумал какую-то крутую штуку, которая позволила избежать потерь. Все очень индивидуально. Это просто примеры. Когда всех одинаково оцениваешь, получается как в школе. Для джунов еще с горем можно применить, кроме попадения в срок. Это вообще полный провал в плане kpi. Куча литературы на эту тему написана, можно почитать.


        1. dmitryshk Автор
          06.02.2023 07:36

          Т.е. в вашем случае тимлид выбирает себе любимчиков и карьерный рост строится на основе хороших отношений с тимлидом. Мне вот не кажется это справедливым.


          1. msartaev
            06.02.2023 07:57

            А в каком месте вы прочитали про любимчиков? Где было про бизнес-результаты, наверное) если человек не приносит ценности бизнесу, но круто попадает в сроки, то ему из-за этого пересматривать зарплату чтоль?


            1. dmitryshk Автор
              06.02.2023 08:16

              Разработчик ведь не сам выбирает проекты, которые он должен делать, для этого Продукт есть. Если человек не приносит ценности бизнесу - это проблема Продукта, который нерационально использует его ресурсы. Если человек качественно и вовремя делает свою работу - то да, повышать при наличии возможности.

              А про любимчиков вывод напрашивается сам собой. Т.к. не измеряя фактическую производительность человека у тимлида складывается лишь поверхностное ощущение. Да и указанный вами кейс происходит далеко не со всеми и уж точно не регулярно. Что вы будете делать, когда ничего выдающегося никто не сделал, но все хотят повышения?


              1. msartaev
                06.02.2023 08:38

                Хорошо. Попробую с другой стороны. Что вы хотите от сотрудника, когда нанимаете и чтобы он делал хорошо?

                Неужели вы реально хотите чтобы он точно попадал в сроки, даже если это вдруг бы стало возможным?

                Подумайте просто, что именно для вас хорошое результаты от сотрудника и как это можно померить.

                Плюс, что именно ожидается от команды в рамках результата, точно ли нужны прям конкретные показатели или хватит просто вероятности выполнения на основе исторических данных и можно вообще не делать оценку, чтобы не тратить время?

                Точно ли не существует других способов для ответа на вопрос когда?

                Есть ли еще какие-то подходы по оценке, которые могут быть полезны людям?

                Я не вижу смысла в споре, когда человек даже не пытается понять чужую точку зрения, сорямба.

                Желаю удачи вам:)


  1. nkgrig
    05.02.2023 04:34
    +1

    Тут классическая управленческая управленческая ошибка. Мерять не рутину, как рутину. Вы потратили время зря.

    Вопросы на котором вы засыпетесь. Вот, вы руководитель. От ваших решений в первую очередь зависит успех команды. Соответственно, в первую очередь надо оценивать собственные решения. Есть ли у вас такой дашборд о себе? Какие решения удачные, какие неудачные, сколько времени вы реально в день работаете концентрированно и над какими задачами, на что входит больше всего времени, как это коррелирует с финансами личными и компании? В виде графика и цифр, пожалуйста.


    1. dmitryshk Автор
      05.02.2023 18:45

      Результат работы руководителя - это результат работы его команды. Можно те же самые графики взять и посмотреть общие цифры.


      1. msartaev
        06.02.2023 06:52
        -1

        Это один из показателей работы руководителя) да и то косвенный, не надо присваивать себе чужой результат:)