Никого не хотел обидеть КДПВ (в первую очередь @Saalur), действительно далеко не с первого раза становится понятно.
Введение
Одним из наиболее ярких нововведений, которые получил язык в стандарте C++20, является поддержка сопрограмм (или корутин). Разработчики ПО для микроконтроллеров сразу могут заметить, что корутина похожа на задачу в операционной системе. На хабре уже присутствуют материалы, посвященные этой теме, например, "Использование coroutines из С++20 в связке с NRF52832 и GTest" от @Firthermant и "CoroOS: концепт операционной системы для микроконтролеров на корутинах С++20" от @Saalur В то же время не могу не отметить, что сходу разобраться в представленных материалах и исходниках нелегко, особенно для тех программистов, которые пока еще не достаточно хорошо познакомились с сопрограммами в C++. В своём материале я постараюсь на более простом уровне разобрать вопросы применения нового стандарта языка при разработке планировщика заданий. В некотором смысле эту статью можно считать подготовительной перед прочтением указанных выше.
Итак, давайте разберем несколько несложных вариантов планирования задач от самого примитивного до чего-то отдалённо напоминающего операционную систему.
Простейшая кооперативная многозадачность
Кооперативная многозадачность подразумевает "добровольную" передачу управления от одной задачи другой. В терминах операционной системы, как правило, над всеми задачами расположена "суперзадача" – планировщик, принимающий управление от приостановленного кода и передающий очередной задаче. Пример функционирования наиболее простой системы из двух задач показан на рисунке 1 (зелёными стрелками выделен каждый второй круг цикла).
Предложенная система состоит из двух задач, первая из которых содержит три оператора и готова вернуть управление (перейти в состояние ожидания) после выполнения оператора 2
, а вторая задача состоит из четырех операторов и также готова перейти в состояние ожидания после выполнения оператора 2
.
Таким образом, многозадачность реализуется следующей последовательностью выполнения операторов:
Порядок выполнения операторов
Задача 1. Оператор 1.
Задача 1. Оператор 2.
Задача 2. Оператор 1.
Задача 2. Оператор 2.
Задача 1. Оператор 3.
Задача 2. Оператор 3.
Задача 2. Оператор 4.
Перейти к пункту 1.
Такой порядок выполнения легко переложить на механизм корутин:
Объектами корутин владеет планировщик, что позволяет ему в порядке очереди передавать управление задачам.
Продолжение выполнения задачи планировщиком – операция resume для очередной корутины-задачи.
Приостановка выполнения задачи и передача управления планировщику – операция suspend для текущей корутины.
Таким образом, код планировщика в подобной системе выглядит приблизительно следующим образом:
auto tasks = { Task1(), Task2() }; // Создание задач
for(;;)
{
// Последовательное продолжение выполнения задач
for (auto& t : tasks)
t.resume();
}
А сама задача так:
task TaskX()
{
// Начальная инициализация
for(;;)
{
// Операторы 1 .. N1
co_await std::suspend_always(); // приостановка выполнения
// Операторы N1+1 .. N2
co_await std::suspend_always(); // приостановка выполнения
}
}
В самом примитивном случае (а именно такой мы пока рассматриваем) объектом ожидания корутины (аргументом оператора co_await
) является стандартный std::suspend_always()
, подразумевающий просто передачу управления обратно вызывающей стороне – планировщику.
Тип task
в этом случае также простейший, его исходный код приведен ниже. Стоит только отметить, что неизбежно придётся переопределить оператор new
, однако от менеджера памяти требуется лишь однократного выделения области памяти в буфере, поскольку данная операция будет выполнена единожды для каждой задачи. Освобождение же памяти не подразумевается вовсе, поскольку классическая задача-корутина содержит бесконечный цикл. И вообще, отдельный менеджер памяти, в принципе, не нужен вовсе, можно объявить буфер в самом типе task
или task::promise_type
, однако такой подход чреват излишним расходованием памяти, так как для разных задач может потребоваться различный размер, в таком случае размер буфера придется определить как максимальный среди всех задач.
Из русскоязычных материалов по сопрограммам мне больше всего понравилась лекция Константина Владимирова, советую просмотреть обе части, так как весь дальнейший код старался делать максимально приближенным к тому, как материал излагал лектор.
Исходный код структуры task
struct task {
struct promise_type {
using coro_handle = std::coroutine_handle<promise_type>;
auto get_return_object() {
return coro_handle::from_promise(*this);
}
auto initial_suspend() {
// Изначально задача остановлена
// Хотя можно вернуть suspend_never, чтобы дать возможность проинициализировать всё необходимое
return std::suspend_always();
}
auto final_suspend() noexcept {
// Задача будет содержать бесконечный цикл, поэтому в этот метод попадать не должны
return std::suspend_never();
}
void unhandled_exception() {
// В этот метод тоже
}
void* operator new(std::size_t size) {
return MemoryManager::Allocate(size);
}
void operator delete(void* ptr) {
// По той же самой причине (бесконечное выполнение задач) в этот метод попасть не должны
MemoryManager::Deallocate(ptr);
}
};
using coro_handle = promise_type::coro_handle;
task(coro_handle handle) : _handle(handle) {}
// Деструктор можно не определять, так как он ни разу не будет вызван
void resume() const {
_handle.resume();
}
private:
coro_handle _handle;
};
Код всей программы целиком (для работы с периферией использовал свою библиотеку) представлен под катом. Для упрощения в задачах оставлен только один оператор co_await
, а полезная нагрузка представляет собой ожидание байта от UART и запись ответа. Работоспособность проверена на контроллере stm32f103c8t6.
Полный код программы
#include <iopins.h>
#include <usart.h>
#include <coroutine>
class MemoryManager {
static const uint32_t Capacity = 512;
public:
static void* Allocate(std::size_t size) {
_size += size;
return &_data[_size - size];
}
static void Deallocate(void* ptr) {
// Задачи-корутины вечные, поэтому в этот метод попасть не должны
}
private:
static uint8_t _data[Capacity];
static uint16_t _size;
};
uint8_t MemoryManager::_data[MemoryManager::Capacity];
uint16_t MemoryManager::_size = 0;
struct task {
struct promise_type {
using coro_handle = std::coroutine_handle<promise_type>;
auto get_return_object() {
return coro_handle::from_promise(*this);
}
auto initial_suspend() {
// Изначально задача остановлена
// Хотя можно вернуть suspend_never, чтобы дать возможность проинициализировать всё необходимое
return std::suspend_always();
}
auto final_suspend() noexcept {
// Задача будет содержать бесконечный цикл, поэтому в этот метод попадать не должны
return std::suspend_always();
}
void unhandled_exception() {
// В этот метод тоже
}
void* operator new(std::size_t size) {
return MemoryManager::Allocate(size);
}
void operator delete(void* ptr) {
// По той же самой причине (бесконечное выполнение задач) в этот метод попасть не должны
MemoryManager::Deallocate(ptr);
}
};
using coro_handle = promise_type::coro_handle;
task(coro_handle handle) : _handle(handle) {}
// Деструктор можно не определять, так как он ни разу не будет вызван
void resume() const {
_handle.resume();
}
private:
coro_handle _handle;
};
using usart1 = Zhele::Usart1;
using usart2 = Zhele::Usart2;
task Task1()
{
usart1::Init(9600);
usart1::SelectTxRxPins<Zhele::IO::Pa9, Zhele::IO::Pa10>();
usart1::Write("Init task1\r\n", 12);
for(;;) {
if (usart1::ReadReady()) {
auto s = usart1::Read();
if (s == '1')
usart1::Write("Task1: you write '1'\r\n", 22);
if (s == '2')
usart1::Write("Task1: you write '2'\r\n", 22);
}
co_await std::suspend_always();
}
}
task Task2()
{
usart2::Init(9600);
usart2::SelectTxRxPins<Zhele::IO::Pa2, Zhele::IO::Pa3>();
usart2::Write("Init task2\r\n", 12);
for (;;) {
if (usart2::ReadReady()) {
auto s = usart2::Read();
if(s == '1')
usart2::Write("Task2: you write '1'\r\n", 22);
if(s == '2')
usart2::Write("Task2: you write '2'\r\n", 22);
}
co_await std::suspend_always();
}
}
int main()
{
auto tasks = {Task1(), Task2()};
for(;;)
{
for (auto& t : tasks)
t.resume();
}
}
Вытесняющая многозадачность на событиях
Хотя безусловная приостановка задач не лишена смысла, чаще приостановка выполнения связана с ожиданием некоторого внешнего события, без которого дальнейшее выполнение задачи невозможно в принципе. В нашем примере этим событием является приём очередного байта по UART. В таком случае аргументом оператора co_await
разумно сделать не стандартный suspend_always
, а некий awaitable-объект, который мы сейчас и попробуем описать.
К объекту ожидания можно предъявить несколько требований:
Должен содержать promise, подходящий для оператора
co_await
.Должен иметь флаг состояния (состоялось или нет ожидаемое событие, можно или нет продолжать выполнение корутины).
Должен иметь внутри себя список (в нашем случае ограничимся единственным экземпляром) потребителей, которые ожидают это самое событие.
Вообще говоря, третий пункт является спорным, потому что оповещение ожидающих задач можно сделать и иначе, например, сохранить их где-то отдельно.
В данном случае тип task
можно упростить, удалив из его полей дескриптор coro_handle
(так как в отличие от ранее предложенного варианта, конкретного владельца у корутины не будет. Владеть ею временно будет ожидаемое событие). При наступлении события активируется соответствующий потребитель. На текущем этапе эта процедура происходит прямо в обработчике прерывания, что делает систему вытесняющей.
Код упрощенного типа task
(в лекции Владимирова это тип resumable_no_own
):
Код структуры task
struct task {
struct promise_type {
using coro_handle = std::coroutine_handle<promise_type>;
auto get_return_object() {
return coro_handle::from_promise(*this);
}
// В двух следующих двух методах возвращается suspend_never
auto initial_suspend() {
return std::suspend_never();
}
auto final_suspend() noexcept {
// Задача будет содержать бесконечный цикл, поэтому в этот метод попадать не должны
return std::suspend_never();
}
void unhandled_exception() {
// В этот метод тоже
}
void* operator new(std::size_t size) {
return MemoryManager::Allocate(size);
}
void operator delete(void* ptr) {
// По той же самой причине (бесконечное выполнение задач) в этот метод попасть не должны
MemoryManager::Deallocate(ptr);
}
};
using coro_handle = promise_type::coro_handle;
// В конструкторе ничего не происходит
task(coro_handle handle) {}
};
Наиболее важным элементом является тип события, его код:
Код класса event
class event {
using coro_handle = std::coroutine_handle<>;
struct awaiter {
event& _event;
coro_handle _handle = nullptr;
awaiter(event& event) noexcept : _event(event) {}
bool await_ready() const noexcept { return _event.is_set(); }
void await_resume() noexcept { _event.reset(); }
// Регистрация потребителя события
void await_suspend(coro_handle handle) {
_handle = handle;
_event.set_awaiter(this);
}
};
public:
// Метод установки (активации) события
void set() {
_set = true;
// Возобновление соответствующей задачи
// По замечанию @mayorovp проверяем, есть ли вообще потребитель
if (_consumer)
_consumer->_handle.resume();
}
// Проверка состояния события
bool is_set() {
return _set;
}
// Сброс события
void reset() {
_set = false;
// По замечанию @mayorovp обнуляю потребителя
// По-хорошему операция должна быть атомарной, но
// пока не готов предложить качественный вариант
_consumer = nullptr;
}
// Метод регистрации потребителя
// Можно реализовать целый список потребителей
void set_awaiter(awaiter* consumer) {
_consumer = consumer;
// Пока исправлял код, подумал, а что если событие возникло раньше,
// чем на него в очередной раз подписались? В случае с принятым
// байтом, наверно, надо сразу пробуждать потребителя?
// Прошу совета в комментариях.
}
// Перегруженный оператор co_await, так как тип event не является awaitable
// Подробное разъяснение необходимости этой перегрузки можно найти в лекции Владимирова
awaiter operator co_await() noexcept {
return awaiter(*this);
}
private:
awaiter* _consumer = nullptr;
bool _set = false;
};
При вытесняющей активации корутины непосредственно из обработчика прерывания смысл отдельного планировщика теряется, поэтому главный цикл в функции main
пустой.
Полный код программы
#include <iopins.h>
#include <usart.h>
#include <coroutine>
class MemoryManager {
static const uint32_t Capacity = 512;
public:
static void* Allocate(std::size_t size) {
_size += size;
return &_data[_size - size];
}
static void Deallocate(void* ptr) {
// Задачи-корутины вечные, поэтому в этот метод попасть не должны
}
private:
static uint8_t _data[Capacity];
static uint16_t _size;
};
uint8_t MemoryManager::_data[MemoryManager::Capacity];
uint16_t MemoryManager::_size;
struct task {
struct promise_type {
using coro_handle = std::coroutine_handle<promise_type>;
auto get_return_object() {
return coro_handle::from_promise(*this);
}
// Отличие от предыдущей реализации только в следующих двух методах
auto initial_suspend() {
return std::suspend_never();
}
auto final_suspend() noexcept {
// Задача будет содержать бесконечный цикл, поэтому в этот метод попадать не должны
return std::suspend_never();
}
void unhandled_exception() {
// В этот метод тоже
}
void* operator new(std::size_t size) {
return MemoryManager::Allocate(size);
}
void operator delete(void* ptr) {
// По той же самой причине (бесконечное выполнение задач) в этот метод попасть не должны
MemoryManager::Deallocate(ptr);
}
};
using coro_handle = promise_type::coro_handle;
// В конструкторе ничего не происходит
task(coro_handle handle) {}
};
class event {
using coro_handle = std::coroutine_handle<>;
struct awaiter {
event& _event;
coro_handle _handle = nullptr;
awaiter(event& event) noexcept : _event(event) {}
bool await_ready() const noexcept { return _event.is_set(); }
void await_resume() noexcept { _event.reset(); }
// Регистрация потребителя события
void await_suspend(coro_handle handle) {
_handle = handle;
_event.set_awaiter(this);
}
};
public:
// Метод установки (активации) события
void set() {
_set = true;
// Возобновление соответствующей задачи
_consumer->_handle.resume();
}
// Проверка состояния события
bool is_set() {
return _set;
}
// Сброс события
void reset() {
_set = false;
}
// Метод регистрации потребителя
// Можно реализовать целый список потребителей
void set_awaiter(awaiter* consumer) {
_consumer = consumer;
}
// Перегруженный оператор co_await, так как тип event не является awaitable
// Подробное разъяснение необходимости этой перегрузки можно найти в лекции Владимирова
awaiter operator co_await() noexcept {
return awaiter(*this);
}
private:
awaiter* _consumer = nullptr;
bool _set = false;
};
using usart1 = Zhele::Usart1;
using usart2 = Zhele::Usart2;
event usart1Rx;
event usart2Rx;
char u1, u2;
task Task1()
{
usart1::Init(9600);
usart1::SelectTxRxPins<Zhele::IO::Pa9, Zhele::IO::Pa10>();
usart1::Write("Init task1\r\n", 12);
usart1::EnableInterrupt(usart1::InterruptFlags::RxNotEmptyInt);
for(;;) {
co_await usart1Rx;
if (u1 == '1')
usart1::Write("Task1: you write '1'\r\n", 22);
if (u1 == '2')
usart1::Write("Task1: you write '2'\r\n", 22);
}
}
task Task2()
{
usart2::Init(9600);
usart2::SelectTxRxPins<Zhele::IO::Pa2, Zhele::IO::Pa3>();
usart2::Write("Init task2\r\n", 12);
usart2::EnableInterrupt(usart2::InterruptFlags::RxNotEmptyInt);
for (;;) {
co_await usart2Rx;
if(u2 == '1')
usart2::Write("Task2: you write '1'\r\n", 22);
if(u2 == '2')
usart2::Write("Task2: you write '2'\r\n", 22);
}
}
int main()
{
Task1();
Task2();
for(;;) {}
}
extern "C" {
void USART1_IRQHandler() {
u1 = usart1::Read();
usart1Rx.set();
usart1::ClearInterruptFlag(usart1::InterruptFlags::RxNotEmptyInt);
}
void USART2_IRQHandler() {
u2 = usart2::Read();
usart2Rx.set();
usart2::ClearInterruptFlag(usart2::InterruptFlags::RxNotEmptyInt);
}
}
В коде выше предложено объективно некрасивое решение с глобальными переменными u1, u2
. От них можно несложным образом избавиться, внеся результат в объект event
, что позволит внутри корутины лаконично написать char s = co_await usartNRx;
Кооперативная многозадачность на событиях
Предыдущий код можно модернизировать и получить кооперативную многозадачность, основанную на событиях. В обработчике прерываний мы откажемся от немедленной установки флага события, а вместо этого добавим объект события в очередь на оповещение его потребителя. Для этого потребуется совсем немного изменений.
В программу можно добавить глобальную очередь событий:
std::queue<Event*> TasksQueue;
В главном цикле (планировщике) остается только активировать события в порядке очереди:
for(;;) {
if (!TasksQueue.empty()) {
TasksQueue.front()->set();
TasksQueue.pop();
}
}
В обработчике прерываний вместо немедленной активации события необходимо добавить событие в очередь:
void USART1_IRQHandler() {
u1 = usart1::Read();
TasksQueue.push(&usart1Rx);
usart1::ClearInterruptFlag(usart1::InterruptFlags::RxNotEmptyInt);
}
// Код обработчика UART2 аналогичный
В такой модификации при наступлении события текущей задаче даётся возможность дойти до первого по ходу выполнения оператора co_await
, то есть вытеснения не происходит.
Важно! Данный код не заработал с опцией -Os, что я связываю с использованием std::queue
. Без оптимизации (с опцией -O0) всё работает корректно.
Кооперативная многозадачность с приоритетами
Очевидным развитием системы является приоритизация выполнения задач. Сделать это можно простым добавлением очереди (или нескольких очередей – для каждого уровня приоритета), причем почти «бесплатно» достается поддержка динамического приоритета задач, если приоритет имеет не сама задача, а ожидаемое ею событие (более подробно эту тему раскрыл @Saalur), так что рассмотрим сразу этот пример.
Для поддержки приоритетов предыдущую реализацию достаточно дополнить не одной очередью, а несколькими (своя на каждый уровень приоритета), либо предусмотреть сортировку при вставке в очередь. Для демонстрации примем, что есть два уровня: высокий и низкий, и рассмотрим изменения в исходном коде.
В первую очередь тип event
обзаведется приоритетом:
// Вложенное перечисление приоритетов
enum class Priority
{
Low,
High
};
// Появился конструктор с параметром
event(Priority priority) : _priority(priority) {}
// А также метод, возвращающий приоритет события
Priority priority() const {return _priority;}
Глобальные переменные событий должны быть созданы с нужными приоритетами:
event usart1Rx(event::Priority::High);
event usart2Rx(event::Priority::Low);
В главном цикле (планировщике) необходимо сначала обработать все задачи с высоким приоритетом, а уже после с низким:
for(;;) {
if (!HighPriorityTasksQueue.empty()){
HighPriorityTasksQueue.front()->set();
HighPriorityTasksQueue.pop();
continue;
}
if (!LowPriorityTasksQueue.empty()) {
LowPriorityTasksQueue.front()->set();
LowPriorityTasksQueue.pop();
}
}
А в обработчике прерываний вставка в очередь зависит от приоритета события. Текущая реализация не слишком красивая, однако код написан исключительно для демонстрации, поэтому считаю это позволительным.
void USART1_IRQHandler() {
u1 = usart1::Read();
(usart1Rx.priority() == event::Priority::High ? HighPriorityTasksQueue : LowPriorityTasksQueue).push(&usart1Rx);
usart1::ClearInterruptFlag(usart1::InterruptFlags::RxNotEmptyInt);
}
// Код обработчика UART2 аналогичный
Несложно заметить, что возможности расстановки приоритетов практически безграничны. Например, можно комбинировать приоритет самой корутины и объекта ожидания и выбирать из двух наибольший (или наименьший).
Заключение
В данной статье я постарался рассмотреть вопрос применения корутин языка C++ для диспетчеризации задач, предложив наиболее примитивную систему и варианты ее последовательного развития. Дальнейшая модернизацию уже можно считать некоторой операционной системой, что замечательно раскрыл @Saalur. Также хотел бы поблагодарить уважаемого @lamerok, который проконсультировал меня по вопросу переключения контекста (очень советую к прочтению его статью), хотя я и решил не включать этот вопрос, так как к корутинам он не относится.
Надеюсь, что мне удалось хотя бы в какой-то мере продемонстрировать на простых примерах, как можно применить последний стандарт C++ для диспетчеризации задач.
Комментарии (19)
mayorovp
09.09.2022 10:52+3Важно! Данный код не заработал с опцией -Os, что я связываю с использованием std::queue. Без оптимизации (с опцией -O0) всё работает корректно.
Сударь, если у вас оптимизация ломает код — у вас UB. Надо не оптимизации выключать, а код чинить.
Но "виновата", скорее всего, и правда очередь. Нельзя обычную очередь использовать в конкурентном режиме, тут нужен потокобезопасный контейнер на атомиках. Или что-нибудь специальное для прерываний.
Другие ошибки:
Метод await_resume в "событийной" реализации должен не только сбросить событие, но и очистить поле consumer, причём атомарно. А в методе set надо проверять есть ли вообще consumer чтобы его вызвать. Наконец, при установке awaiter на установленное событие надо вызывать его сразу же, причём эта проверка снова должна быть атомарной. Если всё это не сделать — два прерывания, произошедшие слишком быстро и подряд, уведут всю вашу программу в UB (скорее всего, это будет повреждение памяти).
DSarovsky Автор
09.09.2022 11:02Надо не оптимизации выключать, а код чинить.
Полностью согласен, но всё никак не доберусь (в материалах про USB тоже такую проблему озвучивал), особенно с учетом сложности отладки кода для МК.Другие ошибки:
Спасибо за замечания, это важно, внесу исправления.
yatanai
10.09.2022 17:40Единственный плюс нового стандарта что я нашёл для себя - теперь можно паковать задачи как корутины и передавать их в многопоточных планировщик. Мол, раньше приходилось ваять костыли, а теперь это стандарт.
Kelbon
10.09.2022 22:28-1for(;;) { // Последовательное продолжение выполнения задач for (auto& t : tasks) t.resume(); }
Это называется последовательное исполнение программы, для стеклесс корутин не нужен шедулер, он необходим для стекфул корутин(управления их фреймами и переключениями контекста)
Другими словами С++20 корутины это инструменты объединения асинхронных задач в одну логическую задачу, они управляют своим исполнением сами и сами его назначают(иногда с помощью генераторов ивентов по типу boost::asio::io_context). То есть вместо "шедулера" который у вас бесполезен корутина внутри своего кода должна делать нечто типа подписки на событие или перехода на экзекьютор(засыпая перед этим)mayorovp
11.09.2022 02:05+1Подписаться на событие с засыпанием может и "стекфул корутина", причём совершенно тем же самым способом; необходимость планировщика с наличием стека вообще никак не связана.
Но это не значит что планировщик не нужен! Он нужен, и вот для чего:
-
Отложенная обработка событий. Прерывание — это такая штука, в обработчике которой многие операции просто запрещены. Вот и приходится делать очередь событий и цикл их обработки. Которые вместе образуют тот самый планировщик.
-
(Псевдо-)Параллельное выполнение CPU-bound задач. Если задача "тяжёлая" — то приходится периодически прерывать её и передавать управление другим задачам. Из чего следует необходимость вести список готовых к возобновлению задач и выбора среди них очередной. Что и является задачей планировщика.
Kelbon
11.09.2022 06:28каким образом вы собрались прерывать стеклес корутину снаружи неё?
mayorovp
11.09.2022 10:04А почему обязательно снаружи? Автор вон в своём первом примере
co_await suspend_always();
предлагает расставлять. При добавлении ожидания событий этот вариант ломается, но починить его нетрудно.Kelbon
11.09.2022 10:05-1тогда внезапно корутина сама себя прерывает, так зачем же нужен шелудер тогда? И очевидно если это co_await suspend_always{}; то корутина надеется на нечто внешнее что её потом разбудит при этом не назначая никак когда же ей нужно проснуться. Это просто неэффективно, это похоже на логику шедулера ОС, который ничерта не знает о том что делают треды и будит/усыпляет в рандомные моменты. Теряется смысл вообще вводить шедулер и корутины
mayorovp
11.09.2022 10:21-1И очевидно если это co_await suspend_always{}; то корутина надеется на нечто внешнее что её потом разбудит при этом не назначая никак когда же ей нужно проснуться
Ага, это и называется "планировщик". И именно за этим он и нужен.
Это просто неэффективно
А у вас что, есть более эффективное решение для CPU-bound задач?
Теряется смысл вообще вводить шедулер и корутины
Почему?
Kelbon
11.09.2022 11:20-1Ага, это и называется "планировщик". И именно за этим он и нужен.
это бессмысленный планировщик о чём я и говорю
А у вас что, есть более эффективное решение для CPU-bound задач?
разумеется, корутина должна сигнализировать когда и как ей хочется проснуться, тогда и будет получен выигрыш от введения этой абстракции
И другой вариант, когда корутины завязаны друг на друга и таким образом исполняются по очереди передавая управление через симметричный трансфер. Опять же максимально эффективно т.к. ими управляет не шедулер, который не знает что и когда на самом деле должно произойти, а они сами, обладая всей полнотой информацииmayorovp
11.09.2022 11:35-1Повторюсь: что вы будете делать с CPU-bound задачами? Ещё раз: CPU-bound.
Вы постоянно пытаетесь рассказать решение для задач, которые ограничены вводом-выводом либо какими-то другими внешними событиями. Но бывают ситуации, когда ждать нечего, надо просто что-то долго считать.
-
DSarovsky Автор
11.09.2022 17:58Конечно, первый пример в общем-то абсолютно не жизненный, однако хотел начать с самого примитивного варианта применения корутин, а дальше его несколько усложнять.
ReadOnlySadUser
...и далее простыня из магических структур, перегрузок операторов, без какого-либо объяснения зачем в этих структурах те, или иные методы нужны. Что они делают, в какой момент вызываются.
Так и в чём соббсно разница между теми материалами и вашим?
DSarovsky Автор
Задумка была в следующем: не писать сразу ОС, а предложить минимальный пример и последовательно его усложнять.
NeoCode
ИМХО нужно было еще рассказать, что такое например std::coroutine_handle, std::suspend_always() и т.д. Судя по всему, названия методов get_return_object(), initial_suspend(), final_suspend(), unhandled_exception() и т.д. являются какими-то магическими встроенными в компилятор или в код системной библиотеки именами, как "begin()" и "end()" для коллекций - ведь никакого наследования от каких-либо интерфейсов в вашем коде я не увидел. Мне кажется, вот с таких вещей и нужно начинать...
Но статья в любом случае полезная, чем больше такой информации тем лучше.
DSarovsky Автор
Я думал об этом, но тогда статья бы получилась про корутины, а вопросы планирования стал бы второстепенным (по объему по крайней мере). Старался в местах, где происходит корутинная магия, ссылаться на лекции МФТИ. Лучше, чем лектор Константин Владимиров, я все равно её не объясню:)