Осенью прошлого года было представлено достаточно интересное гиковское устройство, совмещающее в себе проектор и сенсорный экран. Маркетологи позиционировали его как устройство в каждый дом, но мы-то с вами знаем, что это чисто гиковская игрушка. Я был в восторге от первых фотографий (фейковых, кстати).

Но когда была озвучена цена в 150 000 рублей за устройство — как и положено нищеброду, не смог удержаться и высказался в духе «За что, чёрт возьми! Это же очень простое устройство!».
Технически устройство и правда не выглядит сложным — как и многие гики, proof of concept сенсорного проектора я делал много лет назад и считаю это достаточно простой штукой. Однако, и в личку, и в комментариях к той статье меня попросили чуть подробнее описать процесс сборки. Так и родился проект Sanya N Touch.

Статья об оригинальном устройстве вышла на ГТ в конце ноября. Как только стало понятно, что надо делать свой проект — заказал проектор. И он очень удачно пришел на новогодние праздники, так что мне было чем заняться в первую неделю января. Основная причина задержки — ожидание заказанного под задачу проектора.

Цель


Если Вы — такой же гик, как и я, то вам очень хочется поиграться с тачскрином на проецируемом изображении. Но платить 3000$ за игрушку, которая увлечет максимум на час вряд ли захочется. Цель — создать дешевую альтернативу. Понятно, что воткнуть всё в компактный корпус не получится. Конкурировать на этом поле с фабричным производством бессмысленно. В остальном же — раздолье.

Оборудование


Девайс состоит из трех частей:

1) Проектор
2) Камера
3) Компьютер, чтобы всё это считать.

Проектор




У меня есть нормальный FullHD проектор, однако он большой, тяжелый и дорогой. Снимать его со стойки, ставить на неустойчивый штатив для экспериментов очень не хотелось.

Да и, как мы знаем, в оригинальном устройстве FullHD — это фикция. Так что не будем отставать.
Специально под Sanya N Touch я нашел проектор GM 60 в Китае за 2900 рублей с курьерской доставкой до дома. Кстати, в магазине ledunix год назад такой проектор со скидкой продавался всего лишь за 7000 рублей! 640х480 — идеальное разрешение, однозначно берем.

+2 900 рублей

Камера




Обычную камеру использовать нельзя. Постоянно меняющееся изображение не позволит сколь-либо уверенно детектировать руку пользователя.

Вариантов два:

1) Переделать обычную камеру в ИК камеру
2) Взять готовую камеру глубины

Есть, конечно, и другие экзотические варианты. Например, можно использовать тепловизор для гарантированного детекта конечностей пользователя.

Кстати, теплак в комплексе с камерой глубины сводит все артефакты детектирования практически к нулю. Но это ОЧЕНЬ дорого. Хм… Может поэтому оригинальное устройство стоит 150 000?

Не будем так сильно заморачиваться. Возьмем кинект. Тем более что у меня он уже есть и покупать ничего не надо. К сожалению, кинект сняли с производства, из-за чего цена на оставшиеся комплекты резко выросла. Но можно примастрячить и новый iPhone, в него как раз добавили камеру глубины, аналогичную кинекту.

Хм… Может в оригинальном устройстве тоже внутри айфон спрятан? Это тоже всё объясняет.
Мне кинект обошелся в 7600 рублей + адаптер для ПК — в 2700.

+10 300 рублей

Компьютер




Т.к. мы делаем портативный девайс, то под него пришлось прикупить ноут. Есть мнение, что кинект очень требователен к железу. Это ошибочное мнение. Кинект — это просто камера. Зато очень требователен к железу софт, который анализирует данные с камеры.

Мы же будем работать напрямую с изображением. Хотя, конечно, обработку всё равно придется делать. Ноут я купил Asus X55SV за 2000 рублей. Всё с ним хорошо, но знающие люди уже посмеиваются. Кинект требует USB 3.0 и на USB 2 не заработает нормально, а на этом ноуте USB 3 отсутствует как класс. Поэтому пришлось прикупить PCMCIA карточку расширения для ноута с USB 3.0 портами. Это, мягко говоря, лотерея — кинект весьма придирчив к USB и даже не со всеми честными USB 3 работает. Карточка обошлась в 400 рублей.

+2 400 рублей

Всякая всячина


600 рублей — штатив.
Обрезки алюминиевого профиля и старая фанера — бесценно бесплатно
Работу по изготовлению скворечника считать не будем:



Итого



16 200 рублей — бюджет данного проекта

Программное обеспечение


Нам понадобится libfreenect2, openni и opencv: libfreenect2 отвечает за низкоуровневую работу с kinect, openni — универсальная библиотека верхнего уровня, через которую общаемся с libfreenect.

Если вы будете использовать первый кинект или, например, asus xtion — изменится только установленный драйвер, а весь код для openni останется прежним. opencv используем для обработки изображения, полученного с камеры.

Общий алгоритм работы


Инициализация:

1. Совмещаем спроецированный экран и изображение, полученное с камеры.
2. В течении нескольких секунд сохраняем текущее состояние камеры глубины в буфере. Несколько секунд нужны, чтобы накопилась ошибка и в дальнейшем меньше влияла.

Работа:

3. Постоянно забираем карту глубины, с помощью opencv находим руку и крайнюю точку руки.
4. Используем найденную точку в качестве указателя мыши.

Детали реализации


Инициализация контекста


if (openni::OpenNI::initialize()==openni::STATUS_OK)
{
  if (m_Device.open(openni::ANY_DEVICE)==openni::STATUS_OK){
    m_Device.setImageRegistrationMode(openni::IMAGE_REGISTRATION_DEPTH_TO_COLOR);
    if (m_DepthStream.stream.create(m_Device, openni::SENSOR_DEPTH) == openni::STATUS_OK){
      if (m_DepthStream.stream.start() == openni::STATUS_OK){
        if (m_ColorStream.stream.create(m_Device, openni::SENSOR_COLOR) == openni::STATUS_OK){
          if (m_ColorStream.stream.start() == openni::STATUS_OK){

openni::OpenNI::initialize() — запускаем openni
m_Device.open(openni::ANY_DEVICE) — открываем первую попавшуюся камеру. Хорошо работает, если камера одна. Если их несколько, то лучше указывать — какую конкретно хотим открыть.
m_Device.setImageRegistrationMode(openni::IMAGE_REGISTRATION_DEPTH_TO_COLOR) — просим openi взять на себя работу по совмещению изображений с камер.

Дело в том, что камер у того же кинекта две. Одна — обычная и одна — камера глубины. И они физически находятся в разных местах. Соответственно, изображение, получаемое от них, различается. И различается оно очень сильно, т.к. у них еще и характеристики разные. К счастью, openni умеет с этим бороться, выдавая совмещенные друг с другом стримы.
Остальные строки простые — создаем стрим, запускаем стрим.

Определение фона


Заливаем экран проектора черным цветом. И в течении нескольких секунд читаем данные с двух стримов. В карту фонового цвета записываем самые яркие значения, в карту фоновой глубины — самые ближние к камере.

Яркость получаем из RGB по формуле: 0.2125*RED+ 0.7150*GREEN + 0.0722*BLUE

Фон (глубина):



Фон (яркость):



Определение позиции экрана (синхронизация с камерой)


Благодаря openni изображение с камеры глубины и с обычной камеры геометрически совпадают.

Значит, если мы сможем определить на изображении с обычной камеры где находится экран — сможем определить и где экран на карте глубины.

Показываем через проектор белый экран, считываем его и заполняем буфер по следующему алгоритму: если пиксель ярче, чем фоновый — заливаем белым, если темнее — черным.

На выходе получаем двухцветное изображение:



Теперь в дело вступает opencv.

Создаем cv::Mat (матрица, двумерный массив, основной тип в opencv для хранения изображений и других двумерных данных), передав в качестве изображения туда наш двухцветный снимок:

cv::Mat img(m_ColorStream.resolution.height(), m_ColorStream.resolution.width(), CV_8UC1, m_ColorNoiseMap, m_ColorStream.resolution.width());

и просим opencv найти все контуры на изображении:

cv::findContours( img, contours0, hierarchy, cv::RETR_TREE, cv::CHAIN_APPROX_SIMPLE);

Естественно, он найдет не только экран, но и мусорные контуры, которые появились на снимке.
Однако, вполне очевидно, что наш контур тот, что обладает самым большим периметром. Так что перебираем все контуры и работаем только с самым большим:

int screenContourIndex = 0;
    double maxPerimeter = cv::arcLength(contours0[0],true);
    for (int i = 1; i<contours0.size();++i){
        double perimeter = cv::arcLength(contours0[i],true);
        if (maxPerimeter<perimeter){
            maxPerimeter = perimeter;
            screenContourIndex = i;
        }
    }

Полученный контур соответствует геометрии нашего экрана. Но нам нужно четыре угловых точки, а полученный через opencv контур, кроме нужных нам точек, может содержать еще множество промежуточных точек — если по каким-то причинам четырехугольник на изображении имел не идеально ровные грани.

Как определить углы?

В частном случае есть очень простой способ: вписать контур в прямоугольник, в котором ближайшая к каждому из углов прямоугольника точка контура и будет соответствующей крайней точкой экрана.

Вписать очень просто — само изображение с камеры уже и есть тот самый прямоугольник, в который вписан контур… С большой погрешностью, конечно, вписан… Но это не имеет значения, алгоритм всё равно будет работать в частном случае.

Теперь поговорим о достижении этого частного случая: нам нужно, чтобы спроецированное изображение не было повернуто относительно камеры.

Как этого достичь? Расположить проектор и камеру друг над другом. Тут нам и пришлось прикручивать всё на скворечник, сделанный ранее. Скворечник обеспечивает сонаправленность проектора и камеры, что снимает множество вопросов по определению геометрии экрана.

Формируем коэффициенты для линейного преобразования


У нас есть 4 точки четырехугольной проекции изображения, полученной на снимке с камеры. У нас есть 4 точки прямоугольника соответствующего экрана. Как преобразовать координаты внутри одной системы в другую?

Я не буду пересказывать алгоритм, его вы можете найти здесь.

Единственное, на что хочу обратить внимание — формулы содержат ошибки/опечатки. Их легко обнаружить, если чуть вникнуть в суть формулы. В целом, алгоритм вполне себе рабочий и простой: координата считается как расстояние до одной грани, деленное на сумму расстояний до противоположных граней. Очевидно. Просто. И работает!

Детект указателя


То, ради чего всё затевалось и к чему всё готовилось. Начинаем мы с получения карты глубины за вычетом фона. Берем кадр с камеры глубины, проходимся по всем пикселям, которые находятся в прямоугольнике, описанном вокруг четырехугольника экрана.

uint16_t diff = backgroundValue - currentValue;
if (diff>HAND_TRACKING_MIN_DIFF){
  if (diff>HAND_TRACKING_MAX_DIFF)
    diff = 0;
  if (diff>255)
    diff = 255;  
}
else
  diff = 0;
*testMap = diff;

Для каждой точки, если расстояние в точке меньше фонового на HAND_TRACKING_MIN_DIFF и меньше HAND_TRACKING_MAX_DIFF, записываем это значение в восьмибитный массив. Чтобы не выйти за пределы массива, всё что больше 255 записываем как 255.

Нижняя граница позволяет убрать шум с камеры и ложные срабатывания из-за вибраций, когда камера чуть-чуть приближается/удаляется от рабочей поверхности.

Верхняя граница позволяет убрать «битые» пиксели с карты глубины. «Битые» пиксели появляются на гранях, которые близки к перпендикуляру к камере.

После этой операции мы получаем карту глубины, на которой есть ярко выраженная рука. И много постороннего шума.

Практически все остальные шаги нужны для того, чтобы убрать шумы. Первым делом проходимся блюром. Это уберет мелкие точки с радара:

cv::GaussianBlur(hMap, img, cv::Size(5, 5),0);

Затем превращаем полученное изображение снова в двухцветное без градиентов:

cv::threshold(img,img,10,255,cv::THRESH_TOZERO);

Данный метод всё, что от 10 до 255 превратит в 255, а всё, что меньше 10 — в ноль.

Находим контуры.

cv::findContours( img, contours0, hierarchy, cv::RETR_TREE, cv::CHAIN_APPROX_SIMPLE);

И рисуем их обратно, но уже с заполнением. Это опять же уберет всякие левые шумы с картинки.

for (int c = 0; c<contours0.size(); ++c)
  cv::drawContours(img,contours0,c,cv::Scalar(255,255,255),cv::FILLED);
            

И снова находим контуры. О_О

cv::findContours( img, contours0, hierarchy, cv::RETR_TREE, cv::CHAIN_APPROX_SIMPLE);

Зачем?

Первый поиск может давать несколько сотен мелких контуров на одну руку! То есть алгоритм не может уверенно понять, что рука — это один контур и дает на выходе множество мелких контуров.

Рисуя их с заливкой, мы получаем стабильное изображение с рукой без разрывов. И следующий поиск даст нам один чистый контур! Можно попробовать самостоятельно объединить контуры, но мне не хотелось возиться.

Иногда opencv решает, что края экрана — это тоже контур. Иногда запихивает углы экрана в отдельный контур, иногда — в контур с рукой. Находим все точки, которые касаются экрана и безжалостно их удаляем. Может так случиться, что потеряется кусок руки с края экрана, но это ни на что не влияет.

Если после всех манипуляций у нас еще есть валидные контуры, то находим среди них самый большой, чтобы отсечь остатки шума — если он еще есть. Код приводить не буду — он идентичен тому, что был выше с поиском самого большого контура.

Окей. После всех фильтраций у нас есть контур руки пользователя. И? Чего с ним делать-то? Нам же нужно взять одну точку и решить, что она будет указателем. Причем точка должна уверенно определяться примерно в одном и том же месте при перемещении и изменении формы руки…

И как же, чёрт возьми, это сделать?

Способ есть. Надо перестать воспринимать руку как сложный объект и принять во внимание, что это указатель. Стрела. С осью и точкой на конце.

Для начала найдем ось.

Для этого есть отличный инструмент:

cv::fitLine(contours0[maxIndex],line,CV_DIST_L2,0,0.01,0.01);

fitLine найдет нам линию, лучше всего подходящую в качестве оси контура.

Линия задана некой точкой и вектором направления единичной длины.

Координаты точки находятся внутри контура и больше нам о ней ничего не известно. Поэтому мы выходим в двух направления из этой точки, пока не дойдем до границы контура.

Как только нашли — у нас есть ось. Осталось решить — какая из точек будет нашим указателем.
Решение очень простое — какая ниже, та и указатель.

Подавление дрожания и пропадания указателя


Указатель, полученный нами, достаточно хорошо работает. Однако, он дергается как умалишенный из-за шума карты глубины и сбоев в работе алгоритмов определения контура.
Дергается не то чтобы сильно, но раздражающе.

Применяем два стандартных метода подавления:

1) Ограничиваем скорость перемещения
2) Ограничиваем минимальное перемещение.

К сожалению, ограничение скорости приводит к тому, что быстро перемещать указатель становится невозможным. Плюс курсор визуально отстает от движения.

Ограничение минимального перемещения мешает совершать точные короткие движения.
Но в целом результат вполне приемлем!


Критика


Вы можете заметить, что у меня на видео очень высоко поднята рука. При кинекте, находящемся настолько высоко, определить касание поверхности практически невозможно. Если расположить кинект так, чтобы он смотрел вдоль стола, то детект касания упростится в несколько раз и станет гораздо более точным. Но! Тогда камера кинекта не сможет использоваться для определения проекционного экрана!

В оригинальном устройстве положение камеры и датчика касаний не настраиваемо. Если я правильно понимаю ситуацию, попытка поставить девайс повыше (на подставку) приведет к неработоспособности тач-сенсора!

Но я такого сделать не могу, т.к. у меня нет проектора с коротким фокусным расстоянием и оптикой, позволяющей создавать квадратное изображение при остром угле к поверхности. А городить огромную бандуру, у которой сверху будет висеть проектор, а снизу стоять кинект мне очень не хочется.

Выводы


Мне бы очень хотелось покрутить и раскурочить оригинальное устройство, чтобы понять, что же в нём столько стоит.

По обзорам я не смог увидеть в устройстве ничего уникального, кроме кастомной оптики, которая позволила проецировать аккуратное прямоугольное изображение. Но оценить стоимость производства таких линз я не могу. Так что остаюсь при своем мнение о крайне завышенной цене. Что меня очень печалит, т.к. вполне очевиден провал этого устройства в продажах — значит массовости не будет, значит так и останется игрушкой для редких фанатов.

P.S.


Кстати, если использовать 3D DLP проектор + датчик положения очков, наш тач-стол можно превратить в 3Д тач-стол. Но, к сожалению, только для одного наблюдателя.

P.P.S.


Есть ощущение, что я не сделал того что обещал. Всё таки работать такая система с полноценным тач интерфейсом не может из-за не ровного детекта касания. Так что буду делать вторую версию, подвешу проектор вертикально вниз, что даст ровную картинку, а кинект расположу вдоль стола, что даст идеальный детект.

Комментарии (45)


  1. myanacc
    30.01.2018 19:02

    Вау! Прочитал этот наиГИКчайший текст и испытал нехилый такой когнитивный диссонанс. На гиковском ресурсе статья от упертого гика и не о Маске Солнцеликом, не о разработках (убейтесь ап стену) ископаемых на астероидах и колонизации Марса (по холодку!), не о выгодах чего угодно любого от диванного экономиста галактического масштаба… да как же ты посмел сие здесь публиковать!??


    1. AllexIn Автор
      30.01.2018 23:37

      С одной стороны я с вами согласен.
      С другой — ресурс просто перепрофелируется в новостной. Это не так уж и плохо. Аналога умершей Мембраны давно не хватало.
      Но, конечно, значительное уменьшение статей на гик тематику печалит. Да и писать тяжело, потому что на фоне новостей статьи очень быстро теряются.
      Но это норм. Ресурс развивается. А нравится всем он не обязан. :(


      1. MetromDouble
        01.02.2018 07:49

        Есть более похожие на мебрану аналоги — hightech.fm, dailytechinfo.org


        1. AllexIn Автор
          01.02.2018 07:51

          Спасибо, ознакомлюсь


        1. Wizard_of_light
          01.02.2018 21:48

          На хайтеке комментариев нет, он скорее на N+1 похож.


    1. barbanel
      31.01.2018 12:23
      +2

      Блокчейн и IPO забыли, тьфу на них)


  1. DEM_dwg
    30.01.2018 21:38

    Хммм, как вариант использовать УФ лазеры у которых полоса вместо точки…
    Они будут более точнее, но руку придется подносить ближе.


    1. AllexIn Автор
      30.01.2018 23:37

      Не понимаю о каком варианте детекта вы говорите.


      1. DEM_dwg
        31.01.2018 06:37

        Вот тут описание технологии…
        sethsandler.com/multitouch/llp


  1. Anarhy
    30.01.2018 22:11

    Leap Motion дешевле кинекта, а реализовать отслеживание руки на нем в разы проще. Ну и без скворечника обойтись можно)


    1. AllexIn Автор
      30.01.2018 23:37

      У него же очень маленькая рабочая зона. 60 сантиметров грань.


  1. makrf
    30.01.2018 23:15

    Делали подобное примерно год назад, вот что получилось — youtu.be/LEAYBiP6414?t=19s
    Идея — создать интерактивное меню для ресторанов и кафе. Проектор+кинект вывешивались на полтора метра над столом. Точность была достаточно высокой, но в идеале ещё нужны датчики у поверхности — без них правильно отрабатывались 9 касаний из 10-ти.


    1. AllexIn Автор
      30.01.2018 23:39

      А как вы детектили касание с видом сверху? Неизвестна же толщина пальцев, особенно, если ладонь не прямая, а изогнута вниз.


      1. makrf
        31.01.2018 00:08

        Да, сверху. И да, проблемы были. Частично это решалось заданием мёртвых зон, точнее, заданием активной зоны. То есть, детектим появление только если что-то выше 5 см от поверхности и ниже чем 10 см (точных цифр уже не помню).
        От поверхности надо отступить, ибо на столе может что-то лежать (или складка на скатерти, например).
        А для того, чтобы указать на что-то («ткнуть» в изображение), надо совершить движение рукой сверху вниз — тут и происходит появление пальца в активной зоне. Гораздо хуже всё работает если человек сидит — тогда его рука практически постоянно находится в активной зоне и начинается хаос(( Вот тут и становятся нужными датчики у поверхности стола.


  1. ZzWSGzZ
    31.01.2018 08:25

    Напомнило очень интересную разработку граффитчиков более чем 7-летней давности.
    В своё время скачал исходники, но руки так и не дошли повторить дома.
    youtu.be/uDcXyKw42PY


    1. AllexIn Автор
      31.01.2018 08:28

      Лазер просто детектится. Достаточно вебкамеры без ИК фильтра. То есть даже проектор не мешает лазер детектить. Мы так делали детект выстрела в интерактивном тире.
      Если хотите, могу сделать такой проект для следующей статьи. Не уверен только, что статья на эту тему может быть кому-то интересной.


    1. ser-mk
      31.01.2018 20:09

      Интересное видео, а откуда вы исходники скачивали? Очень хочется узнать про эту технологию, в сылках под видео не нашел актуальной информации.


      1. AllexIn Автор
        31.01.2018 20:10

        А о какой технологии речь?


        1. ser-mk
          31.01.2018 20:33

          В своё время скачал исходники, но руки так и не дошли повторить дома.
          youtu.be/uDcXyKw42PY


          1. AllexIn Автор
            31.01.2018 20:35

            Да, я понимаю какую тему обсуждаете. Я не понимаю о какой технологии вы хотите узнать.
            О проекторах? О лазерных указках? О детекте лазерной указки?
            Самое «не очевидное» здесь — детект лазера. Но явно используется мощный зеленый лазер. Он на камере очень хорошо виден.


            1. ser-mk
              31.01.2018 20:42

              Спасибо, теперь понял принцип, по сути рисование происходит на камеру, а далее проектор по сути запоминает то что попало на камеру.


              1. AllexIn Автор
                31.01.2018 20:48

                Да. При включении проектор по очери в каждом углу рисует белый квадрат, таким образом камера определяет границы экрана. Ну или можно тупо как у меня в статье белое полотно вывести.
                После этого камера ловит яркие пятна и считает их указателем.
                Важно, чтобы у камеры был отключаемая автоэкспозиция.
                Плюсолм, если у камеры съемный ИК фильтр. Без него лазер видно еще лучше.


  1. perfect_genius
    31.01.2018 08:43

    А если сделать лазерную рамку вокруг стола?


    1. green_wizard_987
      31.01.2018 10:16

      Получится аналог интерактивной доски, а тут идёя в том, чтобы обнаруживать касание средствами проектора.


  1. jery_jary
    31.01.2018 19:21

    Получился почти аналог вот этого. А вообще, вещь интересная, но больше just4fun, ИМХО.


    1. AllexIn Автор
      31.01.2018 19:22

      Название статьи как бы намекает. :)
      Конечно just4fun, и оригинальное устройство тоже нафиг не нужно в быту и является игрушкой.


      1. jery_jary
        31.01.2018 19:38

        Ну, если рассматривать то, что у сони, то вещь очень даже полезная (как показано в ролике, на кухне, или в мастерской, когда руки грязные). Но ценник, конечно, не для рядового пользователя=/


        1. AllexIn Автор
          31.01.2018 19:43

          Если очень постараться — кейс можно придумать. Но это будет высасывание из пальца.
          Даже в мастерских нормально используют обычные ноуты и планшеты.
          Не говоря уж о том, что есть проекционные клавиатуры, которые также позволяют не трогая девайс им управлять:
          image
          Стоит она 30 долларов. И полностью закрывает кейс «работать грязными руками».

          Xperia Touch — игрушка, без кейсов практического применения оправдывающих цену.
          У меня поэтому и бомбануло от цены. Игрушка, которая как игрушка должна быть доступна продается за цену в половину нового авто.


          1. ser-mk
            31.01.2018 20:29

            уточните страну где новый авто можно купить за 220 т.р.))
            К тому же для полноценной работы пока что не хватает мыши с лазерной проекцией.


            1. AllexIn Автор
              31.01.2018 20:34

              «полноценная работа» — это что? уточните кейс.
              Оригинальное устройство стоит 150 000, а не 110. Во всяком случае в ноябре столько стоило.
              Самый дешевый автомобиль в России в 2017 году Lifan Smily, с ценой от 319 тысяч рублей.


              1. ser-mk
                31.01.2018 20:51

                Полноценная работа, имею ввиду что бы была еще замена мыши. Допустим переключатся между диалоговыми окнами.
                Извините перепутал, с Xperia Touch.


                1. AllexIn Автор
                  31.01.2018 20:53

                  Хм. Действительно 110 000 стоит. Вы правы. Треть цены автомобиля.


              1. AquiHostStrider
                02.02.2018 12:19

                «полноценная работа» — это что? уточните кейс.

                В школе, в качестве классной доски, на которой можно «писать» любым тонким длинным предметом (указкой, например), и проектор будет показывать след. И переключение цветов было бы хорошо реализовать: ученик оставляет синий след, учитель — красный. Правда, тут есть два неприятных фактора:
                1) разрешающая способность проектора должна быть соответствующей, желательно реальный FullHD;
                2) стоящий у доски человек будет отбрасывать тень.


                1. AllexIn Автор
                  02.02.2018 12:21

                  Зачем?


                  1. AquiHostStrider
                    02.02.2018 13:17

                    1) Невозможно испачкать руки, в отличие от ситуаций, когда пишешь мелом или маркером.
                    2) Такую электронную классную доску можно легко превратить в наглядное учебное пособие, что избавляет от необходимости хранить в шкафу пачки картонных плакатов.


                    1. AllexIn Автор
                      02.02.2018 13:18

                      Вы предлагаете пальцем по доске водить, чтобы писать? Палец у учителя не сотрется?


                      1. AquiHostStrider
                        02.02.2018 14:24

                        Во-первых, перечитайте ещё раз мой каммент выше, там предложение написано.
                        Во-вторых, для пальцев есть напёрстки, если уж поблизости не нашлось никакой палки.


                        1. AllexIn Автор
                          02.02.2018 14:26

                          ЯСно. Значит вы все таки про проекционное графити, как в комментариях выше. Это совершенно другая задача не имеющая отношения ни к статье, ни к оригинальному устройству.
                          Здесь обсуждаются кейсы для которых оправдан оригинал за много денег.


                          1. jery_jary
                            02.02.2018 19:03

                            Я думаю, что человек хочет сказать о том, что это хорошая альтернатива интерактивным доскам. Это позволит проводить более интересные презентации, создать более современные, интерактивные материалы для учебных заведений (писать пальцем/напёрстком так себе идея, но тоже вариант)), коих на просторах интернета много, в первую очередь, для детей. Ведь очень многие вещи станет гораздо проще объяснить на живой анимации, с которой можно делать всё, что душе угодно, нежели на плохо нарисованной картинке учебника с прилагаемым 10-и страничным текстом. Сейчас очень много разных видео (3-Д моделей) с демонстрацией того или иного механизма и т.п.
                            Короче говоря, кейсов реально много, и все они могут быть реально полезны. Но для домашнего использования согласен — это больше игрушка.


                            1. AllexIn Автор
                              02.02.2018 19:05

                              Оригинальное устройство не предназначено в качестве интерактивной доски. Как минимум из-за маленькой рабочей поверхности.


                              1. jery_jary
                                02.02.2018 19:14

                                Ну, заявлена работа с тачем на диагонали 23 дюйма, но как просто проектор — до 80 дюймов, что для аудитории уже неплохо.


                                1. AllexIn Автор
                                  02.02.2018 19:15

                                  110 000 за просто проектор?


                                  1. jery_jary
                                    02.02.2018 19:26

                                    Так, стоп. С Вашей стороны проглядывается предвзятое отношение к данному девайсу из-за ценника — согласен, штучка не из дешёвых. Но при реальном желании, метод работы с ним можно отладить так, как это будет нужно, ведь вещь полезная. Никто не спорит, что устройство не лишено недостатков (как, например, работа тача на маленькой диагонали), но разговор о том, что кейсы полезные есть и устройство (если будут развивать) имеет будущее. Повторюсь, для рядового пользователя это действительно больше игрушка. Но для организаций такая вещь может иметь своё место.


                                    1. AllexIn Автор
                                      02.02.2018 19:33

                                      НУ вот мне и интересно услышать эти кейсы.
                                      Пока было два:
                                      1) В мастерскую, чтобы не работать грязными руками. Не оправданно — есть альтернатива решающая проблему гораздо дешевле в виде проекционной клавиатуры.
                                      2) В школу в качестве обычного проектора — есть альтернатива решающая проблему гораздо дешевле в виде обычного проектора.

                                      С удовольствием обсужду другие кейсы.

                                      P.S. Я предвзят из-за цены. О чем я сразу и написал. :)
                                      Но я предвзят не потому что дорого, а потому что не понимаю ценообразования.


                              1. AquiHostStrider
                                03.02.2018 00:59

                                Как минимум из-за маленькой рабочей поверхности.
                                А с помощью твиков и шаманского бубна её никак не увеличить до приемлемых 80"? Если ответ «нет» — то моё предложение снимается.