Данная статья является реакцией на эту статью на Хабре. Это не подтверждение и опровержение того, что там написано. Скорее, мысли по поводу того, почему OpenAI ведет себя таким образом, а не каким-то другим, и что на самом деле показывает пример DeepSeek.
Скажу честно - сам DeepSeek не тестировал, и, очевидно, придется подождать где-то месяц минимум, прежде чем подкатят нормальные сравнения и бенчмарки (а не только те, что указал в релизе сам DeepSeek). Здесь скорее речь пойдет о ситуации, которую DeepSeek породил этим релизом.
Назад в будущее
Итак, год 1997. Netscape контролирует большую часть рынка веб-серверов со своими решениями. Но два конкурента быстро свели это преимущество на нет. Первый - это Microsoft со своим релизом IIS. Но более существенным был второй - Apache. Для интереса и приобщения к интернету 90-х можете перейти по ссылке на статью 1998 года об этом. Дело было не просто в появлении новых конкурентов. Дело было в появлении конкурента, представившего решение open-source, и это решение можно было использовать бесплатно. Ситуация изменилась радикально, и не только для Netscape. Microsoft со всей своей финансовой мощью и будучи на тот момент компанией № 1 в мире IT, уже не могла просто вышибить с рынка конкурента в виде Netscape и занять то положение, которое занимали они. По факту больше ни одна компания не могла мечтать о занятии монопольного положения в мире веб-серверов и привязке своих клиентов намертво к своим решениям.
И вот, четверть века спустя, ситуация в известной степени повторилась. Мы имеем (имели?) практически полную монополию в области генеративного ИИ со стороны OpenAI, пользующейся поддержкой все той же Microsoft. Точнее, эта монополия действовала до момента выхода DeepSeek.
Обычно, когда говорят об отличиях ChatGPT и DeepSeek, все сводят к техническим различиям. DeepSeek базируется на концепции смеси экспертов (Mixture of Experts или MoE). Иронично, что несколько месяцев назад я, не имея понятия о DeepSeek, и о самой этой концепции, переоткрыл в одном из комментариев велосипед и изложил эту самую идею для борьбы с галлюцинациями:
Я полагаю, нас ждут ансамбли LLM - где сначала 5 LLM генерируют решение. А затем три других LLM выбирают наиболее здравый вариант. Даже если каждая из них галлюцинирует, такой совместный контроль позволит ужать бред до приемлемых значений. Можно вообще жестко ввести правило полного консенсуса, что принимается только то решение, которое выбрали единогласно LLM на второй фазе. Если хоть кто-то выбрал другое решение, то привлекаем человека для разборки.
Однако ключевое отличие ChatGPT и DeepSeek не в этом, а в целеполагании, т.е. какие задачи ставит руководство перед авторами обеих систем.
Груз обязательств перед инвесторами
Название данной статьи - это отсылка к моей старой статье "Инфляция программного обеспечения". Там я возмущался тем, что программы становятся дороже с точки зрения потребления ресурсов, не прибавляя при этом в функционале. Во многом эта ситуация сложилась исторически в ходе естественного отбора нынешних зубров Кремниевой долины. Те, кто пытался сфокусироваться на удешевлении продукта (не в плане лицензий, а именно в плане затрат ресурсов оборудования конечных пользователей) проиграли тем, кто это игнорировал:
Джоэл Спольски в своей статье упоминает, что Microsoft удалось одержать верх над Lotus в 80-х годах в битве между Excel и 123 за счет того, что менеджеры Lotus допустили одну критическую ошибку — они попытались провести оптимизацию приложения. Конкретно они попытались ужать приложение так, чтобы оно всегда гарантированно умещалось в 640 Кбайт оперативной памяти. Они убили на это полтора года, и за это время Редмонд захватил рынок с помощью Excel, поскольку к этому моменту в строй вступали компьютеры с гораздо большими объемами оперативной памяти. Это решение очень дорого обошлось Lotus.
Да-да, та самая компания Microsoft 30-40 лет назад пришла к успеху и сформировала мышление топ-менеджмента именно в данном направлении. Очевидно, что примерно в таком ключе мыслит и руководство OpenAI. Их ставка базируется на ожидаемом расширении аппаратной мощи, которая будет у них в наличии.
Проблема на самом деле несколько глубже, в данном случае. Проблема не просто в том, что Сэм Альтман и остальные топ-менеджеры OpenAI выросли и мыслят в такой парадигме. Проблема еще и в явных обязательствах перед инвесторами. Руководство Microsoft 80-х не вступало в явный сговор с производителями компьютеров. Билл Гейтс и его соратники просто здраво оценивали обстановку, размышляя "Смотрите, процессоры Intel c каждым годом все быстрее, планки памяти все дешевле. Делаем наши продукты, исходя из этого". Тогдашнему руководству Microsoft не пришлось добиваться расконсервирования АЭС для обеспечения своих проектов энергией. Тем более речи не стояло о такой инициативе, как Stargate. Давайте сами заглянем на официальную страницу OpenAI по этому поводу:
The Stargate Project is a new company which intends to invest $500 billion over the next four years building new AI infrastructure for OpenAI in the United States. We will begin deploying $100 billion immediately. This infrastructure will secure American leadership in AI, create hundreds of thousands of American jobs, and generate massive economic benefit for the entire world. This project will not only support the re-industrialization of the United States but also provide a strategic capability to protect the national security of America and its allies.
Заметили, о чем не говорится в этом пресс-релизе? Любой достаточно сложный инфраструктурный объект строится на основе некоторых предположений относительно будущего. Например, если мы строим АЭС, мы предполагаем наличие определенного числа потребителей энергии с АЭС, а также то, что в ближайшем будущем не появится альтеративного источника энергии, который сделал бы эту АЭС ненужной. Вот и Stargate строится на одном неявном предположении - что удешевления моделей в плане энергопотребления или чипов НЕ будет.
Конечно, явно этого нигде в официальных документах OpenAI не пишут, однако и задачи удешевления существующих моделей тоже не ставится, и это весьма симптоматично. Оно и понятно - авиакомпании будут проявлять интерес к разработке технологий, снижающих потребление топливо, но нелепо ожидать финансирования таких технологий со стороны нефтедобывающих компаний.
До инициативы Stargate OpenAI не являлась нефтедобывающей компаний в контексте ИИ - это скорее относилось к Nvidia. Собственно, достаточно было намека со стороны DeepSeek на возможность резкой экономии на топливе, чтобы капитализация Nvidia резко обвалилась.
Однако после объявления Stargate OpenAI оказалась в двойственном положении. Теоретически она могла бы ставить перед разработчиками задачу в стиле "Давайте-ка сделаем модель на урове 4o, но чтобы потребляла ресурсов вдвое меньше". На практике представить такое теперь сложно, поскольку это может вызвать панику среди потенциальных инвесторов и отток средств.
Не хочу ударяться в конспирологию, но это также создает для OpenAI, Microsoft и всех причастных к проекту мотивацию зорко следить за всеми потенциальными американскими стартапами в плане разработке альтернативных моделей с уменьшенным потреблением ресурсов и заранее скупать их на корню до выхода моделей на рынок. Пока что таких прецедентов в прессе не публиковалось, но они возможны. В конце концов, практика "купим стартап, чтобы не допустить выхода его на рынок" настолько распространена, что для этого даже термин есть - killer acquisitions.
Конспирологи могли бы даже предположить, что DeepSeek модель потому и была создана в КНР, что у OpenAI и Microsoft рычаги влияния в Китае отсутствуют. Кстати, о нем...
Про вечно отстающий Китай
Повторюсь еще раз, неясно, действительно ли DeepSeek так хорош, как утверждают его создатели. Подождем независимых бенчмарков на его сравнение.
Однако сам подход MoE является весьма перспективным. Если совсем вкратце - мы можем иметь модель общего уровня на 600 миллиардов параметров, а можем 8 моделей поменьше на 75 миллиардов параметров каждая. При поступлении очередного запроса можно определить, к какой из моделей он относится больше всего, и запустить ее, экономя вычислительные ресурсы. Насколько успешно DeepSeek реализовал этот подход - пока открытый вопрос, но сам подход и его потенциал вполне понятны любому программисту, имевшему дело со структурами данных типа quadtree - и как можно урезать пространство поиска и затраты по ресурсам на вычисление.
Однако за всем этим скрывается еще одна интересная тема. Обычно, когда говорят про современный AI, подразумевается, что без современных графических ускорителей тут никуда. Отсюда такой успех Nvidia. Давайте для начала взглянем на сей график:
![Верните мне мой 2007-й! Верните мне мой 2007-й!](https://habrastorage.org/getpro/habr/upload_files/6eb/075/13c/6eb07513c579c42324e4c0943465dccb.png)
Заметили нечто интересное насчет Intel процессоров? Да, пологий график, начиная с 2005-2006 годов для частоты процессоров и ILP. Прошло 20 лет, и мы до сих пор в тех же мобильных устройствах наблюдаем в характеристиках частоты в 1.8 Ггц. Мы сейчас не будем обсуждать технические причины этого, просто констатируем факт - с определенного момента мощность процессоров начала возрастать не за счет повышения тактовой частоты, а за счет увеличения числа ядер в процессоре и т.д. Зная это, присмотримся к ускорителям Nvidia - например, тот самый, который OpenAI и использует. Этот ускоритель работает на невероятной тактовой частоте в 1 Ггц и может быть разогнан аж до 1.4 Ггц. Это никоим образом не умаляет его достоинств, отнюдь. Просто надо кое-что понимать. Резкий рост капитализации Nvidia строится на нескольких обычно не формулируемых явно постулатах. Основной - что ИИ можно построить за счет скармливания все большего набора данных и это более перспективный путь, чем пытаться построить какие-то хитроумные алгоритмы. В наиболее явном виде это выразил автор фундаментальной книги по ИИ Питер Норвиг, бывший директор отдела исследований и качества поиска в Гугле:
![Больше датацентров богу ИИ! Больше датацентров богу ИИ!](https://habrastorage.org/getpro/habr/upload_files/a9b/5ee/8dc/a9b5ee8dc502aeecfe75a391b4773900.png)
Надо заметить, что Deepseek не то чтобы отклоняется от тренда, отмеченного Норвигом. Скорее они следуют второй его части, хитрым образом генерируя данные для обучения. Но здесь Норвиг ведет речь о качестве выдаваемого результата, а не оборудовании, которое нужно для полученной программы в итоге. Кроме того, конкретно в данном случае мы имеем потолок - OpenAI уже упирается в тот нехитырй факт, что данных, доступных для обучения новых моделей, осталось не так уж много, а тот же Китай имеет массу данных внутреннего пользования, на которых может обучать свои модели (типа материалов китайской академии наук и аффилированных научных учреждений).
Здесь вступает в силу второй постулат - чтобы обучать современный ИИ, нужно оборудование от Nvidia, на чем-то древнем такое сделать нельзя. Напоминаем, что обучение происходит на GPU - графических ускорителях. Графические ускорители, говорите?
![Убогая графика на древнем графическом оборудовании. Убогая графика на древнем графическом оборудовании.](https://habrastorage.org/getpro/habr/upload_files/401/cc4/cb7/401cc4cb78a907b31809056676e2e046.png)
Напомню, что второй терминатор вышел в 1991 и обладал спецэффектами, которые нисколько не смотрятся устаревшими даже сейчас. Понятно, что отнюдь не каждый фильм тех лет обладал такой графикой, и даже в самом фильме морфинг занимал суммарно три минуты, и стоил очень дорого. Однако это хороший пример того, что современную компьютерную графику можно сделать без всяких ускорителей от Nvidia.
Пример еще лучше, отмеченный самим Норвигом в его книгах и статьях - это первая область, в которой применили искуственный интеллект - шахматы.
![Крамник против DeepFritz Крамник против DeepFritz](https://habrastorage.org/getpro/habr/upload_files/b9f/598/5a3/b9f5985a3489ab4bfd840f864f83f8b4.png)
Напомним, что времена, когда для шахматных программ нужны были суперкомпьютеры - давно прошли, и нынешние чемпионы мира по шахматам сливают программам, которые можно запустить и на мобильном телефоне, как, например, тот же Stockfish. Произошло это за счет применения более хитрых алгоритмов отсечения вариантов для перебора. Где гарантия, что это не произойдет и для генеративного ИИ?
Впрочем, даже если этого не произойдет, и для обучения и эффективной работы генеративного ИИ все равно будут требоваться графические ускорители, это не значит, что будущее Nvidia безоблачно. Напомню, что есть современные операционные системы, которые спокойно запустятся на старом добром 486-м.
Применительно к ИИ это означает вот что - интересный вопрос, на который я лично пока не знаю ответ (если кто в комментариях подскажет исследования по этому вопросу, буду очень признателен). Допустим, для обучения ChatGPT потребовалось, по грубым прикидкам,около 25 тысяч GPU A100. Сколько нужно для того же самого успеха взять ускорителей Nvidia образца 2015 года? При этом давайте еще ослабим ограничение по времени - если OpenAI натренировала модель за месяц, то давайте дадим на более слабой элементной базе 3 месяца - получится ли? На этот вопрос я нигде не мог найти явного ответа. В конце концов, нынешние модели появились не потому в 2022, что только в 2022 появилось оборудование, на котором это можно было сделать. А потому, что только в 2017-2018 появился математический аппарат GPT.
Можно взглянуть на это и по-другому. OpenAI выпускает очередную модель о4, о5, о6... Сколько времени будет уходить у китайских компаний (или тех же европейских), чтобы сделать путем дистилляции и MoE модель, показывающую себя не хуже или ненамного хуже, чем передовые разработки OpenAI, и работающую на устаревшем оборудовании? Если лет десять - то это не страшно. Но если в среднем полгода-год, как и произошло в случае с DeepSeek R1 - то это проблема с точки зрения потенциальных инвесторов в OpenAI и Nvidia. Проблема потому, что большинство кейсов применения ИИ в коммерции и не только не подразумевают необходимости именно последней, самой навороченной модели ИИ. В конце концов, те же военные работают на технике, где зачастую дай бог 65 нм используют.
OpenSource и Германская империя
В 1850-х Британия носила славное звание "мастерской мира". Однако к началу ХХ века она утратила это звание и начала резко уступать США и Германии. США оставим в покое, и присмотримся к Германии. Немецкая монархия, задавшись целью добиться индустриального преимущества, решила прижать к ногтю копирайт. И если в Британии книги порой издавались тиражом в 750 экземпляров, то в Германии ее могли издать тиражом в десятки тысяч. Это позволило, невзирая на меньшие ресурсы, чем у Британской империи, постепенно свести техническое превосходство Британии на нет.
Примерно это сделал DeepSeek, опубликовав не только модели в OpenSource, но и white paper c указаниями, как двигаться в дальнейшем направлении. Очевидная ставка на open source в данном случае со стороны китайских компаний, в отличие от OpenAI (которая ни разу не open).
Итоги
Так является ли ИИ сейчас пузырем, который так ловко схлопнул DeepSeek? Время покажет. После первого шока акции Nvidia вроде как оправились. Но прежде чем надумать инвестировать в них или в OpenAI, попробуйте ответить себе на вопросы:
Какова вероятность повторения ситуации с шахматами - появления программ ИИ, которые можно запустить с обычного мобильного, и для победы над чемпионом мира больше не потребуется суперкомпьютер?
Какова вероятность появления приемлемого ИИ - это когда топовая модель запускается только на новейших ускорителях от Nvidia, а модель, работающая на 85 процентов от топовой - запускается на обычном компьютере? И что, если эта вторая модель будет пригодная для большинства проблем, возникающих на практике?
Каков срок отставания - разрыва между появлением топовой модели, и такой же, только работающей существенно дешевле в плане прайса на токены?
Если ясных ответов на эти три вопроса нет - значит, есть хорошие основания полагать, что пузырь однажды лопнет. Возможно, оно и к лучшему, что Deep Seek выстрелил именно сейчас. Представьте, что было бы, если бы модель была опубликована, когда в Stargate успели бы вложить пару сотен миллиардов долларов. Тогда паника на рынках была бы куда круче.
Комментарии (23)
fedorro
04.02.2025 13:39Сколько нужно для того же самого успеха взять ускорителей Nvidia образца 2015 года? При этом давайте еще ослабим ограничение по времени - если OpenAI натренировала модель за месяц, то давайте дадим на более слабой элементной базе 3 месяца - получится ли? На этот вопрос я нигде не мог найти явного ответа.
Кол-во ускорителей надо взять чтобы было памяти столько-же, ну может с запасом 10-20%. А времени это займет: (изначальный месяц) * (отношение производительности новых\старых GPU) * (отношение количества новых\старых GPU) * (штраф за интерконнект большего числа GPU и отсутствие новых оптимизаций, прикинем как 2)
Электричества эта затея пожрет на порядки больше, конечно)
spirit1984 Автор
04.02.2025 13:39Не удержался и задал этот вопрос 4o модели):
Let's say gpt model of openai was trained using 25000 GPU A100. How many outdated GPUs (let's say models of year 2015) you would need to achieve the same result?
А вот выдержка из его ответа:
Considering these differences, let's make a simplification: if one A100 GPU is being compared to a K80 purely on single-precision FLOPS without considering additional benefits of architecture advancements:
A single A100 has about 2.24 times the raw single-precision FLOPS of a single K80 GPU.
Therefore, to match the processing power of 25,000 A100 GPUs in terms of teraflops, you would need approximately 56,000 K80 GPUs, simply based on single-precision FLOPS (25000 * 19.5 / 8.7).
However, this estimate does not account for other architectural improvements and efficiencies (like Tensor Core usage), which could mean the actual number needed might be higher if translating real-world AI workloads and memory constraints. The A100’s enhancements in such workloads mean its effective performance in these contexts is significantly greater than what these numbers suggest.
Понятно, что это невероятно оптимистическая прикидка. Точный ответ может дать только OpenAI, прогнав процесс обучения на старых моделях. Делать он это вряд ли будет, поскольку ответ на этот вопрос - это, по ходу, главная коммерческая тайна OpenAI.
Неопределенность в этом вопросе будет усложнять в будущем раунды инвестиций для OpenAI. Тут важно понять, кто инвесторы и на какой вариант использования они рассчитывают. Если рассчет инвесторов на пользователей из госсектора и военного сектора, которым нужно срочно проанализировать какую-то задачу, и из-за этого не поскупятся на последнюю модель на топовых ускорителях - это одно. Если же рассчет инвесторов на массового пользователя в коммерческом секторе, которые в принципе готовы потерпеть и поработать на модели, которая чуть постарше и попроще, но улучшается со временем, и отстает от топовых моделей примерно на год - то тут правильный ответ на мой вопрос становится критическим.
Тем более стоит учесть, что государства, если прям нужно, могут приобрести по серым схемам топовые ускорители, или затратить гораздо больше энергии на обучение нужной им модели, забрав ее из других секторов энергетики, если этого требует национальная безопасность. При этом в данном случае nvidia даже рискует мало получить от таких серых схем, а OpenAI вообще ничего не получить, поскольку ее модель на серверах где-то там в США другим государствам не нужна, т.к. является риском.
george3
04.02.2025 13:39Современная transformer архитектуры сеток делают примерно 99,5% мусорных вычислений, к делу не относящихся. MoE-плоская архитекура показывает что легкая модификация сокращает их в 5-20 раз. Дальше какой-то 'гений' додумается до каскадной MoE - которая еще в 5 - 20 сократит вычисления. И наконец следующий "гений" догадается, что каждый МоE эксперт внутри себя оптимально должен имеет каскадную MoE архитектуру ( = иерархический MoE) - еще в 5-20 ускорится. И следующему гению останется только догадаться, что для сокращения памяти, потоки данных в сети должны быть с обратной связью. И вот тогда дохлый проц шутя понянет хоть AGI. Жаль только долго ждать придется.
Shpankov
IMHO, мир движется в сторону бесплатного и свободного ПО, требуя новых способов материальной поддержки разработчиков. Процесс этот неизбежен.
AlexeyPolunin
Мир хочер бесплатного ПО, но на поддержку разработчиков ему пофиг
Shpankov
Нет, дело не в этом. Общество (пользователи, среди которых и сами разработчики тоже - они тоже пользователи) не устраивает текущая система написания софта и вознаграждения за эту работу. Прежний подход не работает - он не эффективен. Ведь программа пишется один раз, а копии распространяются бесконечно. Т.е. при таком копировании стоимость самой программы стремится к нулю. Следовательно, она должна распространяться бесплатно. А вот как при этом обеспечить разработчиков всем необходимым, чтобы они могли спокойно заниматься своей любимой работой, а не поиском средств - вот это уже задача нового времени. Она решается общественным распределением благ, которые покрывают абсолютно все базовые потребности человека в еде, жилье, одежде, и т.д. А вот блага эти для распределения концентрируются в общественные фонды от всех производителей, участвующих в процессе производства благ.
Говоря проще, все сообща создают блага, а затем их сами и потребляют. Что-то идёт в личное потребление (еда, одежда), остальные блага идут в общественное пользование (транспорт, жильё, театры, кино, и т.д. и т.п.). Единственный минус при такой системе - исчезает почва для сверхдоходов, что автоматически исключает появление масков, гейтсов, сечиных, абрамовичей и т.д. Но это, на мой взгляд, несущественная проблема.
AlexeyPolunin
Вы хотите, что бы были платные проекты, только бесплатно. Это коммунизм, заканчивается отсутствием еды, потому что так не работает. Вы рассмотрите, что деньги это внимание, если проект бесплатный — значит у него денег, ему нечем привлекать внимание пользователей у него нет ни на что ресурсов (это я как майнтейнер open source проекта говорю).
При этом Deep Seek с выкладкой модели бесплатно, это не платный проект, только бесплатно — этот ход, я думаю, позволил им очень хорошо заработать на шорте акций Nvidia (они же хэджфонд). А предоставлять нормальный API-сервис и зарабатывать на модели — это и не их приоритет, они даже не пытаются и правильно.
Можно ли придумать другой носитель ресурса внимания, можно — натуральная экономика, бартер, обком партии, итп, но по факту (за 5000 лет истории) оказалось, что деньги обладают наименьшими транзакционными издержками.
Shpankov
Так они и так бесплатные. Сколько стоит копирование кода? Сколько стоит миллионная копия программы? А миллиардная?
А почему вам не нравится схема, в которой финансирование работы программиста (или коллектива программистов) обеспечивает суперкорпорация, которая заинтересована в конечном продукте? Что здесь не так?
xSVPx
Так сейчас так и есть ;). Корпорации заинтересованные в конечном продукте финансируют работу программиста.
Только вот если продукт станет бесплатным - они перестанут финансировать скорее всего.
Я скорее поверю в то, что программное обеспечение будет продаваться как неотъемлемая часть аппаратного. Хочешь ворд ? Вот он, зашитый в специальный носитель с кучей электроники внутри без которой он не работает. В принципе это может быть прям такой микрокомпьютер, т.е. он может нести на борту и память и процессор для исполнения кода. И тогда сборка рабочей системы будет выглядеть не как куча докер-контейнеров, а как куча картриджей, которую вы засунули в некую платформу.
И сразу все проблемы рассосутся. Ворд станет аппаратным комплексом совершенно с ненулевой себестоимостью копии...
Shpankov
Потому я и говорю, что к этому и идёт. Просто представьте не несколько корпораций, а одну - суперкорпорацию. Супермонополист. Вот уже и схема начинает работать.
Почему? Просто навар будет не денежный, не монетарный. Суперкорпорации будут нужны, например, научные открытия или освоение других планет. А для этого нужно обеспечить благами программистов, которые эти задачи решают. Просто другие цели и задачи. Не яхта и дворец, а колонизация спутника Юпитера, к примеру.
Так уже было - экосистема PC с предустановленной Windows. 90% рынка. Но это прошло.
IUIUIUIUIUIUIUI
Заканчивает, потому что у супермонополиста нет стимулов делать что-то полезное за пределами того, что решила кучка партийных бюрократов.
Shpankov
А это уже вопрос организации и контроля. Сделайте управленческую верхушку супермонополиста избираемой самим обществом и подотчётной этому же обществу - в результате эта верхушка будет обслуживать интересы общества. Если в управлении супермонополией занято 100 человек, а обслуживает эта супермонополия сто миллионов человек - неужели эти сто миллионов будут позволять себя обманывать?
Посмотрите на примеры современных ТСЖ. Это по сути супермонополия - жители никуда из своих квартир деться не могут, управляет ими только одна организация, никакой конкуренции. И если управляющий ТСЖ действует не в интересах жителей - его меняют на собрании собственников квартир. Понятно, что для этого сами жители должны стать коллективом с едиными целями, и вот где это удаётся - там ТСЖ работает в их интересах. А вот там, где каждый сам за себя - там да, беспредел и поборы. Выводы напрашиваются сами.
IUIUIUIUIUIUIUI
Вы так говорите, будто это ну прям мелочь какая-то, как ногу почесать.
Нет. Верхушка будет придумывать проблемы, с которыми проще всего декларировать борьбу, но никогда не будет их решать (потому что после этого придётся решать реальные проблемы, для чего придётся напрягаться). Подавляющее большинство электората, к сожалению, не может (или не хочет тратить время и усилия, чтобы) отделить подобные лжепроблемы от реальных проблем, пока последние не стукнут по кошельку или холодильнику напрямую (да и в том случае можно много отмаз придумать, что показывает новейшая история ряда стран).
Политически куда выгоднее давать людям чувствовать себя хорошо и играть на их желании показать собственную моральную благость (особенно в протестантско-кальвинистской западной культуре, см Готтфрида «multiculturalism and politics of guilt»), и у вас гос-openai вместо развития моделек занимался бы исследованием этики искусственного интеллекта и регуляцией его социальной справедливости, например.
Конечно.
Совершенно очевидно, что это не так. Перед покупкой (или съёмом) квартиры вы можете посмотреть на результаты работы текущего ТСЖ, можете выбрать квартиру с другим ТСЖ, вы можете даже переехать, если всё совсем плохо.
Более того, в сообществах масштаба ТСЖ коммунизм и прямая демократия ещё хоть как-то хотя бы теоретически могут работать «на благо», централизуя источники принятия решений о том, как надо действовать — потому что все участники могут собраться в одном помещении и вживую обсудить, каждый выслушивая каждого, что надо делать (но обратите внимание, что коммунизм тут будет незамкнутый: строителей квартир или, не знаю, борцов с тараканами вам нужно будет звать со стороны).
В масштабах миллионных стран (или даже стотысячных городов) это не работает. Демократия как совместная выработка правил и легальных фреймворков и не больше — не факт что доступный, но точно максимум.
Что, опять новый сорт людей выводить надо?
Shpankov
Любой народ достоин своих правителей. Древняя истина.
Поэтому очень важно иметь высокообразованное общество, чтобы им было сложнее манипулировать.
Я бы не был столь категоричен. История показывает, что долго такое положение дел не сохраняется.
Во всех примерах, которые мне известны, всё именно так, как я описал.
И снова - весьма спорное утверждение. Которое нам старательно навязывают. Например, в той же Норвегии с населением в почти 5 млн человек это самое население вполне влияет на своё правительство, что заставляет это правительство работать в интересах норвежцев. У них, например, прозрачная банковская система, и любой норвежец может посмотреть доходы и налоги любого чиновника вплоть до премьер-министра. Конечно, это не на 100% решает вопрос коррупции, но значительно её затрудняет.
Демократия - она разная. Надо смотреть на особенности реализации. Довольно неплохо себя показал демократический централизм.
Невозможно вывести нового человека не меняя систему, в которой он живёт. Более того, только меняя систему, базис, можно получить и новое общество, с другими морально-этическими принципами и психологией. Общественное бытие определяет общественное сознание, а не наоборот.
IUIUIUIUIUIUIUI
Да, у вас больше не получится сказать «вон то племя верит в неправильного бога, го войной на них», но это совсем базовый уровень манипуляций и вранья. Можно тоньше (и лет 100-120 как, примерно с Бернайса и через того же Геббельса, умеют тоньше).
Люди хотят обманываться. Люди хотят принадлежать определённой группе с её определённой мифологией (будь то классические коммунисты, или американские левые с борьбой с расистскими шрифтами, или националисты, или куча других групп). Люди — социальные обезьянки с очень энергозатратной думалкой и очень большим эволюционно обусловленным страхом из группы выпасть. Поэтому люди будут проглатывать практически любое враньё, вестись на любую мифологию, чтобы принадлежать группе, покуда это не влияет на ещё более базовые потребности (еду и кров, условно).
Поэтому если вы хотите манипулировать людьми, вы просто создаёте эти самые группы, и все. Даже проще — их и создавать не надо, достаточно просто сакцентировать внимание на этаких зёрнах кристаллизации, а дальше психология сделает своё дело по не очень спонтанному нарушению симметрий.
И поэтому…
…у людей есть фундаментальные ограничения, которые заодно влияют на качество избираемых правителей, и единственный способ борьбы с ними — минимизировать влияние правителей и государства на жизнь людей.
Но это вопрос вашего видения. Есть люди, которые верят в эффективную безграничность возможностей человека (что существенно коррелирует с левыми убеждениями), и это видение настолько фундаментально в системе ценностей каждого человека, что пытаться переубеждать бессмысленно. Я уже устал вспоминать Соуэлла в таких обсуждениях.
Потому что либо обманывающие зарываются и враньё начинает бить по холодильникам, либо внутренние конфликты обманывающего класса их ослабляют, из-за чего они уступают дорогу следующему поколению. Смыть, повторить.
Чем больше вы закладываетесь на централизованных супермонополистов, тем более болезненным будет падение и разрушительная часть цикла. Пусть лучше разорится openai, чем весь госмонополист, заодно вместе с ai (или потугами в него) дающий людям медицину, жильё и еду.
Людям запрещают переезжать, и у людей нет никакой возможности получить априорную информацию о том, как работает ТСЖ?
Где вы живёте, если не секрет? Я вполне выбирал ТСЖ по этим критериям, и дело совсем не в участии людей в управлении людей ТСЖ (на среднее годовое собрание домовладельцев из этак пары сотен домов приходит человек 15).
И как эту работу в интересах норвежцев измерить? Сколько openai и прочих стартапов там появилось, и насколько людям там нравится создавать новое?
Хм, как-то не оч.
Может, со стартапами хорошо, раз мы тут про инновации? Да не, 4 стартапа-единорога. У такого же по населению, но куда менее свободного и куда менее евроинтегрированного Сингапура — в, по разным спискам, 5-7 раз больше.
Кстати, Кувейт (freedom index 38/100, никто не считает его демократией) тоже вполне работает в интересах кувейтцев, и кувейтцам там очень хорошо жить. Интересно, почему, и применимо ли это к Норвегии? Подсказка: применимо, и очень — у них похожие объёмы экспорта нефти, похожее количество населения, и так далее.
Это что-то затруднит только в том случае, если эта прозрачная банковская система покажет вообще полную выписку по счёту со всеми расходами у каждого чиновника и всех членов его семьи, включая неформальных. Иначе это пускание пыли в глаза примерно на уровне телесюжетов с демонстративными поездками министра транспорта на велосипеде (за кадром остаётся кордон из службы безопасности, и машина, на которой минтранспорта приехал на съёмки и на которой он поедет дальше).
Это где?
У людей множество стимулов обусловлено миллионами лет эволюции в очень грустных для идеалистов условиях. Их нельзя взять и отменить.
Shpankov
Совершенно согласен. Но вы забываете про НТП. И когда базовые потребности уже полностью удовлетворены, человек начинает замечать несправедливость и на более высоком уровне - на уровне интеллектуальных благ, к примеру. Социум эволюционирует вслед за научно-техническим прогрессом.
Поздравляю - вы предлагаете прийти к коммунистическому обществу, в котором репрессивный орган в виде государственного аппарата упразднён, а общество живёт и принимает решения коллективно, самостоятельно и открыто.
Возможности отдельного индивидуума объективно ограничены. Возможности общества безграничны.
При этом эволюция продолжается. Вы же не будете это отрицать?
Так появление и развитие монополий, а также их трансформация в супермонополию - это естественный и неизбежный процесс. Посмотрите, что было даже 100 лет назад и что сейчас.
Извините, когда человек взял ипотеку на 20 лет - вы думаете, он будет куда-то часто переезжать? Да даже без ипотеки - просто купил/получил жильё. Смена жилья - это сверхсложная задача сегодня. Если вы не хотите потерять в деньгах, конечно.
Я опираюсь на питерский опыт. А про низкую активность жильцов - я об этом и говорил. Индивидуализм является проигрышной стратегией. А вот с коллективом никто не сможет крутить аферы.
В уровне жизни, естественно.
Как-то не очень - для кого? :-)
Для богатых, которых меньшинство, или для менее имущих, которых подавляющее большинство?
Нет, Норвегия - чисто капиталистическая страна со всеми минусами, Я просто привёл пример того, что и в больших обществах возможен контроль со стороны общества.
Обилие стартапов не является показателем высокого уровня жизни. Я бы даже сказал наоборот - самыми предприимчивыми являются более бедные страны.
Не был в Кувейте и не знаю, каков там уровень жизни. Возможно, также высокий, как и в Норвегии.
Повторю - любого человека в стране. Доходы и налоги.
https://www.bbc.com/russian/features-40693713
В СССР до хрущёвских реформ.
Вы не поняли. Изменяющиеся внешние условия приводят к изменению человека. НТП создаёт новые технологии, новые технологии создают новые производственные отношения, новые производственные отношения меняют принципы организации производства и распределения благ и, как следствие, психологию индивидуумов.
AlexeyPolunin
Откуда берется эта "миллионная копия", мне бы вот первые 100 продать и не за какие-то там миллионы, а по цене туалетной бумаги, которую стандартный человек просирает за неделю.
Суперкорпорация — суперкорпорациям нужны определенные продукты, абы че они не финансируют. Да и между прочим — нынешний open source такой и есть. Все крупные проекты — это фонды спонсируемые корпоратами, или проекты нацеленные на корпоратов.
Еще у вас такая идея, что рапространение происходит само-собой и на него нет расхода, а на самом деле он есть и очень большой. В плановой экономике этот расход меньше, но там другая проблема, чего нужно всегда в дефиците, а чего не нужно — завал, так как экономика сложнее, чем получается считать у генплана. Вот так и будет в вашей суперкорпорации.
Shpankov
А зачем делать то, что никому не нужно?
На то она и суперкорпорация, чтобы ей был нужен весь спектр производимых благ. Вот, например - государство. Это суперкорпорация. И государству нужно всё, от иголок до самолётов.
Ну, а какой расход на то, чтобы выложить на сервер программу? И какой расход на то, чтобы её скачать потребителю?
Это ошибочное мнение. Как раз рыночная экономика построена на дефиците. Чем более дефицитный товар - тем выше на него цена, тем выше прибыль. Если продукт перестаёт быть дефицитным, т.е. если все потребители его купили - его цена падает до нуля. Рынок насыщен, больше этого продукта не требуется. Компания разоряется. Поэтому для компании очень важно, чтобы на продукт был спрос - т.е. чтобы был дефицит. Именно поэтому сегодня производитель лучше уничтожит часть товара, чем выведет его на рынок и удовлетворит весь спрос.
spirit1984 Автор
Вообще все это дело напоминает задачу коммивояжера. Напоминаем, что есть алгоритмы типа Кристофидеса-Сердюкова, которые дает решение гарантированно не хуже 3/2 оптимума. Более того, есть даже доказательства, что апрроксимирующие алгоритмы не могут дать лучше 123/122 оптимума. Для большинства задач на практике, если упрощенные модели будут укладываться в такие рамки по времени/памяти, и потреблять гораздо меньше ресурсов, пользователей вполне устроит упрощенная модель. И именно здесь кроется главна опасность для бизнес-модели OpenAI.
Shpankov
Я вообще не о том говорил.