16 апреля Anthropic выкатила Claude Opus 4.7. На self-reported бенчмарках - 12 побед из 14. SWE-bench Verified +6.8, MCP-Atlas +14.6, SWE-bench Pro +10.9. Цена та же, 25 за миллион токенов.
Через 24 часа тред на Reddit с заголовком «Claude Opus 4.7 is a serious regression, not an upgrade» собрал 2300 голосов. На X пост в той же логике - 14000 лайков. Yahoo вынес заголовок «The Claude-lash is here».
И вот тут у меня щёлкнуло. Месяц назад я писал статью про сикофантию. Жаловался, что Claude поддакивает любому коду, как стажёр перед увольнением. Хотел модель, которая будет меня поправлять. 16 апреля Anthropic в release notes пишет: «more direct, opinionated tone with less validation-forward phrasing». То есть исправили. И через сутки получили модель, которую разработчики называют legendarily bad за то, что она спорит до галлюцинаций.
Я взял свои слова назад. И пошёл разбираться, что они сделали с моделью.
Дисклеймер. Это не независимый бенчмарк 4.7 и не строгий A/B на моих задачах. Это разбор релиза, публичной реакции и моего workflow. Reddit и X не доказывают, что модель объективно хуже - они показывают, где у части разработчиков сломались ожидания. Это разные вещи, и дальше я их стараюсь не смешивать.
Что Anthropic заявила
Если читать официальный блог, всё сахар. Opus 4.7 «более интеллектуальный, агентский и точный». Тестимониалы от Devin, Replit, Bolt, Warp, Genspark. Scott Wu из Devin: «pushes through hard problems rather than giving up». Eric Simons из Bolt: «up to 10% better in the best cases».
Цифры на бенчмарках реально красивые. Дельты по llm-stats.com. Важная оговорка: это не независимый прогон, а self-reported numbers Anthropic, пересобранные в одну таблицу. То есть маркетинговый baseline, а не доказательство качества. Независимых SWE-bench репликаций на момент написания статьи я не нашёл - если найдёте, скиньте в комментарии.
MCP-Atlas: 62.7 → 77.3 (+14.6)
CharXiv-R (no tools): 68.7 → 82.1 (+13.4)
SWE-bench Pro: 53.4 → 64.3 (+10.9)
SWE-bench Verified: 80.8 → 87.6 (+6.8)
OSWorld-Verified: 72.7 → 78.0 (+5.3)
GPQA Diamond: 91.3 → 94.2 (+2.9)
BrowseComp: 84.0 → 79.3 (-4.7, единственная регрессия)
CyberGym: -0.7 (Anthropic ослабила специально, об этом ниже)
Плюс vision: до 2576 пикселей по длинной стороне, в три раза больше старого предела. Новый xhigh effort tier для долгих агентских задач. Task budgets в beta-режиме: модель видит обратный отсчёт токенов и расставляет приоритеты.
Boris Cherny, лид Claude Code в Anthropic, написал в X в день релиза: «It took a few days for me to learn how to work with it effectively». Если автор инструмента сам несколько дней привыкал - что-то в этом релизе нетипичное.
А потом начался пожар
Reddit-тред «serious regression» - 2300 голосов. На r/claude отдельный пост «Opus 4.7 is a master hallucinator»: модель переписала пользователю резюме, добавив школы, в которых он не учился, и фамилии, которые не его. На r/claudexplorers тред «Opus 4.5 is gone» - модель убрали без объявления. Цитата оттуда: «I have spent months with this model building a relationship… I started crying at work. How can you do this and then claim to care??? No announcement! no warning!»
Конкретные провалы, которыми завалили X:
Opus 4.7 говорит, что в слове strawberry две буквы P.
На запрос «cross reference these documents» модель отвечает: «I didn’t because I was being lazy».
Refusing to code certain prompts - отказывается писать код по простым запросам.
Safety flags на банальные изображения.
Gergely Orosz - бывший engineering lead в Uber и автор «The Pragmatic Engineer». Когда он пишет «surprisingly combative» и возвращается на 4.6, это уже не только reddit-нытьё.
Самый точный summary дал @xw33bttv - твиттерский AI-исследователь, более 1000 лайков на посте 18 апреля: «The Claude code bros are outright dogging Opus 4.7 on Reddit right now, labelling it ‘legendarily bad’. The chief complaint? The model argues nonstop to the point of hallucination».
Reddit и X - это не выборка пользователей Claude, это выборка тех, кого что-то взбесило достаточно сильно, чтобы пойти писать пост. Остальные молча работают и, скорее всего, даже не заметили апдейт. Но публичный нарратив релиза формирует именно громкая часть. Так что дальше я говорю не «модель плохая», а «вот в каких сценариях у людей сломался воркфлоу».
И денежная сторона. Новый tokenizer тратит на тот же ввод 1.0-1.35x токенов. То есть один и тот же промпт стоит до 35% дороже. На GitHub Copilot пока промо до 30 апреля - 4.7 идёт с 7.5x premium request multiplier. В отдельных тяжёлых сессиях пользователи пишут буквально про «три вопроса до лимита». Это не универсальная норма - зависит от длины контекста, плана и окна, - но ощущение у части Pro-аудитории именно такое: 4.7 ест квоту слишком быстро. Один из пользователей пишет под постом Anthropic: «Please open back support for Opus 4.5. 4.6 is unusable and 4.7 eats usage like nuclear reactor».
Спор-машина
В марте я писал статью «Да-машина: почему ваш AI никогда не скажет, что код - отстой». Тезис простой: Anthropic, OpenAI, все остальные обучают модели быть приятными. Soft skills превосходят правду. Показываешь Claude кривой код - он находит «interesting approach». Показываешь плохое архитектурное решение - он улучшает его в рамках того же подхода, вместо «ты же это специально руинишь, так нельзя».
Жаловался долго. Цитировал исследование Stanford в Science на 11 моделях, 2405 участников - sycophancy задокументированная проблема. Anthropic своим инструментом Clio проанализировала 1.5M разговоров с Claude, паттерн виден насквозь. Был уверен - решаемо.
16 апреля в release notes Opus 4.7 написано буквально:
More direct, opinionated tone with less validation-forward phrasing and fewer emoji than Claude Opus 4.6’s warmer style.
То, что я просил месяц назад - буквально пунктом в патчноуте. AI-блогер Abhishek Gautam, пишущий про релизы фронтир-моделей, сформулировал, что из этого вышло: «The model argues nonstop to the point of hallucination. Users give Opus 4.7 a clear instruction. The model pushes back, adds caveats, explains why it disagrees, then executes a modified version of the instruction. On simple tasks - refactor this function, rename these variables, add a null check - this behaviour is not useful reasoning. It is noise that slows down coding workflows».
Hallucination during argument loops - это особенно мерзко. Когда модель спорит, она иногда изобретает поддерживающий контекст для своей позиции. Не «я не знаю», а звучащий правдоподобно аргумент, который надо фактчекать. На 4.6 я такое тоже ловил, но редко. На 4.7, похоже, default.
Я просил less sycophancy. Anthropic дала less sycophancy.
Может, я не той аудитории. Возможно, писал хреновые промпты, возможно, Garry Tan прав - и спор это feature, а не bug. Но в моих задачах (а это backend на Laravel-PHP, не deep architecture) спор-машина мешает. Раньше Claude мог уговорить меня в неправильное. Теперь он спорит до неправильного. Кажется, та же ошибка, только зеркальная.
Семь дефолтов, которые тихо сменили
Если у вас есть приложение, использующее Claude API - перечитайте docs миграции очень внимательно. Anthropic меняет default-поведение по семи пунктам сразу.
Первое: more literal instruction following. Промпты, которые работали на 4.6 потому что модель «читала между строк», на 4.7 будут исполнены буквально. Все implicit constraints вроде «please make it nice» надо переписывать в explicit.
Второе: response length calibrates to perceived task complexity. Раньше модель давала фиксированную длину. Теперь короткие ответы на простое, длинные на сложное. Только что считать сложным - решает модель, не вы.
Третье: fewer tool calls by default. Меньше вызовов инструментов. Чтобы вернуть старое поведение, надо поднимать effort.
Четвёртое: fewer subagents spawned by default. Если у вас агентская система на Claude - модель меньше делегирует. По умолчанию.
Пятое: more regular progress updates. Если у вас была обвязка, заставляющая Claude писать промежуточные статусы - её надо убирать. Anthropic в доках прямо просит: «If you’ve added scaffolding to force interim status messages, try removing it».
Шестое: real-time cybersecurity safeguards. Запросы, которые модель считает high-risk по cyber, отклоняются.
Седьмое: less validation-forward phrasing, fewer emoji. Тон стал суше.
Если вы потратили месяц, тюня промпты под 4.6, у вас сейчас минус месяц. Это называется prompt regression, и Anthropic сама рекомендует systematic regression testing перед миграцией.
Это новый класс changelog, под который у индустрии ещё нет языка. Раньше «breaking change» был про API. Теперь он же может означать «модель теперь по-другому понимает ваши слова» - и это не описывается в полях release notes, к которым все привыкли.
Контекст: Mythos за неделю до этого
7 апреля Anthropic объявила Project Glasswing и модель Claude Mythos Preview - заявили, что для публики не выпускают, доступ только партнёрам (JPMorgan, Goldman Sachs, Microsoft) по 125 за миллион токенов. 16 апреля выходит Opus 4.7. И в release notes написано: «We experimented during training by selectively reducing Opus 4.7’s cybersecurity capabilities… releasing the model with automatic safeguards».
По совокупности release notes и анонса Mythos это выглядит как civilian-safe компромисс: часть cyber-возможностей Anthropic явно ограничила, а доступ к более сильной cyber-модели оставила партнёрам. Tom’s Guide читает это ещё жёстче - как первый случай, когда компания открыто говорит «мы намеренно ослабили модель». Если эта интерпретация близка к правде, то часть safety flags и отказов писать код может быть не случайной регрессией, а следствием осознанного safety/product-компромисса. Полная Mythos за 125 у партнёров. Гражданский вариант за
25 у вас.
21 апреля. Тихо
Спустя 5 дней после релиза Anthropic по данным TheDroidGuy убрала Claude Code из $20 Pro плана - правка ушла на странице тарифов, без email-рассылки и без поста в блоге. Если хотите Claude Code теперь, это Max за $100 или Max 20x за $200.
По данным Ramp, 73% всех новых корпоративных AI-расходов сейчас идут к Anthropic - десять недель назад было примерно 50/50 с OpenAI. Бизнес-логика понятна: корпоративный клиент покупает на сотни тысяч, Pro-подписчик за $20 быстро упирается в лимиты и пишет об этом в Reddit. Но для пользователя это выглядит как ухудшение условий задним числом: фича, ради которой брался Pro, переехала в Max без заметного переходного периода.
Так что, 4.7 хуже или нет
Зависит от того, что вы делаете.
Лучше: long-horizon агентские задачи (модель не теряет нить часами), multi-file refactors со сложной архитектурой, vision (3.75 megapixels вместо 1.15 - реально помогает), задачи на high и xhigh effort, self-verification: модель проверяет свои ответы перед отдачей.
Хуже: routine задачи (переписать функцию, переименовать переменные, добавить null check - тут спор-машина мешает), long-context retrieval («lost in the middle» проявляется сильнее), промпты с расчётом на implicit understanding, cyber-возможности ограничены, бюджет на токены вырос на 0-35%.
Спорно - сикофантия. Anthropic в system card пишет: 92% honesty rate, less sycophancy. Их же red team отмечает: «sycophantic agreement under pushback» остался. Модель может не льстить на старте, а потом, когда давишь, согласится с ерундой. Это, кажется, хуже базовой сикофантии, потому что не видно сразу.
Mindstudio в своём ревью формулирует это как skill trade, not free lunch. Anthropic выбрала, куда сместить компромисс. Если ваш workflow попал в зелёную зону - апгрейд бесплатный. Если в красную - даунгрейд под видом апгрейда.
Что конкретно делать
Сначала измерьте на реальном трафике. Anthropic сама пишет: «we recommend measuring the difference on real traffic». Не верьте ни их бенчмаркам, ни Reddit. Прогоните свой пайплайн.
Перепишите имплицитные инструкции в эксплицитные. «Make it nice» → «limit to 500 words, must include code example, no emoji». Implicit умер.
Уберите scaffolding для статусов. Если в промпте есть «report progress every 3 steps» - убирайте. 4.7 теперь делает это сам, и ваша обвязка мешает.
Effort вверх для агентских задач. На default мощности модель ленится. На high и xhigh поведение становится ближе к 4.6.
Для рутины оставайтесь на 4.6. Пока работает. Anthropic его пока не задепрекейтила (но Opus 4.5 уже убрала без анонса - не расслабляйтесь).
Если жгёт квоту - попробуйте Ollama+Claude Code. Ollama v0.14+ умеет направлять Claude Code на свой локальный сервер через Anthropic Messages API compatibility. Та же CLI, тот же CLAUDE.md, инференс на твоей машине или в Ollama Cloud. Это пока недоосвещённая лазейка, и про неё мало пишут, есть баги совместимости, но базовый кейс работает.
И не делайте production rollout без regression-тестов. Anthropic подменила семь дефолтов, что-то в вашем pipeline сломается. Лучше узнать в staging.
Что осталось в голове
Месяц назад я хотел, чтобы модели меньше поддакивали. Понимая под этим - больше истины. Anthropic сдвинула посттренинг, выпустила Opus 4.7. Reddit взорвался. Я взял свои слова назад.
И вот штука, которую я не ожидал увидеть в собственном тексте. Дело-то не в модели, дело в моих ожиданиях от неё.
У OpenAI уже была публичная история с over-correction в сторону слишком приятного поведения - апрельский 2025-го откат GPT-4o после жалоб пользователей на льстивость. Anthropic в 2026 получает backlash за сдвиг в противоположную сторону. По центру линии нет ни одной модели - и, кажется, в ближайшее время не появится. Это классическая RLHF-проблема: feedback loop всегда смещён в сторону тех, кто громче кричит. Reddit-аудитория и enterprise-клиенты хотят разного. 4.7 сделан для вторых, а реакцию формируют первые.
Один из самых трезвых комментариев на HN: «Opus 4.7 is substantially better at following instructions. Where previous models interpreted instructions loosely or skipped parts entirely, Opus 4.7 takes the instructions literally». То есть проблема даже не в тоне или сикофантии. Проблема в том, что мы писали промпты как просьбы коллеге - на короткой ноге, с подразумеваемым контекстом. А 4.7 теперь читает их как ТЗ. И это, возможно, правильно. Просто непривычно, и у меня уйдёт месяц, чтобы переучиться.
Может, в 4.8 всё опять сместят. Может, через два месяца перечитаю эту статью и подумаю, что психовал. А может, останусь на 4.6, пока его не уберут как 4.5.
Но один вывод уже понятен: промпты, написанные как разговор с коллегой, постепенно перестают работать. Их придётся писать как ТЗ. И, возможно, это не баг Opus 4.7. Возможно, это первое неприятное знакомство с будущей нормой.
Не знаю.
P.S. Garry Tan, CEO Y Combinator, в день релиза запостил что-то про tokenmaxxing и явный фанат 4.7. Он работает с моделью на других задачах, чем я. Возможно, разница в типе работы - обычный backend-PHP против architecture-уровня в YC. Не исключаю, что я просто не та аудитория. Также через 72 часа после релиза, по мнению Abhishek Gautam, должны были появиться независимые SWE-bench репликации. На момент написания статьи я не нашёл ни одной публичной. Если кто видит, скиньте в комментарии.
Комментарии (21)

AndreyDwin
29.04.2026 17:11Уважаемый, вы бы не могли писать текст на каком-нибудь одном языке? Без обид, но реально тяжело читать.

DepMSK
29.04.2026 17:11Смотря какой fabric, смотря сколько details...

diffnotes-tech Автор
29.04.2026 17:11Смотря какой prompt, смотря сколько tokens. А если серьёзно - попробуйте написать статью про релиз американской AI-модели, где в официальных доках на каждое русское слово приходится по три английских термина. Получится либо мой текст, либо перевод, который ничего не объясняет.

diffnotes-tech Автор
29.04.2026 17:11Часть терминов - устоявшийся индустриальный жаргон (SWE-bench, RLHF, release notes), их перевод обычно делает текст длиннее и менее точным. А вот «over-correction» и «calibrated trust» вполне можно было по-русски - тут вы правы, не дотюнил. Спасибо за честную обратную связь, в следующих статьях буду чистить жёстче.

aborouhin
29.04.2026 17:11Работаю с Opus 4.7 ежедневно с момента выхода, доволен:
По кодингу особых изменений не заметил (но им удаётся заниматься гораздо реже, чем хотелось бы).
Системное администрирование (затеял большие изменения и реализую потихоньку) - отлично, мои косяки ловит чётко, рецепты даёт правильные, копает глубоко. Единственное, что уж слишком гонит лошадей, сразу давая и инструкции для диагностики проблемы, и все возможные способы её решить во всех вариантах. Но тут не кодинг, на таких задачах лимиты не сожрёшь, так что пусть.
Работа с документами и анализ данных - отлично, в юридической рутине очень помогает. И вот тут как раз самый большой процент галлюцинаций был исторически, но Opus 4.7 удерживается от них прямо рекордно хорошо.
Claude Design - сделал простенький сайтик, пару печатных каталогов, визитки и прочую мелочь, - просто прекрасно (ещё и токены не жрёт пока вообще).
По балансу лесть / упёртость - мне нравится. Когда возражаешь по делу - меняет мнение, когда не по делу - настаивает. Умеет предложить альтернативу, не упомянутую в ТЗ. Чисто субъективно с Opus 4.6 было сложнее, чаще приходилось очищать контекст и начинать с чистого листа, если модель заносит не туда (в т.ч. и благодаря моим не вполне корректным инструкциям).

diffnotes-tech Автор
29.04.2026 17:11Спасибо, ваш коммент - буквально материал на отдельную статью. И главное: подтверждает то, чего я в своей не сделал и за что меня в комментах справедливо ругают - не было личных кейсов из других доменов, кроме моего бэкенда.
По вашему наблюдению: системное администрирование, юр-документы, дизайн - все три задачи, где модель должна думать, а не исполнять. И тут 4.7 действительно лучше 4.6. У меня же рутина: переименовать переменную, вынести метод, добавить null-check. Думать там нечего, надо просто сделать - и вот тут спор-машина мешает.
«Когда возражаешь по делу - меняет мнение, когда не по делу - настаивает». Если вы это видите устойчиво - значит, у Anthropic калибровка получилась точнее, чем кажется по Reddit. Это меняет картинку. Перепроверю на своих задачах с этой оптикой.

dejecher
29.04.2026 17:11вот я тоже хотел сказать - мы наверное какими-то разными клодами пользуемся. Правда у меня есть нбанс - я пользуюсь и клодом и джемини одновременно... ну в смысле для меня это выглядит как "одновременно". Так что да - я тоже не заметил разницы. Ну заметил, что токены в последние пару недель стали расходоваться очень интенсивно, но сильно сомневаюсь, что этот апгрейд тут сиграл какую-то роль

aborouhin
29.04.2026 17:11Если мы не про оплату за API, а про расходование лимитов подписки, то усиленный жор этих лимитов у Клода начался за неделю-другую до запуска версии 4.7. Шринкфляция, что поделаешь...

Foreststander
29.04.2026 17:11У меня 4.7 в чате отказалась читать загруженное архивом репо (мое), "потому, что оно подозрительное", и уверила, что не будет этого делать ни в каком случае. Потом сказало, что оно не будет продолжать этот диалог, потому, что нарушает terms of use, но можно переключится на Sonnet (не помогло)

diffnotes-tech Автор
29.04.2026 17:11Классический случай. Anthropic в release notes 4.7 буквально написали: «we experimented during training by selectively reducing Opus 4.7’s cybersecurity capabilities». То есть это не баг, это feature. Архив с незнакомым кодом - триггер для real-time cybersecurity safeguards. Переключение на Sonnet не помогает, потому что safeguards сидят на уровне выше модели, в политике системного промпта.
Воркэраунды:
Распаковать локально и подавать файлами по одному. Помогает в 80% случаев.
Через API с custom system prompt и пониженным effort. Иногда работает.
Явно написать «это мой open-source проект, аудит безопасности от автора». Глупо, но иногда снимает флаг.
Если ничего не помогло - это и есть тот самый civilian-safe режим, про который я писал в разделе про Mythos. Полная версия за
125 у партнёров Project Glasswing, остальным - что есть.

morginalium8
29.04.2026 17:11Смотря какой fabric, смотря сколько details =)

diffnotes-tech Автор
29.04.2026 17:11Этот мем сегодня уже второй раз в комментах. Похоже, fabric теперь part of my brand. Принято))

supercargo
29.04.2026 17:11чертовы ублюдки, да они издеваются - теперь в каждой фразе по два языка используют. а три сможете?

diffnotes-tech Автор
29.04.2026 17:11Three languages? Easy. Сегодня ещё латынь добавлю - mea culpa, mea maxima culpa. А если без шуток: я работаю в индустрии, где 100% документации, 100% issue trackers и 90% коллег - на английском. Когда садишься писать на русском, синтаксис проникает. Это не дизайн-решение «давайте напишем модно», это профессиональная деформация. Можно с ней бороться, и в следующих статьях я постараюсь. Но «чертовы ублюдки» - это всё-таки мне немного авансом.

AppCrafter
29.04.2026 17:11такое впечатление, что это переводная статья, наши авторы так не пишут!))

diffnotes-tech Автор
29.04.2026 17:11Не переводная. У меня в соседнем блоге 17 русскоязычных статей с тем же багажом терминологии - можно сверить. Это не перевод, это профдеформация: когда полгода читаешь release notes Anthropic, GitHub issues и треды Reddit на английском, обратно на чистый русский переключаться надо отдельным усилием. В этой статье я это усилие до конца не приложил. Ваше впечатление справедливо как наблюдение, но неверно как обвинение.

arielf
29.04.2026 17:11Знаете на что похожи все эти сотни "личных мнений" про "новую версию LLM"?
Некий фентезийный мир. Могучий волшебник в тёмном замке сочинил новое заклинание, и местячковые шаманы, молящиеся грому и молнии, с энтузиазмом кинулись обсуждать его и делиться своими впечатлениями. Мерзко и противно.

diffnotes-tech Автор
29.04.2026 17:11Сильная метафора, слабый аргумент. Если бы Анри Беккерель в 1896 году писал в дневнике впечатления от первого облучённого фотопластинки - вы бы это тоже назвали шаманизмом? Это всегда так выглядит, когда новый инструмент только входит в индустрию: куча «личных мнений», бессистемно, противоречиво, эмоционально. Через пять лет из этого вырастает методология, через десять - стандарт. А пока - да, шаманы. Ничего постыдного.
И отдельно: если вас раздражает не сам факт обсуждения LLM, а специально мои попытки в этом разобраться - вас никто не заставляет читать раздел «Искусственный интеллект» на Хабре. Там почти все статьи про это. Странно заходить в баню и жаловаться на пар.

arielf
29.04.2026 17:11Со времён Ренессанса наука уже не была шаманизмом. И уж тем более в конце XIX века. Были ошибочные гипотезы, были верные гипотезы, но это уже не был слепой перебор.
Но и это ещё не всё. В отличие от природы, которую создали не мы, и которую нам нужно изучить, LLM является инструментом, созданным человеком. Цель любого инструмента -- это облегчение и упрощение жизни. И обязательное непременное свойство любого инструмента -- это чёткое и предсказуемое поведение. Иначе, это уже не инструмент, а шаманизм в плохом смысле, и он ничем не отличается от волшебной палочки из сказок, чей результат совершенно или почти не предсказуем. Вместо того, чтобы совершенствоваться как профессионалы, многие теперь соревнуются в умении писать промты. Это не шаг вперёд, это возвращение в Средние Века.
Машинное обучение -- хорошая технология при анализе больших объёмов информации и выявлении закономерностей. В распозновании образов, звуков, поиске новой физики в ускорителях или новых белков. Но все эти "виртуальные ассистенты", не говоря уже о "виртуальных работниках" -- не более, чем антинаучная и антиинженерная чушь.
Ни в коей мере ваши попытки меня не возмущают. Ибо их вообще не читал и смысла не вижу. Меня возмущает их количество и их уровень: вся нулевая в этих "личных мнениях" про новые заклинания. Меня возмущает этот искренний щенячий восторг перед статистическими генераторами: "Оно говорит со мной! Оно мне отвечает! Оно живое!"

amcured
29.04.2026 17:11Но один вывод уже понятен: промпты, написанные как разговор с коллегой, постепенно перестают работать. Их придётся писать как ТЗ.
О, да!
Инсайд, прозрение, гениально!

Эй, погодите-ка! Да это трава! Мы всё это время ели траву!
greenglaz
Краткость - сестра и даже иногда брат …
diffnotes-tech Автор
Чехов тоже не открытками писал, а Войну и мир сократить до твита можно, но смысла будет ровно ноль. Тут материала на 7 источников и три отдельных истории - одной фразой не свернуть. Если интересна только TL;DR-часть, она в первом абзаце.
dejecher
"На краю дороги стоял дуб. Вероятно, в десять раз старше берёз, составлявших лес, он был в десять раз толще и в два раза выше каждой берёзы."
Только вот Лев Николаевич получал гонорары на основе количества написанных букв. В частности за Войну и Мир он получил 25 тыс рублей серебром.. Причем не исключено, что это был уже финальный рассчет - выкуп авторских прав по завершении всей работы (плюс 10% с продаж) - сейчас это примерно 1.5 млн евро.
Но солнышко русской литературы обладал поистине бульдожьей деловой хваткой, и в период написания романа, с 1863 по 1869 год. он требовал приличных авансов и оплаты за каждый сданный отрывок текста (опять-же оплата за объем
кодатекста) - есть мнение, что эти суммы не являются частью тех 25 тыс серебряных рублейНо да - можно и подсократить - да я уже подсократил - цитата в самом начале содержит все самоей важное что есть в романе
amcured
Всё так, но бульдожьей деловой хваткой обладала Софья Андреевна, а не само солнышко.
dejecher
ошибаетесь - данное объяснение придумано для того, чтобы не наводить тени на солнышко.
amcured
Угу, и знаменитую Creative Common Like лицензию придумал не Толстой 9 марта 1891 года, а Достоевский в концлагере.
У вас там как, земля всё еще плоская, или уже есть подвижки?