image.png

Все уже пошутили и запомнили что если в тексте — , то его писал ChatGPT. А если нет, то человек?

Эта статья - самый подробный гайд в рунете, как отличить текст, сгенерированный Gen AI от текста, написанного человеком и как самому, используя GenAI писать очеловеченный текст. Я разберу реальные приемы, маркеры, ошибки и вооружу вас важными знаниями.

Если хочешь проверить себя насколько ты отличаешь сгенерированный текст - пройди тест https://tally.so/r/w4DZoO!

Подписывайтесь на канал https://t.me/meetdeadlines!

Теория

Как "думает" LLM на самом деле

Это хитрый Т9, он предсказывает следующие слова, а не понимает смысл

Представьте, что вам попался очень наблюдательный собеседник Артем (Артемы часто такие). Он никогда не додумывает за вас, а просто внимательно следит за каждым вашим словом. Артем слышит начало фразы - и на опыте множества лет разговоров с точностью до буквы угадывает, что вы скажете дальше. Ему всё равно, о чём вы на самом деле думаете.

Модель понимает важность слов в тексте по своему

Пока вы разговариваете, этот Артем отмечает для себя не каждое слово, а только те, что чаще всего влияют на ход вашей мысли. Не факт, что они такие же, как выбрали бы вы! Иногда он цепляется за то, что вам кажется неважным, и наоборот может пропустить настоящий подтекст - потому что у него свой взгляд, сложившийся из тысяч разговоров с разными людьми.

Модель не переобучается вашей задачей, для нее это лишь подсказка

Если вы попросите Артёма приготовить паэлью, он сделает её так, как когда-то увидел в Орел и Решка, и даже если вкус не тот - объяснит, почему это нормально. Всё, что вы скажете, для него лишь подсказка, какой ответ от него ждут, но сам Артём ничему новому не учится и не меняет свои привычки.

Задачу которую вы ставите не только не понимают, но и не помнят

Обсудили что-то важное для вас, но у Артема СДВГ и через десять минут он начисто забыл, о чём шла речь в начале. У него феноменальная память только на короткие отрывки и то что он сам когда-то изучал, но если вы с ним болтаете долго, детали первых минут ускользают.

Когда вы задаете роль, ей лишь подражает, а не проживают её

Артем по умолчанию душнила. Он считает себя экспертом во всем, хоть и на самом деле может иметь лишь обрывочное представление потому что любит изучать все подряд. Этот товарищ мгновенно войдет в нужную роль, но у него нет персонально прожитого опыта. Он даже примеры привести не может из жизни, а вот налить воды похожей на правду запросто.

Попросите его быть врачом, блогером или даже волшебником - он моментально войдёт в образ и заговорит нужным языком. Но не обманывайтесь: он ни разу не лечил людей, не вел свой блог и не делал чудеса - просто отлично изображает увиденное и прочитанное

Вас понимают с 1 раза и дальше вы ничего не меняете

Вы можете тысячу раз рассказывать ему о себе и своих предпочтениях, но он никогда не сделает выводов на будущее. Каждый раз всё начинается заново, без учёта прошлых разговоров - только сейчас и здесь. В этом плане он вечный увлектальеный, но новый собеседник.

Сила воображения не в креативности, а в странности

Когда кажется, что Артем вдруг начал шутить или выдавать необычные мысли, это не озарение и не гениальность. Просто в этот момент он решил сыграть в выдавать больше того что первое ему приходит в голову, выбирая все более странные варианты, чтобы удивить вас чем-то нестандартным. Иногда это круто и вызывает вашу улыбку, а иногда недоумение, что он за чушь ляпнул

Итого - никто не учил модель думать, ее учили угадывать

Работа LLM хорошо демонстрируется старой игрой Акинатор https://ru.akinator.com/. Если ты не играл в детсве, сыграй сейчас, после прочтения принцип работы отлично уложится!

image.png
Бонус

Изучив эту терминологию сможете быть самым умным в чате, когда начинаются рассуждения про искусственный интеллект и как ChatGPT всех заменяет: token, tokenization, next token prediction, transformer,model weights, attention, attention heads, context window, data corpus, agent mode, short-term memory, user memory, temperature+top-k/top-p sampling, statelessness), reasoning, finetuning.

Есть очень большая разница в том как мы думаем, говорим и пишем

Когда мы думаем, мысли появляются фрагментами, могут переплетаться, иногда даже спорить друг с другом - это живой внутренний диалог.

Когда начинаем говорить, часто перескакиваем, добавляем эмоции, делаем паузы и сбиваемся, а смысл выстраивается уже по сути дела и может меняться прямо в процессе.

На письме же мы стараемся собрать эти кусочки в более стройный и понятный текст. Что-то убираем, что-то дополняем, упорядочиваем и ищем нужные слова. Компилируем.

В письменной речи появляется структура, но сохраняется ассоциативность и стремление показать глубину мысли, добавить оттенки, примеры, эмоции. В итоге человеческие тексты редко бывают идеально ровными, об них легко споткнуться, но они всегда отражают путь, по которому шла мысль, с поворотами и призмой личного мировоззрения или вкусного вишневого пирога, послевкусие которого еще влияет на изложение.

Почему так сложно имитировать человеческую речь

Человеческое мышление похоже на видение шамана: мы держим в голове много смысловых веток, можем одновременно ощущать эмоции, воспоминания, несвязанные образы и возвращаться к началу мысли. Архитектура LLM оперирует только векторами, где весь текст для модели - это цепочка чисел, разбитая на куски. Такой механизм внимания позволил сделать мощный скачок, но он ограничивает: модель не знает, что такое опыт, вкус, многослойная память, она не может по-настоящему связывать разные пласты разговора, не ощущает глубины.

Модель учит текст как матрицу токенов, в каждом из которых нет настоящего знания, только вероятность встретить один кусок текста рядом с другим. Для неё всё, что выходит за рамки этой последовательности, теряет смысл. В отличие от человека, который создает ассоциации, запоминает и строит новые связи, нейросеть просто движется от одного токена к другому, оценивая вероятности и почти не возвращаясь назад. Но есть те кто думает иначе https://pmc.ncbi.nlm.nih.gov/articles/PMC10068812/

Практика

Теория конечно замечательно, но давай все таки проникнемся ей на практике. Ниже будет простой квиз в форме угадай какой текст написал человек. В каждом разделе будет представлено 2 коротких текста, попробуй догадаться какой составлен человеком, а какой AI.

image.png

14 ключевых признаков отличия AI-текста от человеческого

1. Логика развития аргументации

1) Человек не может обойтись без воды, потому что она основной элемент обмена веществ и без нее никак.

2) Пить воду полезно для здоровья, потому что вода важна для всех процессов организма.

Объяснение

В человеческой речи мысли строятся последовательно, но могут развиваться неожиданно, иногда перескакивая или оставляя недосказанность. Мы часто мыслим закольцованно. Модели часто пишут слишком прямолинейно, без живых поворотов и реальных скачков мысли.

2. Распределение акцентов

3) Мой завтрак состоит из овсянки, чая и банана. Овсянка очень полезна, а чай хорошо бодрит утром.

4) Я предпочитаю готовить на завтрак смузи из кефира, овсянки и банана. Это не только быстро и полезно, но и забавно.

Объяснение

Человек в речи легко смещает фокус: может начать с одного, потом отвлечься на деталь, а потом вернуться. Модель чаще пишет равномерно и не выделяет ничего особенно важного или не делает ярких отвлечений. Также важный фактор то, что человек распределяет акценты по 1 предложению, или блоку фраз, а LLM по всему тексту.

3. Выдерживание жанровой принадлежности

5) Не волнуйся, у тебя все пройдет отлично, я же знаю, ты действительно мастер своего дела и если работодатель не слепой, он точно тебя наймет!

6) Желаю удачи на собеседовании, у тебя всё получится, просто будь уверен в себе и подготовься. Помни, собеседование, это как свидание, а в них ты успешен!

Объяснение

Человек, даже в коротком тексте, интуитивно выбирает стиль и тон - шутит, рассуждает, пишет в стиле анекдота или рецепта, хочет передать конкретное ощущение, а модель часто выдает нечто усредненное и подходящее любому. Настоящий текст всегда дышит настроением выбранного жанра и обязательно кому-то не нравится.

4. Личные призмы и опыт, оценочность

7) Моё любимое время года это лето, потому что в это время тепло и можно отдыхать на природе, особенно приятно лежать на траве в парке.

8) Я люблю лето, потому что в это время можно носить меньше слоев одежды и кушать множество фруктов, особбенно люблю с детства кисловатую вишню.

Объяснение

Человек неизбежно пропускает любой рассказ через себя: вставляет личные воспоминания, ассоциации, даже если текст очень короткий. Модель же пишет обезличенно, почти не делится своим, а оперирует общими фразами. Также люди обожают даже в сухих научных статьях высказывать свои жизненные позиции и взгляды и искать похожих на себя.

5. Интуитивность

9) Я часто просыпаюсь более поздно, чем нужно и в спешке готовлюсь к занятиям по английскому, после чего бегу за завтроком и подключаюсь на первые рабочие встречи.

10) Утром я просыпаюсь, умываюсь, завтракаю и собираюсь на работу, чтобы начать продуктивный день.

Объяснение

Человек часто пишет не обдумывая каждое слово, всплывают неожиданные обороты, сравнения, а мысль порой сама без понятия что дальше. Модель чаще строит текст последовательно и предиктивно, не допуская неуправляемой дисперсии и без внезапных интуитивных поворотов.

6. Ритмичность и симметрия

11) Я люблю бродить в парке. Там много деревьев, воздух чище, даже как-то ощущаешь себя живее. Прогулки в парке полезны для здоровья и психики.

12) Я люблю гулять в парке. Там много деревьев, свежий воздух и красивые дорожки. Прогулки в парке полезны для здоровья и настроения.

Объяснение

У человека текст хоть и звучит сбивчиво, но на деле скорее волнообразный, есть короткие и длинные фразы, паузы, повторения, внезапные обрывы и все поверх одного лейтмотива. Текст подчиняется единому ритму, но много локальной и неразмеренной аритмичности. У AI обычно получается ровный, одношаговый ритм, все предложения похожи друг на друга по длине и структуре.

image.png

7) Эмоциональная динамика

13) Проснулся - и вдруг этот странный мандраж от капли дождя на окне. Чёрт, как же иногда хочется остановить время, чтобы просто смотреть, как капает, как весь город немного дрожит от мороси. И вроде ничего особенного, но внутри вдруг всё переворачивается. Уже не важно, сколько дел, не важно, что опаздываешь, есть только ты и этот мир, мокрый и чуточку новый.

14) Я проснулся утром и увидел каплю дождя на окне. Это был интересный момент, потому что дождь делает город более прохладным. Мне понравилось наблюдать за этим, и я почувствовал спокойствие. После этого я начал заниматься своими делами и готовиться к новому дню.

Объяснение

Человеческий текст пронизан эмоциями,настроение может меняться прямо по ходу фразы. То лёгкая радость, то вдруг тревога, то неожиданное умиротворение или всплеск вдохновения. Эмоциональная динамика - это когда чувства в тексте живут и двигаются, перетикая по всему спектру. Модель чаще пишет ровно, без настоящих эмоциональных качелей. Да, настолько мы их любим, мы нейромедиаторные наркоманы.

8) Речевые привычки

15) Эх, как я люблю переписываться с друзьями по вечерам, мы обсуждаем разные сплетенки и поддерживаем друг друга в трудные моменты, а также регулярно отправляем мемы c коськами.

16) Ну и нравится же мне общаться с близкими друзьями по вечерам. Хоть мы часто лишь перекидываемся парой фраз, мы все равно поддерживаем друг друга в трудные моменты. А еще у нас reelsrelationship.

Объяснение

У каждого человека есть свои слова-паразиты, любимые обороты, неосознанные повторы, специфическая интонация и даже странные конструкции предложений. Это проявляется в том, как мы начинаем фразы, сбиваемся на полуслове, перескакиваем на другую мысль или часто вставляем “ну”, “короче”, “типа” и другие характерные детали. У модели же нет своих привычек, она пишет гладко, ровно и по учебнику. Это особенно ярко заметно если вы до этого читали тексты человека и каждый раз они вызывают ощущение “все как обычно, он ну вот такой”.

9. Пространство синонимов и описательных элементов

17) Мой любимый напиток - кофе, потому что он бодрит и помогает проснуться утром.

18) Кофе это обалденный напиток, без него я бы не смог вставать по утрам.

Объяснение

Человек часто меняет слова, играет с описаниями, добавляет неожиданные сравнения и образы - даже если речь короткая. Модель же использует одни и те же формулировки, мало варьирует лексику и описания. И для убедительности использует близко родственные и одинаково окрашенные слова без двойных значений, которые можно только однозначно трактовать.

10. Юмор, ирония, провокации, оскорбления

19) Ну ты, лять, как обычно, забыл, да? С утра ждал, думал: ну всё, взрослеет человек, теперь поздравит как нормальный, а в итоге тишина. Уже хотел тебе написать, что если ты вдруг в морге, маякни хоть как-нибудь, а то я тут сижу, свечку ставлю за твою память, а она, не зажигается. Всё, в следующем году сам себе открытку подпишу, а ты потом подпишешься под ней, как всегда через неделю.

20) С днём рождения меня, раз уж никто, кроме пары действительно настоящих друзей, об этом не вспомнил. Ты, кстати, единственный человек, кто может забыть поздравить и даже не почувствовать никакой вины, но я тебя всё равно люблю, спасибо, дура. Жду твой звонок, когда микрокосм в твоей голове накатит апдейт календаря.

Объяснение

У человека чувство юмора и ирония часто появляются спонтанно, иногда чуть на грани, с намёком, сарказмом, внутренней игрой или даже лёгкой провокацией. На текст человека можно обидеться. Модель обычно шутит слишком осторожно, объясняет шутку или старается не задеть никого, а острые моменты просто игнорирует.

11. Подход к компиляции текста

21) Я как обычно перегружен и не успеваю ничего написать по делу поэтому до конца недели буду отбиваться мемами. Выше был запрос на что-то личное. Но я далеко не повод для подражания в ряде моментов. Так я никогда не был в отпуске в своей жизни и работаю официально с 14 лет, неофициально с 11 по мелочи. Шутки про швеца-жнеца-на дуде игреца меня не смешат, я был: промоутером, хостесом, официантом, поваром, администратором кафе, грузчиком, садовником, лесничим, лаборантом в КЛД, сапортом, в коллцентр, продажником, аккаунтом, андроид разработчиком и остановился как ПМ.

22) Я сейчас очень занят и поэтому до конца недели буду отвечать в основном мемами. Ранее был запрос рассказать что-то личное. Я не считаю себя примером для подражания, потому что у меня достаточно необычный опыт: я никогда не был в отпуске и начал работать официально с четырнадцати лет, а до этого с одиннадцати лет подрабатывал. Я пробовал себя во многих ролях: был промоутером, хостесом, официантом, поваром, администратором кафе, грузчиком, садовником, лаборантом, сотрудником поддержки, работал в колл-центре, занимался продажами, был аккаунт-менеджером, андроид-разработчиком и в итоге пришёл к профессии проектного менеджера.

Объяснение

У человека большой текст обычно собирается долго, так как часть мыслей приходит сразу, часть дописывается потом, что-то вставляется из старых заметок, какие-то абзацы просто берутся из источников. Многое меняется на лету - вырезается, перемешивается, внезапно всплывают старые идеи, предложения перескакивают с места на место, иногда остаются куски с другим стилем или даже ошибками. В итоге получается живой, не всегда ровный текст, в котором легко найти разные слои и чужие интонации. Особенно заметны слои правок.

12. Критические ноты (сомнения в себе) и открытость к провалу

23) Мой подход всегда даёт хороший результат, и я уверен, что всё делаю правильно.

24) Мой подход всегда правильный, я не могу ошибиться ни в чем.

Объяснение

У человека внутри всегда сидит червечок сомнения, который заставляет тысячу раз переспросить себя: а вдруг я всё делаю неправильно, а если ошибся, и это увидят, и потом мне будет стыдно до конца жизни. Мы часто заранее готовим себе оправдание на случай провала, оправдываемся даже перед самим собой, можем писать и стирать, начинать заново или вообще бояться отправить сообщение, потому что кажется, что скажешь глупость и все это заметят. Мы всегда в себе сомневаемся, а выглядим тем увереннее, чем больше сомневаемся (особенно работает для нарциссов).

13. Грамматическая чистота

25) В основном я работаю ровно столько, сколько указано в контракте. Без лукавства и без фанатизма - восемь часов в день, мне все таки уже не 20 и есть в жизни вещи кроме работы. За исключением, конечно, редких ситуаций, когда "всё совсем горит ***ть" или когда лично обещал что-то C-lvl.

26) В основном я работаю ровно столько, сколько указано в контракте. Без лукавства и без фанатизма — восемь часов в день, мне всё-таки уже не 20, и есть в жизни вещи кроме работы. За исключением, конечно, редких ситуаций, когда всё совсем горит ***ть или когда лично обещал что-то C-lvl.

Объяснение

Когда человек пишет статью или пост, особенно в блоге или соцсетях, в тексте часто встречаются неидеальные обороты, опечатки, забытые запятые, слова не в том порядке, случайные тавтологии или незавершённые мысли. Могут появиться странные фразы, которые теряют часть смысла при редактировании, но автор пропустил их от усталости или спешки. Иногда предложения просто разваливаются на части или выглядят коряво. Часто аввтор думал быстрее, чем печатал или вообще писал текст частями в разное время.

У моделей всё наоборот: нейросеть почти всегда пишет гладко, аккуратно, без огрехов, с идеально расставленными знаками препинания, и даже если ошибается - делает это благопристойно.

14. Риторика убеждения, экспертности и авторства

27) Как выбрать компьютерный стул, чтобы спина сказала спасибо: честный разбор от тимлида в возрасте без рекламы

28) Лучшие советы по выбору компьютерного кресла: опыт, факапы и реальные непроплаченные отзывы

Объяснение

Когда человек хочет убедить или показать себя экспертом, он использует личный опыт, уверенный тон, ссылки на свои ошибки, примеры из жизни, обращается напрямую или даже спорит с читателем. Авторы любят заигрывать с аудиторией. В таких текстах слышна индивидуальная подача, часто есть призыв и личные отступления в стиле “хочешь быть как я, верь мне”

AI же чаще пишет сухо, слишком аккуратно, сдержанно, без авторских штрихов. Нет ни личного напора, ни риска, ни горячих споров, всё как по грамотной дискуссии и риторики.

image.png

Явные артефакты

Рассмотрим популярные и частые артефакты моделей, которые определенным образом могут их выдавать:

  1. Кавычки - и хотя это уже пару лет является спорным моментом, потому как нам и самим удобнее использовать “такой формат кавычек”; « нежели такой », разделяя внутри слова пробелами для легкого восприятия информации, но следует также не забывать и об этом;

  2. Повтор слов - иногда мы получаем в ответе 5-10-15 “Однако” на один запрашиваемый текст и это - классическая стилистическая ошибка при переводе, ОДНАКО :D уже сейчас модели показывают лучший результат, по сравнению с предыдущими поколениями. Но нужно быть бдительными;

  3. Латиница в кириллице - модели иногда (особенно при заполненном контексте чата) могут начать выдавать артефакты на английском, к примеру - “Privet” или “Hello” вместо “Привет”, и создавать подобный ошибки. Зачастую это проблемы с распознаванием текста или кодировки, такие случаи требуют “ручной проверки”;

  4. Двойные тире — - модели зачастую используют двойные тире (—), вместо обычного (-) которые мы всегда используем для экономии времени (я лично не знаю как его вообще ставить на клавиатуре);

  5. Скобочные метки/цитаты “” () - практически всегда информация в них может искажаться или выглядеть подогнанной под стиль всего текста, хотя берется как цитата или что-то заимствованное/неавторское. Классическая попытка модели подать все под один тон, одни эмоции.

Также есть занятная статья про распространенные выражения в английском, которые часто используют LLM https://www.grammarly.com/blog/ai/common-ai-words/.

Отличие подходов разных LLM

Каждая модель обладает своими особенностями, которые проявляются как в стиле текста, так и в типичных оборотах, клише и подходах к изложению.

ChatGPT обычно вежлив, избыточно аккуратен и очень тщательно избегает любых острых или неоднозначных выражений. Его ответы часто максимально универсальны, и он склонен к подробным, структурированным объяснениям, а также повторяющимся шаблонам вида как я уже упоминал выше или важно отметить

Grok наоборот, старается вести разговор более неформально и провокационно, легко используя юмор и сленг, иногда даже чрезмерно стараясь показать себя «своим» для аудитории. Его фирменный стиль - живые и прямые фразы, слегка нагловатые обороты и попытки иронизировать там, где другие модели пишут нейтрально.

Gemini обычно старается соблюдать баланс между четкостью, информативностью и лаконичностью. Он отвечает компактно и без лишней воды, но иногда этим делает тексты слишком сухими. Gemini чаще других моделей прибегает к техническому стилю и любит показывать краткую и чёткую структуру ответов, избегая эмоциональной окраски.

Claude выделяется тем, что склонен вести долгие, вдумчивые и слегка философские рассуждения, иногда наполняя тексты излишней лирикой. Он часто дает мягкие и чуть расплывчатые формулировки, избегая жестких утверждений и стараясь быть максимально толерантным и корректным, за счет чего иногда теряется конкретика и четкость ответа.

В итоге каждая модель оставляет свои отпечатки в тексте, и научившись различать эти фирменные черты, можно легко угадать, с кем из AI-писателей вы имеете дело. Но в этой статье не хватит место обозреть все особенности, поэтому возможно, в следующе

Заключение

Чек-лист для быстрого аудита подозрительного текста

  • В тексте нет опечаток, пропущенных запятых или других мелких ошибок

  • Все предложения примерно одинаковой длины и построены похоже

  • Текст нейтрален, в нём отсутствуют личные эмоции или субъективные оценки

  • Автор не сомневается, не оговаривается и не исправляет себя

  • Нет неожиданных перескоков на другую мысль или тему посреди текста

  • Используются повторяющиеся слова, обороты и конструкции

  • Встречаются необычные символы или кавычки (« », “ ”, —) вместо привычных

image.png

Ощущение что текст написал человек

Длинный текст

Если вы спросите своих коллег или товарищей менеджеров проектов, пишут ли они устав, то 50%-60% ответит "нет, зачем?". Невольно задаешься вопросом, а для чего существует этот артефакт, если добрая половина не использует его в практической деятельности.

Вспомним чему учит PMBOK:

Устав проекта — это документ, выпускаемый инициатором или спонсором проекта, который формально авторизует существование проекта и предоставляет руководителю проекта полномочия использовать ресурсы организации в операциях проекта.

То есть устав, это документ который подтверждает существование проекта и дает права руководителю проекта. Но тут у многих возникает диссонанс, а зачем он? У меня есть должностная инструкция, есть договор, там написано что делать. Обойдемся без лишней бюрократии!

Также устав желательно должен писать не руководитель проекта, а спонсор с заказчиком. Второе распространенное возражение - да никто его не будет писать, это сложно.

Тогда давайте разберемся, зачем вообще этот артефакт нужен.

Устав проекта - это сущность самого проекта. Как говорит Иван Селиховкин, если представлять проект как яйцо - то это его скорлупа.

Устав определяет, что собственно мы понимаем под проектом. Станет ли вам понятно из договора + ТЗ для кого делается проект и с какой целью? Как понять что цель проекта достигнута? Какие риски могут его отменить? Что ожидает заказчик, какие должны быть важные события в течении проекта? Я сомневаюсь.

Уверен, у вас возникает ощущение что текст писал выше не человек. Попробуйте его прочитать и самостоятельно найти в ним маркеры, которые позволяют судить об обратном. Что выдает в нем человеческий текст? Подумайте сами. После этого загляните в чеклист

Краткий гид как не палиться, если вы пишите с ИИ

  1. Используйте те модели, в которых можно отдельно задавать тональность текста, структуру промпта и добавить персональный контекст. Те же проекты в ChatGPT

  2. В качестве контекста подгружайте большие массивы ваших живых текстов - для этого идеально выгрузить все свои старые посты из Телеграма или других соцсетей, заполнить ими хотя бы половину контекстного окна модели (обычно это 200-500 тысяч токенов).

  3. Превратите этот текст в вектор через n8n или любой другой доступный инструмент.

  4. Если собственных текстов мало - соберите переписки или посты, которые реально писали сами, и загрузите их в качестве базы.

  5. Не поленитесь пройти широкий психологический тест на акцентуации и паттерны мышления (например, тест Янга), чтобы зафиксировать свои личностные особенности.

  6. Напишите подробный структурный промт по схеме COSTAR: отдельно пропишите цели, ограничения, стиль, типичный тон, особые маркеры речи

  7. Обязательно укажите отдельно tone of voice, и нежелание использовать слишком правильную грамматику - пусть в тексте будут сбивчивости, фразы-паразиты и ошибки.

  8. Производите постобработку. В каждый текст добавляйте что-то личное, что не может знать ни одна нейросеть - свой опыт, мысли, сомнения, ошибки и странности.

Только так ИИ начнёт звучать действительно по-человечески и перестанет палиться на первых двух абзацах.

Надеюсь этот текст помог вам глубже погрузиться в вопрос житейского распознавания текста без специальных сервисов. Будем рады видеть вас в канале https://t.me/meetdeadlines!

Ответы для самопроверки

Ответы

1 - человек

2 - AI

3 - AI

4 - человек

5 - человек

6 - AI

7 - AI

8 - человек

9 - человек

10 - AI

11 - человек

12 - AI

13 - AI

14 - AI

15 - человек

16 - человек

17 - AI

18 - человек

19 - AI

20 - AI

21 - человек

22 - AI

23 - AI

24 - человек

25 - человек

26 - AI

27 - AI

28 - AI

Комментарии (56)


  1. ppnn
    13.06.2025 16:35

    ...Очепятки в тексте репортить, или они там специально наставлены, чтоб на АИ непохоже было? )


    1. anzay911
      13.06.2025 16:35

      В тексте есть —, так что очевидно ИИ.


      1. ppnn
        13.06.2025 16:35

        Коммент брадобрея!)


      1. Renewal_Studio Автор
        13.06.2025 16:35

        Ага, особенно там где примеры с ИИ явные


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Нет, но если зарепортишь или укажешь, буду крайне признателен!


  1. onyxmaster
    13.06.2025 16:35

    Артём прямо как я!


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Прям во всем во всем?


      1. onyxmaster
        13.06.2025 16:35

        Нет, но душнила, много помнит но мало знает… :)


  1. Spaceoddity
    13.06.2025 16:35

    Вы можете тысячу раз рассказывать ему о себе и своих предпочтениях, но он никогда не сделает выводов на будущее. Каждый раз всё начинается заново, без учёта прошлых разговоров - только сейчас и здесь.

    Ну ерунда же - для этого есть кнопка "начать новый чат". Если продолжать диалог в рамках одного чата - помнить будет (но может и забыть вдруг). Это же специально сделано, чтобы контекст не терялся.

    Работа LLM хорошо демонстрируется старой игрой Акинатор

    Нет! Внешний "вау-эффект" похож, но "под капотом" совсем другое. Я специально просил сравнить. Акинатор - это алгоритмизация, нейросетки работают принципиально иначе. Более того - ДипСик предложил попробовать сыграть в Акинатор на его вычислительных мощностях, чтобы сравнить - в итоге пшик! Топчется на одном месте, частенько игнорирует ответы и повторяется... Только случайно один раз получилось угадать (перебирал всё подряд, да ещё и с ошибочной интерпретацией вводных)

    • В тексте нет опечаток, пропущенных запятых или других мелких ошибок

    Любой спеллчекер в любом поле ввода вам сейчас пометит ошибки. Запятые не пометит, но с запятыми и нейросети облажаются - гарантирую! ;)


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Ну ерунда же - для этого есть кнопка "начать новый чат". Если продолжать диалог в рамках одного чата - помнить будет (но может и забыть вдруг). Это же специально сделано, чтобы контекст не терялся.

      Вы правы что всегда можно запустить новый чат, но потребуется начинать сначала. Опять таки я говорю про первычный промт и то как работает шорт память и контекстное окно. Контекст вполне себе конечен


      1. Spaceoddity
        13.06.2025 16:35

        Вы правы что всегда можно запустить новый чат, но потребуется начинать сначала.

        UPD: Не потребуется. Только что выяснил, что ChatGPT без спроса передаёт контекст из других чатов в рамках одного профиля и при это сам не понимает как это происходит))

        Короче OpenAI следит за вами и цепляет ваше био к каждому чату...


        1. Renewal_Studio Автор
          13.06.2025 16:35

          Не передает напрямую контекст, часть метаданных и есть long-therm memory, но это немного другое. Опять таки я писал для обывателя, с легкой привязкой к chatgpt как к самому понятному. Но в условном grok это так явно не прокатит, особенно на локальных моделях квена


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Работа LLM хорошо демонстрируется старой игрой Акинатор

      Я не говорил что это так работает и что акинатор LLM. Я специально писал статью рассчитанную скорее на обывателей, а не гиков. Акинатор не было чем аналогия, причем дурацкая, но тем не менее уместная


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Любой спеллчекер в любом поле ввода вам сейчас пометит ошибки. Запятые не пометит, но с запятыми и нейросети облажаются - гарантирую! ;)

      Пометит простые ошибки и когда нет двусмысленности. Удачи с определяющими предложениями


  1. UnknownUser
    13.06.2025 16:35

    А автор ни разу не пробовал просить модели сгенерировать текст в каком нибудь стиле ? Мне, например, нравится составлять краткие рассказы (или описывать канву сюжета) а потом просить deepseek написать/переписать в стиле какого нибудь писателя (почему то чатгпт в этой ипостаси не так хорош).

    Очень классно получается. Сомневаюсь, что автор отличит такие тексты от написанных человеком. Если же просто написать запрос, то да, в ответе часто торчат ухИИ .


    1. Renewal_Studio Автор
      13.06.2025 16:35

      А автор ни разу не пробовал просить модели сгенерировать текст в каком нибудь стиле ?

      Я давненько использую LLM и погружаюсь в них постоянно. Да, на первый взшляд красиво. Говно-луп (простите за выражение) нейроконтента уже раскрутился и я лично все больше и больше триггерюсь об него и привыкаю отличать

      Если для вас вполне достаточно таких результатов, окей, значит пост просто не под ваш запрос


      1. UnknownUser
        13.06.2025 16:35

        просто действительно, я в ваших примерах не вижу ничего такого что современные сети могли бы обойти. Реально попробуйте чтобы кто нибудь устроил вам слепой тест.


        1. Renewal_Studio Автор
          13.06.2025 16:35

          Я не давал специально такие примеры и в целом не давал примеры. Я лишь демонстрировал наглядно в чем отличие и особенности. Если вы считаете что на таком не ломается генерация и LLM не испытывают трудности (кидаться кучей статей не буду), хорошо!


  1. Astroscope
    13.06.2025 16:35

    Я не горжусь своими опечатками, ровно наоборот, и всячески, совершенно впрочем безуспешно, пытаюсь от них избавляться. Но, похоже, они - многочисленное единственное, что позволяет заподозрить в моих всегда и без исключения вручную написанных текстах неиишное происхождение. В отличие от "настоящих" (кстати, такие кавычки автозаменяются на упавший на бок Citroen в текстовых процессорах вроде MS Word, например, равно как дефисы заменяются на тире и тому подобные автозамены там присутствуют в ассортименте) литераторов, для меня это хобби, а любимый жанр - срач в каментах короткие повествования на околотехнические темы. Поэтому мне неинтересно перекладывать свое хобби на автоматику - смысл хобби в том, что это нравится делать самому, а не в том, имеет ли это какой-то практический смысл и осязаемую пользу. Когда этого вашего AI еще и не планировалось, кроме как в мечтах визионеров-фантастов, я уже использовал такие приемы форматирования текста, как

    • список из одного пункта

    Поэтому меня уже несколько раз с категорической уверенностью обвиняли в том, что это не я пишу, а Искусственный Идиот. Спешу всех успокоить - естественных идиотов пока что еще 95%, то есть хватит их еще надолго, замена на искусственных идиотов не более чем поцстраховка на отдаленное будущее.


    1. maaGames
      13.06.2025 16:35

      Добавят постпрцессинг с добавлением рандомных опечаток и всё, вы ничем уже не докажете, что вы челвоек :)


      1. Renewal_Studio Автор
        13.06.2025 16:35

        Текст выше собран мной, описан, добавлены примеры и тд. Но финальная вертска и заполнение 30% воды связками работа AI. Ну и естественно постпроцессинг. Но я лично так тексты пишу иногда даже дольше, но это чуть менее ресурсозатратно. Голый текст от AI без семантики, тезисов, примеров и кучи чего еще мне совесть не позволяет катить


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Прекрасно понимаю, я даже как-то слегка стал гордиться легкой безграмотностью


  1. maaGames
    13.06.2025 16:35

    В открытом доступе есть сайты, которые анализируют переданную картинку и сообщают, реальное это фото или сгенерировано ИИ и какой там процент сгенерированности. Есть ли подобные сервисы для текста? Всякие антиплагиаты похожесть и уникальность проверяют, сгенерированные с разными сидами текста должны быть "уникальными", но вот можно ли их математически как-то распознать как сгенериованные?


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Для текста навалом. https://uncheck.ai/ https://www.zerogpt.com/ и сам gpt умеет. Правда как не странно лучше всего распознает claude 4.0 , мне даже анализ моих статей выкатывали тут на хабре, очень хороший технический анализ


    1. CbIHKA
      13.06.2025 16:35

      А зачем? В чем принципиальная разница между ИИ и кожаным мешком, которому надо срочно высрать пару килобайт, чтобы закрыть ки-пи-ай за текущий месяц и получить свою пайку? Что одного читаешь, что другого, лишь невообразимая скука, полнейшая предсказуемость, одни и те же клише, один и тот же набор примитивных манипуляций, и нулевой смысловой поток по контуру сгенерированной халтурки. И тот и другой -- языковые модели, разница лишь в хардвэре, на котором они шуршат, и потребляемой мощности


      1. Renewal_Studio Автор
        13.06.2025 16:35

        Ну если для вас все вокруг генераторы бессмысленного текста, которые не дает вам ничего нового - что ж полагаю для вы уже слишком преисполнились


        1. Astroscope
          13.06.2025 16:35

          для вас все вокруг генераторы бессмысленного текста

          Осторожно предположу, что ваш собеседник говорил не про не только лишь все, а про неопределенно значимый процент бессмысленного и беспощадного "копирайтинга", состоящего из, позвольте аллегорию, грязной, непригодной для питья воды, чуть более чем полностью. Про тот псевдоинформационный мусор, которыми неряшливо, как мусорные баки возле жилых домов в "дешевых" спальных районах, набиты довольно многие сайты ради повышения своего рейтинга в поисковой выдаче.


          1. Renewal_Studio Автор
            13.06.2025 16:35

            Возможно, я пишу беззлобно. Для меня лично 95% текста про управление тоже уже сливается и нахожу бессмысленным. Либо это одно и то же, либо просто пустое, без глубины


          1. Renewal_Studio Автор
            13.06.2025 16:35

            Если топикстартер имел в виду именно то, о чем вы упомянули, то я полностью с ним согласен. Однако в моем случае я не пишу пустое и иногда даже трачу слишком много времени на контент. Правда который потом не особо оправдывается к сожалению, ибо оказывается никто не любит тратить ресурс на погружение


      1. Renewal_Studio Автор
        13.06.2025 16:35

        Однако в моей случае это не так, поэтому я пишу. Я ничего оголтело не продаю, я не маркетолог или СММщик. Может блоггер по мелочи. Сейчас мы с ребятами энтузиастами тестируем гипотезу нужен ли рынку вменяемый курс, при этом мы не готовы выставлять себя инфоцыганами и писать кучу одинаковых и безликих текстов


      1. Renewal_Studio Автор
        13.06.2025 16:35

        Тем более эта статья заняла 7+ часов моего времени и некоторым в окружении была полезна


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Конечно можно, я по статье как раз описывал все эти математические моменты про длину предложений, расположение пауз, спетецен дисперсии и тд


    1. bstan
      13.06.2025 16:35

      Для текстов есть. Но возникает сложность:
      - русский язык популярные ресурсы не умеют распознавать
      - разные сервисы используют разные алгоритм и дают разные оценки
      - я тестировал на свое тексте (написанный мной) - сервис говорили, что 40-60% сгенерировано AI (особенно, если это портянка или повторяемый структурированный текста)

      Поэтому, как и с genai - нужно использовать много других вариантов и все еще принимать решение самостоятельно


      1. maaGames
        13.06.2025 16:35

        Подозреваю, что для всяких бюрократических документов будет большой процент сгенерированности показывать. Там принято лить воду неестественным для нормальных человеков языком и фразеологические обороты нечеловеческие использовать. Не удивлюсь, если даже ИИ перейдёт в спящий режим уже на половине документа.


        1. Renewal_Studio Автор
          13.06.2025 16:35

          Ахахх, возможно. Но все же основной фактор того что текст писан не человеком - это линейное структурное выверенное симметричное чистое повествование


        1. bstan
          13.06.2025 16:35

          Grok кстати, хорошо знает юридическую базу. И опять же, ниша которую вы указали, это прям очень специфическая. Есть база с юридическими кейсами, где вылезло, что использовали GenAI для подбора фактов (ложных :))


          1. Renewal_Studio Автор
            13.06.2025 16:35

            Ну для такого нужен все таки хороший RAG с очень жестким guardrails и фулл покрытый тестами после десятков жестких бенчмарков. А не как поступилии недавно с делом Кеннеди


      1. Renewal_Studio Автор
        13.06.2025 16:35

         русский язык популярные ресурсы не умеют распознавать

        Ну что значит не умеют. Я конечно даже не пытаюсь использовать аля yandexgpt, слишком меня печалит ее работа. Однако даже машинописный перевод условного Qwen отлично работает, особенно если файнтюнить на паре сотен твоих сообщений. Компилятивно конечно, но гораздо лучше чем в лоб генерит все остальное, даже с точки зрения идиосинкразии


        1. bstan
          13.06.2025 16:35

          Используй giga chat! Он лучше в текстах на русском )


          1. Renewal_Studio Автор
            13.06.2025 16:35

            Меня все его тесты крайне печалили и особенно то насколько слаб его ризонинг, даже не пытаюсь откровенно говоря его всерьез воспринимать


            1. bstan
              13.06.2025 16:35

              не, в reasoning он не умеет еще. Но сгенерировать текст, похожий на русский - вполне справляется


              1. Renewal_Studio Автор
                13.06.2025 16:35

                А, без? Что ж, я не изучал глубоко, меня РФ модели пока мало интересуют


      1. Renewal_Studio Автор
        13.06.2025 16:35

        разные сервисы используют разные алгоритм и дают разные оценки

        Естественно. Поэтому я не привожу конкретный совет где писать, чем проверять и тд. Использовал ChatGPT лишь как популярную аналогию. Как-никак статья рассчитана на обывателя и я хочу на пальцах донести как это работает и почему


      1. Renewal_Studio Автор
        13.06.2025 16:35

        я тестировал на свое тексте (написанный мной) - сервис говорили, что 40-60% сгенерировано AI (особенно, если это портянка или повторяемый структурированный текста)

        Да, потому что судя по твоим постам ты грамотный структурированный душнила обученный логическим конструкциям и привыкший писать равномерный текст без эмоций сугубо профессиональным сленгом. Это действительно похоже на отпечатки AI. Но все же ты пишешь потоково


  1. manfredima
    13.06.2025 16:35

    Материал сильно смахивает на продукт ИИ, несмотря на множественные очевидные пропуски запятых. Читать не стал :(


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Материал сделан лишь с точки зрения наполнения водой ИИ, а так мой. Рекомендую почитать хотя бы раздел с практикой, он достаточно занятный


    1. bstan
      13.06.2025 16:35

      У вас важный комментарий. Поделитесь признаками, которые указывают на ИИ-сгенерированный текст?


      1. nin-jin
        13.06.2025 16:35

        Много повторов одной и той же мысли в разных формулировках.


        1. Renewal_Studio Автор
          13.06.2025 16:35

          Речь про начало с теорией? Там да, я ее несколько раз по разному разжевываю


        1. Renewal_Studio Автор
          13.06.2025 16:35

          Если у вас есть предложение как исправить или просто можете указать почему что-то не очень и где, я буду рад поправить!


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Но все же текст в основном (больше 80%) написан мной. Я очень компилятивно пишу текста. Я сперва собираю тезисную структуру, пишу драфты фраз и потом отдельно наполняю каждый раздел. У меня начинаются проблемы со связкой и переходами. А еще я малость малограмотный. Поэтому я решаю эти вопросы gen ai


  1. Notrado
    13.06.2025 16:35

    Про правильные кавычки «“…”» (или «„…“») и разные виды тире (— и –) прямо «обидно» было. После во многом просветительской работы Артемия Лебедева по типографике и давней доступности русской раскладки Ильи Бирмана можно лишь сожалеть, что ещё не все это освоили, а ещё удивляться, что теперь типографски правильный русский или иноязычный текст будет (или может) выглядеть для кого-то как сгенерированный.

    Хотя не все так пишут, конечно, и применение знаков при написании может меняться в зависимости от цели (как то: статья в журнал или быстрое сообщение в чат), но всё же, думаю, что перечисленные Вами особенности использования верных знаков никак не будут являться показателем генерации от LLM для тех, кто привык писать по правилам. А вот смешивание одного и другого, или такой стиль от того, кто не умеет этим пользоваться, вполне может косвенно на что-то указывать. Как и сейчас можно различить текст из Википедии по ударениям в словах или увидеть вставку в текст по отличающемуся форматированию вставки.


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Соглашусь. «“…”» (или «„…“») и разные виды тире (— и –) это больше про один из типичных маркеров , не означает что это единственный и верный маркер. Но если сложить +- большинство особенностей, то можно достаточно безошибочно судить о том что писал gen ai


  1. Yukajii
    13.06.2025 16:35

    Недавно была исследовательская публикация о человекофикации тестов от ллм: https://arxiv.org/pdf/2506.07001v1

    Говорят прям хорошо работает

    На английском, разумеется


    1. Renewal_Studio Автор
      13.06.2025 16:35

      Ого, спасибо, как-то не думал про связку детектор <-> перефразировщик LLM. Очень жестко обходит детекторы. Но думается текст от этого лучше не становится