В современном мире цифровая киберэкономика становится неотъемлемой частью глобальной экономики, трансформируя способы ведения бизнеса, взаимодействия и обмена информацией. С развитием технологий, таких как искусственный интеллект и нейросети, открываются новые горизонты для инноваций и оптимизации процессов. Однако с этими возможностями приходят и серьезные вызовы, среди которых одной из наиболее актуальных проблем является фальсификация цифровой информации. Нейросети, обладая способностью генерировать убедительные тексты, изображения и даже видео, которые с каждым днем становятся все более реалистичными даже для экспертов, ставят под угрозу достоверность данных, доверие к цифровым ресурсам и репутацию лиц, принимающих решения.
Если мы понимаем важность киберэкономики и ее будущее влияние на общество, мы должны найти пути решения проблем, связанных с манипуляцией информацией, для обеспечения безопасности и прозрачности в цифровом пространстве.
Современная экономика и общественные отношения становятся все более кибернетическими. На наших глазах появляются новые криптовалюты, смарт-контракты и децентрализованные организации, дающие фундаментальные преимущества в конкуренции с глобальными корпорациями благодаря трансграничности, скорости операций, масштабируемости и доступу к лучшим ресурсам в самых выгодных регионах мира. Но давайте посмотрим на суть проблемы — в Интернете огромное число фейков, из-за которых с каждым днем все труднее отличить правду от лжи, а искусственный контент, создаваемый в огромных количествах нейросетями, становится все более реалистичным и скоро совсем будет неотличим от настоящего.
Это глобальная проблема. В увеличивающемся объеме информации все труднее отличить правду от фальсификации. И у нас нет инструментов, способных подтвердить правдивость утверждений, и выделить достоверную информацию среди фейков для широкой аудитории.
Даже реферируемые научные журналы столкнулись с потоком фальсификаций. И даже в таких надежных источниках информации как Википедия, авторы часто подвергаются давлению администраторов с целью продвижения предвзятых мнений, несмотря на то, что квалификация администраторов часто неизвестна, а численные критерии для расчета наукометрических показателей репутации и достоверности в них просто отсутствуют.
И экономика — это одна из игр, в которую играют люди. И согласно теории игр существует три исхода такой игры: с положительной, отрицательной или нулевой суммой.
Если люди покупают криптовалюту за обычные деньги или обменивают на бирже одну крипту на другую — это игра купи/продай с нулевой суммой. Если мошенники обманывают невежд — это вообще игра с отрицательной суммой. А прибавочная стоимость в экономике создается только в процессе производства товаров и услуг. И крипта — это кровь киберэкономики. Без киберэкономики крипта почти ни для чего не нужна кроме спекуляций или редких трансграничных операций. Киберэкономика состоит из децентрализованных организаций. Децентрализованные организации состоят из людей. Люди хотят зарабатывать крипту. То есть крипта — это технический инструмент, который позволяет нам достигать своих целей в киберэкономике и строить новые сообщества.
И как говорил Стив Джобс — «Большие дела не делаются одним человеком, они совершаются большими командами». Большие организации достигают больших целей и зарабатывают большие деньги. А децентрализованные финансы — это инструмент для функционирования децентрализованных организаций. Поэтому рост криптовалют однозначно связан с ростом и развитием децентрализованных организаций. И если мы хотим получать в киберэкономике большую прибыль, мы должны строить и создавать большие децентрализованные организации.
И тут у нас большая проблема.
В результате развития технологий искусственного интеллекта в сети стремительно растет объем трафика, создаваемого искусственными агентами. Уже в прошедшем 2024 году почти половина трафика генерировалась мошенниками. Только новостных информационных каналов, полностью сгенерированных нейросетями без участия человека, в этом году уже было больше 1200. При этом контент в таких информационных каналах потрясающе качественный и разнообразный — от кулинарных рецептов и рекомендаций по здоровью до юридических советов и стратегий по инвестициям. Все сгенерировано очень захватывающе и правдоподобно за одним только исключением — там вообще нет ни одного слова правды. Единственная цель существования таких каналов — привлечение пользователей для показа контекстной рекламы. А ответственность за свои деньги и здоровье каждый несет сам.
Дальше будет только хуже. У нас есть максимум год до момента, когда боевые нейросети будут намеренно вводить нас в заблуждение. Все знают, что такое Kali Linux, но уже в ближайшее время нам придется столкнуться с KaliGPT и ДжихадGPT. И существующих методов защиты будет недостаточно.
Многие еще надеются на методологию KYC для проверки документов и подтверждения личности, но это очень наивно. Агенты искусственного интеллекта будут нанимать бомжей, чтобы получить сертификат «я не робот». Такие примеры уже есть. Недавно нейросеть уже наняла на сайте фрилансеров человека для прохождения капчи, а летом во Франции дипфейк генерального директора позвонил по зуму главному бухгалтеру компании и убедил ее перевести в оффшор все деньги по подложному договору. А еще более наивно надеяться, что одна фейкогенерирующая нейросеть будет проверять на достоверность другой фейкогенерирующий алгоритм. Наоборот, они будут учиться и совершенствоваться друг у друга в фальсификации всех видов контента. Это тупик и основа потенциальной катастрофы в информационном мире.
Один из ведущих российских специалистов по искусственному интеллекту Сергей Карелов считает https://mozlab.mave.digital/ep-25 (на 33:30), что уже в ближайшее время никто не сможет проверить достоверность факта среди множества правдоподобных генераций без вложения 10 тысяч долларов в его проверку. Эта примерно равно неделе работы большого фактчекингового отдела в крупном издательстве.
Мошенники, боты и тролли будут проникать в децентрализованные организации, чтобы отнимать у людей крипту. А децентрализованные организации будут умирать, когда в них будут проникать мошенники, боты и тролли. Поскольку люди не понимают как отличить приличного человека от бота или тролля — никто не сможет доверять киберэкономике, а крипта не будет расти. Это тупик. Wellcome to hell!
На мой взгляд этот тупик ставит крест на всей способности человечества к кооперации ради общих целей.
Без цифровых технологий мы подобны пещерному человеку, а без цифрового сертификата доверия нам приходится доверять только личным связям. А их число принципиально ограничено числом Данбара — когнитивным пределом числа людей, с которыми можно поддерживать стабильные социальные отношения — отношения, в которых человек знает, кем является каждый участник и как каждый участник относится к каждому другому человеку.
По разным оценкам, число Данбара в человеческих сообществах лежит в диапазоне от 100 до 230, чаще всего условно его принимают равным 150. И даже существующие методики подтверждения личности очень слабо на это влияют. Круг Данбара расширяется, но незначительно. Условно, со 150 участников можно достигнуть 500 и все. Снова тупик. Доверие размывается. Кто там за горизонтом ваших личных знакомств — непонятно. Понятно только, что там наверняка есть мошенники, но кто???
А когда мошенники и аферисты для скама начнут использовать продвинутые нейросети, то шансы решить эту проблему стремительно покатятся к нулю. После достижения цифрового превосходства нейросетей над самым умным представителем человечества, больше никто из людей на это не способен. Скорость эволюции нейросетей в данный момент в 3 миллиона раз превышает скорость эволюции человека и человек больше не самый умный вид на этой планете. А умение нейросетей говорить с человеком на его языке и при этом говорить именно то, что он хочет от них услышать, пробивает психологические защитные барьеры и открывает мошенникам грандиозные возможности для социальной инженерии.
Один из ведущих специалистов в мире по системам информационной безопасности, профессор Кембриджского университета Росс Андерсон в своей статье вообще уже рассматривает сценарий, когда большая часть интернета будет сгенерированной нейросетевой галлюцинацией. Но ни вы, ни я и никакой эксперт и никто вообще не смогут отличить фейк от реальности. В результате нейросети будут деградировать в процессе обучения на собственных галлюцинациях в Интернете, а люди деградировать в процессе применения деградировавших нейросетей. Этот процесс он назвал «коллапс нейросетей». Еще в апреле Сергей Карелов написал, что первые результаты заражения спустя полтора года после начала испытаний генеративного искусственного интеллекта уже поражают свои масштабом.
Ник Сен-Пьер (креативный директор и неофициальный представитель Midjourney) говорит, что заражено уже все, поскольку никто не предполагал столь высокой скорости заражения и не принимал в расчет наличие мультипликатора — заражения от уже зараженного контента.
Это глобальная проблема. В Интернете огромное число фейков, искусственный контент, создаваемый в огромных количествах нейросетями, становится все более реалистичным и скоро совсем будет неотличим от настоящего, фактчекинг с каждым днем требует все больших затрат и в увеличивающемся объеме информации все труднее отличить правду от фальсификации, но у нас нет инструментов, чтобы проверить достоверность и отфильтровать правду от лжи. Пользователи Интернета по всему миру растеряны и дезориентированы, многие говорят, что не знают где правда, общество поляризовано, все это вызывает кризис доверия и ограничивает развитие децентрализованных организаций.
Баланс доверия в обществе нарушен и существующие технологии криптографии одинаково хорошо защищают как обычных пользователей, так и мошенников, которые благодаря анонимным децентрализованным и криптографически защищенным аккаунтам становятся совершенно неразличимы в цифровом информационном пространстве и могут наносить ущерб активно используя технологии фальсификации с помощью нейросетей.
Кроме того, еще в феврале прошлого года была опубликована фундаментальная статья Майкла Левина с математическим доказательством теоремы и ее трех следствий о конфабуляторной природе сознания у людей и любых других интеллектуальных систем. Конфабуляция означает процесс заполнения пробелов в памяти выдуманными историями или фактами, которые человек считает правдивыми, даже если они не соответствуют действительности. Это не обязательно сознательный процесс, и человек, создающий конфабуляции, может искренне верить в их правдивость. Следствием теоремы является математическое доказательство принципиальной неустранимости галлюцинаций больших лингвистических моделей и неработоспособности централизованных систем.
Фундаментальные последствия этой работы трудно даже представить. Авторы считают, что это приведет к пересмотру даже фундаментальных вопросов личной идентичности и смысла жизни. А на мой взгляд можно считать математически доказанным, что практически никакие задачи и проблемы, стоящие перед человечеством, не будут решены без создания системы коллективного интеллекта и взаимной непредвзятой и объективной проверки информации на непротиворечивость.
Я являюсь сторонником гипотезы, что суперинтеллект должен родиться из синергии искусственного интеллекта, обладающего гигантской начитанностью и насмотренностью, с коллективным интеллектом реальных живых людей-специалистов, обладающих реальными знаниями и опытом.
У Яна Лекуна в статье есть отличная цитата: "Большие языковые модели (LLM), похоже, обладают удивительно большим объемом фоновых знаний, извлеченных из письменного текста. Но большая часть человеческих знаний здравого смысла не представлена ни в одном тексте и является результатом нашего взаимодействия с физическим миром. Поскольку LLM не имеют прямого опыта с базовой реальностью, тип знаний здравого смысла, который они демонстрируют, очень поверхностен и может быть оторван от реальности".
Лекун пишет о том какими ухищрениями можно попробовать научить LLM здравому смыслу о мире, но это все равно далеко от вопроса достоверности, поскольку даже если эти ухищрения приведут к результату, все равно останется вопрос насколько база данных здравого смысла достоверна.
На данный момент все разработчики LLM утверждают, что их датасеты достоверны, но это очевидно не так, поскольку в них не раз обнаруживались фейки, а у самих разработчиков вообще нет критерия достоверности информации.
Позиция "моя база данных или онтология достоверна потому что она моя" не может быть основой достоверности. Поэтому будущее для меня лично довольно просто и определяется следующей логикой:
Галлюцинации и конфабуляции искусственного интеллекта принципиально неустранимы https://www.mdpi.com/1099-4300/26/3/194
Перекрестное взаимообучение LLM на галлюцинациях друг у друга неизбежно ведет к "коллапсу нейросетей" и деградации знаний людей, которые их применяют https://arxiv.org/abs/2305.17493v2
Любая физическая деятельность в реальном мире связана именно с физикой всего мироздания, и иногда малейшая ошибка в понимании этих взаимосвязей заканчивается летальным исходом. Миллион примеров можно посмотреть на видео, посвященных производственной технике безопасности. Именно поэтому любая галлюцинация робота с искусственным интеллектом без опоры на реальный опыт реальных людей с реальными знаниями о мире, закончится повреждением робота и убытками разной степени для работодателя, вплоть до катастрофических.
Отсюда вывод — на людях лежит главная ответственность за связь с реальностью. И чем сложнее будут вопросы, которые будут решать нейронки, тем серьезнее будет ответственность человека за своевременное выявление все более тонких и неуловимых галлюцинаций. Для этого нужны люди с глубочайшими знаниями, причем не с зазубренными из-под палки в школе, а с реальным опытом практически по любым вопросам.
Сколько будет задач у нейронок, столько должно быть и суперпрофи по этим задачам. А для суперпрофи нужны просто профи и помощники профи и ученики помощников профи.
И для всего этого необходим рейтинг достоверности знаний, чтобы знать кто профи, а кто не профи.
А без критерия достоверности информации и рейтинга достоверности знаний любую LLM (и вообще любую искусственную систему согласно доказательству Майкла Левина) ожидает неминуемый коллапс.
Противопоставить искусственному интеллекту можно только коллективную нейросеть всех умов человечества. Для взаимной проверки и совершенствования больших языковых моделей и человека нужна возможность сопоставления знаний искусственного интеллекта с коллективным интеллектом. Это единственное, что может нас вытащить из персональных туннелей реальности и личных информационных пузырей, в которых мы все глубже застреваем поодиночке.
Концептуально задачу описывает связь Факты-Личности-Отношения на основе ABC-модели фальсификации веб3-проектов Actors-Behavior-Content, предложенной аналитиками из команды Кайфу Ли — китайского гуру искусственного интеллекта. В соответствии с моделью фальсификации фактически это целых три очень сложных проблемы, которые нужно решить только сразу вместе, поскольку если где-нибудь будет нестыковка, то в нее обязательно рано или поздно пролезут мошенники.
Это очень сложная проблема. Здесь предстоит много работы, чтобы все это преодолеть. В одиночку здесь точно никто не справится и нужна серьезная координация. И начинать нужно с теоретической проработки взаимодействия, чтобы понять, кто кого какими данными и проверками может поддержать и подстраховать. Поодиночке каждый проиграет. У мошенников для этого теперь есть нейросети, которые моментально готовы фальсифицировать все что угодно.
Но если все три проблемы будут преодолены и объединены, то тогда цифровая киберэкономика приобретает силу и глобальное сотрудничество становится реальностью!
Децентрализованные организации смогут сравняться по численности с глобальными транснациональными корпорациями, а крипта вместо спекуляций или разовых обменных операций энтузиастов и редких трансграничных операций станет кровью киберэкономики и начнет создавать реальную прибавочную стоимость для реального, а не спекулятивного роста капитализации!
Тогда мы можем построить систему экономических взаимоотношений, основанную на достоверных знаниях и ответственных исполнителях с реальной репутацией, в которой кандидаты на руководящие должности разрабатывают стратегии развития, а их расчеты и планы проходят всестороннюю проверку на достоверность в открытой честной конкуренции с другими кандидатами, а непредвзятый и объективный алгоритм присваивает их авторам рейтинг репутации. Кандидаты, чьи планы и стратегии набрали наивысший рейтинг достоверности, получают полномочия принимать решения, а достижение поставленных целей подтверждается в децентрализованных арбитражных сервисах, что становится фактами для аргументации новых стратегий и цикл замыкается, становясь самоподдерживающимся и самоорганизующимся.
По моему глубокому убеждению, в основе репутации и доверия лежит то, что люди говорят то, что делают, и делают то же, что и говорят, поэтому ключевым элементом для работы всей этой схемы является необходимость создания независимой системы для объективной и непредвзятой проверки достоверности информациии и сравнения любых существующих мнений на взаимную непротиворечивость. Необходимо решение для фактчекинга, которое будет способно противостоять существующим технологиям фальсификации и дезинформации.
Достоверность контента — это самый главный философский вопрос. В ближайшее время искусственный интеллект будет везде. Но теорема Майкла Левина доказывает, что у него всегда будут неустранимые галлюцинации и искусственный интеллект никогда не сможет претендовать на достоверность. Можно и нужно применять искусственный интеллект в своем бизнесе, но нужно нести ответственность за принятые решения. А решения могут быть сложные и дорогостоящие. А искусственный интеллект на фундаментальном уровне не может обосновать и гарантировать достоверность своих генераций.
Экспертам известно больше 350 проектов, которые пытались определять достоверную информацию с помощью различных способов авторитарного администрирования контента, с помощью галлюцинирующих алгоритмов искусственного интеллекта или токенов для голосования, которыми можно подкупить любого пользователя, но еще с 2018 года эксперты признают, что все эти подходы предвзяты, фальсифицируемы и себя не оправдали.
Все это усугубляется тем, что весь фактчекинг в информационных технологиях сейчас основан исключительно на принципе верификации (то есть подтверждения). Но данный подход становится неприемлемым в современных условиях после достижения превосходства искусственного интеллекта над человеком и должен быть принципиально заменен на принцип фальсифицируемости. Он означает, что проверка осмысленности, а затем и истинности гипотез должна осуществляться не через поиск фактов, их подтверждающих, а преимущественно (или даже исключительно) через поиск фактов, их опровергающих. Этот подход является основополагающим в научном мире, но по какой-то непонятной причине до сегодняшнего дня нигде не был реализован в информационных технологиях.
Поэтому хочу теперь рассказать подробнее о проекте, который впервые предложил для этого алгоритм, реализующий критерий фальсифицируемости Поппера.
Манифест проекта был опубликован в марте 2024 года и с тех пор проект развивался силами волонтеров, которые нашли уникальное очень необычное сочетание математики, психологии и теории игр и разработали принципиально новую технологию на основе чисто математического алгоритма, который не требует внешнего администрирования, получения сертификатов государств и корпораций, привлечения экспертов или специальных кураторов контента.
Техническое решение — дискуссионная площадка для краудсорсинга достоверной информации с экосистемой монетизации, игровыми механиками и алгоритмом на основе теории графов, сравнивающим все существующие точки зрения.
Алгоритм позволяет заключать пари на разные версии событий с автоматическим определением победителя и вовлекает пользователей в соревнование за создание собственной репутации, что позволяет платить премию авторам достоверного контента и создает основу для развития новой научной социально-ответственной журналистики.
Алгоритм позволяет объективно и непредвзято оценивать факты и доводы с разных точек зрения. В самом простейшем виде его можно объяснить на примере двух версий детского стишка «Дом, который построил Джек», который очень похож на блокчейн. Мы все с детства знаем перевод Самуила Маршака, но на самом деле это старинное английское стихотворение, в котором не было никакой птицы-синицы. В оригинальном тексте это крыса съела пшеницу, а кот поймал эту крысу. И на рисунке видно, как факты, подтверждаемые доказательствами, приобретают вес, а опровергаемые утверждения, наоборот его теряют.
Математика системы основана на окружении и пространстве связей каждого любого информационного блока Х, который может быть связан как минимум с одним, но в общем случае со множеством других каких-то блоков Y. Данная пара является реализацией концепции субъект-предикат-объект Ноама Хомского, в соответствии с которой любой нарратив может быть представлен и проанализирован в виде их последовательности.
Алгоритм основан на корреляционном анализе графов на взаимную непротиворечивость. Это можно объяснить на таком примере. Есть разные версии события: «У попа была собака» — «Он ее любил» — «Она съела кусок мяса» — «Он ее убил». Другой автор может видеть эти события немного иначе: «У попа была собака» — «Он ее любил» — «Она съела кусок рыбы» — «Он ее убил». Очевидно, что информационные блоки «Она съела кусок мяса» и «Она съела кусок рыбы» противоречат друг другу, что понижает достоверность версий этих событий. При этом для того, чтобы определить, что информационные блоки «Она съела кусок мяса» и «Она съела кусок рыбы» противоречат друг другу, совершенно не требуется как-либо понимать, что именно в них содержится. Достаточно того, что авторы взяли на себя репутационную ответственность за их достоверность.
Знания — это совокупность утверждений и связей между ними, образующих целостно-непротиворечивые цепочки фактов и аргументов, за которые научное сообщество готово нести коллективную ответственность.
И алгоритм построен на том, что за одни факты и аргументы люди готовы нести репутационную ответственность, а за другие нет. Алгоритм выявляет эти противоречия и находит целостно-непротиворечивые цепочки научных знаний. И это не лайки/дизлайки, которые можно накрутить, и не голосования, которые можно фальсифицировать. Каждый автор публикует свою версию событий, за которую он несет репутационную ответственность, а не лайкает чью-то чужую.
Алгоритм оценивает баланс аргументов, используемых разными авторами в качестве подтверждений или опровержений различных противоречивых фактов для оценки их достоверности, с точки зрения консенсуса в больших социально-разнородных группах. Из этих фактов авторы выстраивают свои личные описания картины происходящих событий, за достоверность которых они отвечают персональной репутацией. Непредвзятый и объективный корреляционный алгоритм на основе теории графов проверяет эти описания на взаимное соответствие и непротиворечивость по принципу «всех со всеми» и находит наиболее достоверные последовательности фактов, которые описывают разные версии происходящего.
Для наглядного примера можно привести простейшую тему «Как сделать яичницу?». Например один автор публикует тривиальный рецепт «Разогреть сковороду»—«Разбить яйцо»—«Жарить 5 минут». А другой автор публикует какую-то чушь: «Взять кирпич»—«Выкинуть в окно»—«Посмотреть на звезды». Поскольку исходная репутация всех авторов одинаково равна, то в этот момент достоверность их утверждений неочевидна. Поэтому никакого рейтинга достоверности не возникает и никто из авторов прибавки к своей репутации не зарабатывает.
Однако в какой-то момент вопрос начинает развиваться и возникает тема «Как сделать вкусную яичницу?» и кто-то, кто возможно уже заработал себе рейтинг репутации в других темах, публикует свой вариант ответа: «Разогреть сковороду»—«Разбить яйцо»—«Добавить бекон»—«Жарить 5 минут». В этот момент первый, второй и последний блоки в этой логической последовательности приобретают достоверность в соответствии с репутацией авторов, считающих их важными для изложения своей аргументации.
Постепенно вопрос начинает развиваться дальше и, например, возникает тема «Как сделать вкусный завтрак?». Если кто-то для этого в качестве одной из составляющих своего мнения использует уже существующий в системе рецепт вкусной яичницы с беконом, то информационные блоки «Разогреть сковороду», «Разбить яйцо», «Жарить 5 минут» приобретают совокупную достоверность на основе репутации трех авторов, а блок «Добавить бекон» — на основе двух мнений. При этом мусорные блоки «Взять кирпич», «Выкинуть в окно», «Посмотреть на звезды» никакого рейтинга достоверности по-прежнему не имеют и пользователи их даже не видят, поскольку они оказываются под порогом фильтрации информации по достоверности.
При этом необходимо отметить, что вопрос о достоверности самих рецептов еще даже не рассматривается, поскольку несмотря на повышенную достоверность отдельных блоков, сами рецепты целиком не имеют достоверных конкурирующих мнений со стороны оппонентов, а значит, баланс фактов и аргументов до их публикации установить невозможно и никакого вклада в свою репутацию никто из авторов не зарабатывает. Для достижения этой цели должны появиться альтернативные конкурирующие мнения, самостоятельно накопившие свою достоверность в ходе аналогичного процесса публикации информации. Например, по теме «Как сделать вкусный завтрак?» помимо яичницы должны появиться альтернативные рецепты омлета или блинчиков. Каков будет баланс информационных блоков в этих версиях предсказать невозможно, поскольку он никак не связан ни с числом самих блоков, ни с количеством их авторов, а зависит исключительно от взаимной корреляции мнений разных авторов и их текущих рейтингов репутации, накопленных за все время от всех публикаций.
Данный алгоритм позволяет реализовать принцип фальсифицируемости, алгоритмически реализовать критерий Поппера и получить более точную оценку достоверности по сравнению с алгоритмом PageRank и индексом Хирша, которые анализируют каждый сайт или документ только целиком и не способны оценить противоречия между отдельными фактами, из которых они состоят.
В глобальном гиперграфе любая информация является аргументом чего-то одного и контраргументом чего-то другого. Разные версии конкурируют между собой по величине потока смысла, а наиболее достоверные версии становятся аргументами в цепи событий для фактов более высокого или более низкого уровня, что замыкает цепь взаимного влияния аргументов и контраргументов и создает глобальный гиперграф знаний, в котором наибольший поток смысла течет через устойчивые цепочки непротиворечивых научных знаний, в наибольшей степени соответствующих принципу фальсифицируемости и критерию Поппера.
Алгоритм основан на том, что научные знания непротиворечивы, а неучи, боты и тролли, наоборот, топят друг друга в потоке противоречивых утверждений. Мнение о плоской Земле имеет право на существование, но оно подтверждается только одной строкой из Библии, которая в свою очередь не подтверждается ничем, но при этом оно фундаментально противоречит всем знаниям, содержащимся в учебниках физики, химии, математики, биологии, истории и еще миллионах других.
Теория игры в системе построена на том, что в соответствии со своими этическими принципами, ученые отстаивают по каждой спорной теме исключительно только научную версию, а тролли и хакеры пытаются нанести вред и в соответствии со своей стратегией противодействия намеренно опровергают научные знания, а доказывают все остальные версии кроме научной. При этом остальная масса пользователей не имеет качественных знаний, колеблется между разными точками зрения и периодически утверждает/опровергает то одно, то другое. Поскольку у неучей и ботов нет общей коллективной системы координации для взаимной проверки и выявления достоверных знаний, подобной той, которая существует в глобальном научном сообществе и международной системе образования, то неучи, боты и тролли неизбежно вступают в конфликт друг с другом по вопросам о разных взглядах на версии происходящих событий, а в результате научные версии, которые сообща отстаиваются научным сообществом, получают стратегическое преимущество над хаотическими противоречивыми точками зрения и взаимно опровергающими друг друга фейками.
Алгоритм повышает рейтинг фактам, у которых есть подтвержденные доказательства с развитыми многочисленными непрерывными цепочками подтвержденных фактов, и при этом понижает рейтинг аргументов, которые опровергаются надежными фактами, подтвержденными своими непрерывными цепочками подтвержденных доказательств. При этом бездоказательные аргументы игнорируются, а цепочки утверждений, которые на них построены, отбрасываются.
При этом по мере роста числа публикаций у каждого автора, вероятность того, что не имея целостных непротиворечивых реальных знаний, такой автор не начнет рано или поздно противоречить сам себе и опровергать сам себя, неизбежно стремится к нулю. Но при этом каждый автор все равно вынужден делать новые публикации, чтобы не оказаться в аутсайдерах из-за роста рейтинга других более успешных авторов. В результате в процессе жесткой, но честной конкуренции, успеха добиваются те авторы, кто обладает наиболее полными и непротиворечивыми знаниями в тех вопросах, по которым они публикуют свою информацию.
Этим авторам смарт-контракт автоматически платит премию из доходов от корпоративных и частных заказов на анализ достоверной информации, что стимулирует авторов искать и публиковать новые данные. В соответствии с этой картинкой, чем больше публикаций ботов и троллей — тем даже лучше. Они экспоненциально запутываются и тонут в информационном шуме, который сами и генерируют.
Как известно, знания у ученых общие, а чушь у неучей у каждого своя. Поэтому в пользу ученых работает консенсус. А против неучей — теория вероятности, которая говорит, что чем больше неучей, тем у безграмотных авторов вероятность консенсуса меньше, а вероятность противоречий больше. Это позволяет алгоритмически реализовать критерий Поппера. Люди, которым правда безразлична, безответственно относятся к фактам. Говоря то одно, то другое, рано или поздно они начинают противоречить сами себе, поскольку смысл и знания им не важны, а цель публикаций состоит только в самовозвышении и самоутверждении. Но это ловушка. Алгоритм выявляет эти противоречия и обрушивает таким авторам рейтинг репутации и рейтинг достоверности их публикаций.
В рулетку можно играть, если есть знания о том, что выпадет — красное или черное. Но если знаний нет, то теория вероятности рано или поздно гарантирует проигрыш. Даже при наличии знаний всегда есть вероятность ошибиться. Но вероятность правильно угадать всегда значительно меньше вероятности правильного осознанного выбора на основе знаний. В результате в глобальном гиперграфе выкристаллизовывается ядро целостных непротиворечивых научных знаний, поскольку только научные знания являются непротиворечивыми. При этом фейки всегда противоречат друг другу, а реальные факты всегда являются опровержением фейков, что в итоге приводит к тому, что факты подтверждаются фактами, а фейки противоречат фейкам, да еще и опровергаются фактами. Это структурный дисбаланс, заложенный в основу алгоритма для систематического перевеса в сторону фактов.
Это реализует концепцию конструктивного альтернативизма, которая сейчас является главенствующей в гносеологии. Реальность может интерпретироваться людьми множеством разных способов на основании «конструктивных альтернатив» (то есть различных точек зрения на реальность и индивидуальных моделей реальности).
В конструктивном альтернативизме в принципе не рассматриваются абстрактно правильные или неправильные мнения, и все гипотезы, позволяющие адекватно взаимодействовать с окружающим миром, имеют право на существование. Иными словами, приемлемость гипотезы определяется не степенью соответствия модели догмату, а её эвристической ценностью.
Как показывают результаты математического моделирования алгоритма, после создания миллиона информационных блоков по различным темам, каждая из которых в среднем имеет три и более конкурирующие версии, первая (красная) версия №1, которую отстаивает научное сообщество, благодаря критерию фальсифицируемости Поппера систематически выигрывает по рейтингу достоверности у конкурирующих версий неучей, ботов и троллей.
А персональный и коллективный рейтинг репутации немногочисленных представителей научного сообщества всегда значительно превышает рейтинги неучей и толпы ботов и троллей независимо от их количества.
И по мере увеличения общего числа публикаций этот разрыв только растет.
Эти рейтинги могут быть встроены в социальные сети и любые публикации, а сам алгоритм криптографически защищен и доступен для независимой проверки. Монополизация такой блокчейн-системы принципиально невозможна, поскольку технически и статистически невозможно заставить 51% пользователей думать и делать что-либо одинаково.
Алгоритм имеет естественную самозащищенность от накруток, поскольку независимо от любого числа авторов каждый факт в децентрализованной базе данных является одним единственным информационным блоком и независимо от любого числа мнений любая пара фактов связана одной единственной связью. Поток смысла в такой логической цепи картины событий не зависит от ее длины, а необоснованное усложнение только ведет к разделению потока смысла и снижению достоверности каждой отдельной ветки, для которой приходится заново доказывать ее достоверность.
В этой динамической системе рейтинг достоверности начинает формироваться сразу после появления первых конкурирующих фактов. После этого рейтинг непредсказуемо меняется по мере появления новых аргументов. Поэтому результаты непредсказуемы и никто, даже сами создатели алгоритма не могут никак повлиять на итоговый результат. Это честная игра. Но по мере увеличения числа участников баланс все ближе и точнее стремится к научному консенсусу.
В качестве примера, иллюстрирующего расчет рейтингов, можно привести сюжет трагедии Шекспира «Отелло». Несмотря на весь накал страстей и эмоциональность шекспировского произведения, в тексте этой трагедии очень мало ключевых фактов. Однако даже для небольшого количества блоков хитросплетения отношений резко усложняются с каждым действием нового автора-участника.
Вообще, все это ничем не отличается от изменения весов в нейронной сети при загрузке очередного источника данных. Появились свидетельские показания — изменился баланс достоверности. Но в отличие от искусственного интеллекта, она независима от «неизвестных отцов» и ее база данных открыта для всех участников и непредвзята и объективна к любым источникам.
Поэтому такой алгоритм является практическим решением проблемы коллапса нейросетей, когда нейросети деградируют в процессе обучения на собственных галлюцинациях в Интернете, а их пользователи деградируют в процессе применения деградировавших нейросетей, поскольку никто из них не может проверить объективность и непредвзятость закрытого корпоративного алгоритма, обученного «неизвестными отцами» по предвзято отобранным базам данных с помощью нанятых на аутсорсе низкооплачиваемых сотрудников, проводящих разметку баз данных без реальных знаний и опыта.
Алгоритм системы позволяет сопоставить знания искусственного интеллекта с коллективным интеллектом лучших экспертов человечества, обладающих реальным опытом по любым вопросам.
Очень важное отличие алгоритма коллективного интеллекта от LLM заключается в том, что нейронка на вопрос человека может ответить “42” и вы никогда не узнаете, в чем была ее логика (которой просто нет) и что было тому причиной. Тем более что в алгоритмы больших языковых моделей намеренно встроена определенная доля случайности для имитации реалистичности. А нейросеть коллективного интеллекта покажет все мнения всех авторов во всей полноте их противоречивых фактов и аргументов, покажет факты, доказательства которых были фальсифицированы и покажет критический поток смысла, который ведет к наиболее достоверной гипотезе.
Подобно Википедии алгоритм создает статьи по любым спорным темам, которые автоматически перестраиваются в соответствии с новыми фактами и желаемыми уровнями достоверности информации, установленными читателями в своих персональных настройках в диапазоне от нуля до 100%. В результате пользователям доступны несколько статей наподобие статей в Википедии, описывающих конкурирующие версии событий, ранжированные по объективности в соответствии с желаемым уровнем достоверности, а смарт-контракт позволяет зарабатывать на ставках на разные версии событий и заказах на проверку их достоверности. Это огромный рынок событийных контрактов, который в октябре прошлого года арбитражный суд в США признал новым важным и общественно полезным видом предиктивной аналитики.
Благодаря автопереводчику вся информация является мультиязычной и полностью интернациональной, что объединяет пользователей всего мира.
Это позволяет создать принципиально новый социальный лифт для многочисленных сообществ читателей, авторов, рекламодателей и информационных агентств, зарабатывающих на поиске и публикации наиболее достоверных фактов.
А заказчиками для этих сообществ становятся все те, для кого успех в науке и бизнесе зависит от достоверной проверенной информации. При этом независимо от оценки достоверности, у такой системы есть одно очень важное неоспоримое фундаментальное преимущество — для принятия важных решений она показывает в одном месте сразу все имеющиеся гипотезы и точки зрения со всеми имеющимися по ним фактами и аргументами.
Репутация — это принципиальная вещь, которой сейчас очень не хватает всему миру и реализация такого проекта может существенно повысить степень объективности и достоверности информации в Интернете.
На мой взгляд, благодаря такой глобальной системе коллективного интеллекта мы способны обнаружить пробелы в нашем мировоззрении, которые станут дверью к новой объединяющей науке, этике и культуре.
Поэтому закончить хочу словами великого Нильса Бора: «Есть истины тривиальные и есть истины великие. Противоположность тривиальной истины — явная ложь. А противоположность великой истины также истинна».
Мы ищем партнеров для глобального развития проекта.
Давайте сделаем это вместе!
decomeron
Почему кибер, а не крипто?
TimurSadekov Автор
Потому что доверие должно быть прозрачным