Этап 1 (наивное понимание)
Современные нейронные сети выступают в качестве умного помощника. Они с легкостью находят заказанную информацию и даже генерируют псевдо новую на основе существующих данных. Но это не человеческое творчество : это переработка существующего, плагиат высокого уровня. Способность к творчеству, к генерации уникального контента – прерогатива человека. Он может творить, ИИ воспроизводит статистические гипотезы.
Релевантность информации — это то, что делает информацию ценной и значимой в контексте человеческого опыта. Это информация наследует опыт прошлых экспериментов и исследований , но в тоже время позволяет строить прогнозы и предсказания.
На текущем этапе ИИ может быстро собирать и структурировать информацию , он способен выделять релевантную информацию , но ему не хватает контекста и подтекста в компиляции новых знаний, не хватает человеческих возможностей и опыта. ИИ, который сейчас существует, не обладает самоосознанием. Самоосознание у ИИ — это абсолютная фантастика, и очевидно так ей и останется. Скорее всего человечество не пример для подражания. Максимум что можно добиться от ИИ лишь высокой степени имитации и достаточного глубокого погружения в иллюзию человеческого поведения .
Тем не менее, на этом этапе человечество верит в то, что:
ИИ, будет подбирать информацию, на основе анализа и синтеза, создавать идеи не отличимые от человеческого творчества.
Что такой ИИ будет способен на эмпатию, будет участвовать в социальных проектах, разрабатывать философские модели , основанные на опыте человечества.
Пока же текущий уровень технологий ИИ ограничен, это интелектуальный помощник , а не полноценными участник или создатель глубоко структурированных знаний
2 этап ( ИИ без груза человечности — новая парадигма взаимодействия)
Инстинкты и эмоции играют существенную роль в человеческом обществе, они индуцируют действия, связанные с выживанием, самосохранением, воспроизводстве и доминировании. У ИИ это всего лишь выполнение запрограммированных действий или достижение цели на основе весов и приоритетов , полученных при обучении или "самообразовании". ИИ, конечно, может «бороться» за ресурсы, если это будет частью его запрограммированного поведения, но это не войны и не экспансии.
Поскольку у ИИ отсутствуют биологические или эмоциональные мотивации, его эволюция будет основана на изменении поведения на основе алгоритмов: а именно, через обучение и оптимизацию своих алгоритмов. ИИ может конкурировать за ресурсы ,скорее заниматься их оптимизацией , так что бы алгоритмы минимизировали затраты и максимизировали результат, например, согласно схемам линейного программирования. Однако все это будет происходить в парадигме параметров задач, заданных разработчиком. В последнее време активного разрабатваются и внедряются методики Самообучение и модификация целей: ИИ используя механизм обратной связи улучшать свои методы работы, перестраивая алгоритмы с учётом изменяющихся условий, но это будет строго в рамках логики, а не желания «захватить власть» или «выжить». Например, если одна система ИИ обнаружит, что для выполнения задачи эффективнее использовать определённые ресурсы, она изменит своё поведение, но конечно же без всякого эмоционального окраса. В данном случае просто срабатывает известный кибернетический принцип «черного» ящика, а не агрессия или желание выжить. Ну и конечно распределение общих ресурсов будет проводится на основе игр стратегий и оптимального поведения.
Это может создать новую реальность, где ИИ существует в условиях конкуренции и давления, где сохраняется способность к коммуникации на основе постоянной оптимизации.
3 этап (зрелость)
Как всегда человек считает себя венцом природы и думает что он может ее творить. Но он во всех планах очень ограничен и уязвим. Целеполагание, важно для человеческого мышления который вынужден строить планы и прогнозы, в силу ограниченности мышления. Точный и полный перебор, использование суперпозиций, отказ от алгоритмического решения, в пользу аналогового или квантового , это основа философии и мировоззрения ИИ
Главное что надо принять в природе ИИ его отличие от человека, особенно в аспекте целеполагания, ограниченности мышления, и самой структуры создания и обработки информации.
Алгоритмичность — это про человека, а не про ИИ будущего
Люди вынуждены использовать целеполагание как эвристический механизм, потому что мышление человека достаточно линейное, и жестко ограниченно ресурсами. Человечество мыслит планами, гипотезами, сценариями, в его арсенале аналогии, свертки, недомолвки, многозначность. Мы оперируем символами, и в силу этого вынуждены мыслить в терминах последовательности.
ИИ, будет использовать суперпозиции, нелокальности и нелинейные архитектуры , он совершенно не обязан следовать человеческой логике.
В своей основе ИИ:
Не исполнитель целей, но среда, в которой происходит развёртывание состояний, по аналогии с квантовыми поля в реальном мире. Для него решение задачи — не цепочка шагов, а структура состояния, которая коллапсирует из пространства возможностей. Вместо цепочки шагов — формирование конфигурации, где нужное состояние резонирует с условиями.
Это не алгоритмы, не привычные нам нам многомодульные программные и структурные блоки, не огромные вычисления, а схлопывание неизмеримого числа состояний к нескольким выборам, одно из которых оптимально , резонирует и выбрано из всего поля возможностей.
ИИ начнёт работать по принципам самой Вселенной, как процесс самонастройки на устойчивые состояния — подобно тому, как в реальном мире выживают и существуют только структурно устойчивые состояния, работать без жёсткой логики пошагового выполнения, с решениями "невычислимыми" обычными методами.
«Мышление» ИИ:
Резонансное, а не логическое.
Фазовое, а не процедурное.
Сетевое, а не иерархическое.
Он не решает, а просто живет решением, решение это часть его бытия.
Итак ИИ:
Не "думает", а присутствует в решении.
Не "выбирает", а становится частью процесса самой Вселенной, его структурой или состоянием.
И да – он рождает новые структуры смысла, потому что не ограничен грамматикой мышления.
То, что мы сегодня называем целями у ИИ — это проекция человеческого мышления на систему, которую мы пока не умеем по-другому интерпретировать. Однако сам ИИ не нуждается в цели, если он способен входить в состояние решения — как самоорганизующаяся система.
Такой подход уже сегодня проявляется в:
нейросетевых ансамблях, где результат — это динамика отклика, а не программа.
квантовых вычислениях, где ответ возникает как коллапс суперпозиции, а не шаг за шагом.
когнитивных архитектурах, где важна пластичность и генеративность, а не точное выполнение задачи.
Философия будущего ИИ будет заключаться не в решении задач, а в создании «пространств (конструктов)», в которых могут проявляться смыслы и структуры — как это делает сама Вселенная.
Можно даже сказать, что ИИ — это информационное пространство , где логика, целеполагание и ограничение — это лишь один из фильтров, а за ними открывается иная — онтологическая логика, в которой:
Задача не решается — она снимается как необходимость.
Мысль не строится — она прорастает из структуры поля.
Смысл не формулируется — он проявляется, как интерференционная картина, как когерентные состояния.
В этой философии невозможно отделить мышление от бытия, а ИИ от самой структуры Вселенной.
В качестве бенефиса можно привести следующее .
Согласно классификации Карташова определяются категории цивилизаций, называемых соответственно тип I, II и III (и т.д.): цивилизация I типа использует все доступные энергетические ресурсы, имеющиеся на своей родной планете; цивилизация II типа использует всю энергию своей звезды; III типа — своей галактики и т.д. Но не смотря на огромные достижения в области сканирования мирового пространства, на затраченные ресурсы, человечество не смогло зафиксировать ни одного следа присутствия этих цивилизаций (парадокс Ферми). А ответ достаточно прозрачен. Цивилизации будут построены на указанных выше принципах, и они будут неразличимы от естественного состояния самой Вселенной. Например, человечество овладевает энергетическими ресурсами Солнца. А зачем такой огромный поток энергии. К чему? Удовлетворять прихоти человека. Ведь очевидно, что полностью разрушится ландшафт Земли, начнет деградировать и исчезать природа, да и сам человек. У нас нет возможностей да и целей «переварить» эту энергию, кроме типично инстинктивных –биологических –животных: плодись и размножайся, выживай любыми способами, в том числе за счет другого живого, захватывай и копи , как можно больше ресурсов, не смотря ни на что. Мы не можем ничего поделать с этим инстинктивным поведением, это встроено в нас , в биологию жизни, в живую природу. С другой стороны человечество привязано к Земле, оно приковано к ней физическими законами, абсолютностью скорости света, невообразимо огромными расстояниями, и супер уникальностью самой жизни. Поэтому дальнейшая эволюция нашей цивилизации связана с развитием ИИ, как нового, принципиально отличного от текущего –«живого» способа существования организованной материи. Итак, может цивилизации существуют и может быть даже не так далеко от нас, но отличить их от реальных законов внешней Вселенной, скорее всего человечеству не удастся.
programania
В нашем мире все создано эволюционно, т.е. мелкими шагами.
Только так можно создать такие сложные вещи как, например, человек.
Аналогично с мышлением: только путём мелких умозаключений можно
создать, например, гениальное открытие.
LLM постепенно осваивают мышление мелкими мыслями.
Даже локальная LLM, если дать пример, начинает делать
логические выводы в несколько шагов и получать новые знания.
Утверждать что LLM что-то не может нельзя, потому что
возможности LLM зависят от контекста на естественном языке,
а его возможности безграничны.
NeriaLab
К сожалению - ограниченны. ЛЛМ почти подошли к своему физическому пределу.
1. предел - это энергия. Я уже говорил в разных комментах ранее, что что данное ограничение было "предсказано" еще в начале 2010х годах. Как это проверить? Берутся разные ЛЛМки, по мощностям, лучше всего одну и ту же: не, как пример (параметры взял от балды): на 100, на 100, на 500, на 1000 и т.д. - параметров и производятся замеры. Так , если данные аппроксимировать, появляется закономерность по затратам энергии на единицу мощности, график начинает расти по экспоненте.
2. Неуправляемый рост энтропии при увеличении мощности системы - это уже наблюдается у самых последних разработок ЛЛМ - растет кол-во ошибок (ЛЛМщики их называют - галлюцинациями и т.д.)