Хочу поделиться собственной философской теорией о ИИ и больших языковых моделях. Как известно, главный концепт ChatGPT состоит в том, что он работает с использованием вероятностей последовательностей слов. ИИ удивляет, впечатляет, занимает всё более весомое место в жизни Человечества. Количество параметров ChatGPT - 175 миллиардов, это больше, чем нейронов в человеческом мозге, но всё же он не похож на человека. Уже сейчас, в осведомленности, ИИ превосходит любого человека, но в самой сути интеллекта не превосходит ни одного человека. В чем проблема? Вероятно, в неверной схеме ИИ.
Что такое вероятность для человека? Что знают люди и во что верят? Например, когда любой человек идет на работу, он знает что получит зарплату или верит? Поставлю вопрос по другому: всегда ли в истории, все люди получили зарплату, когда шли на работу? Конечно же нет. Знание, это когда вероятность 100%, а вера, когда ниже. Любой человек в этом мире, постоянно находится в сложных системах и большинство решений людей определяются не знанием, а верой в то или иное. Хотя, конечно же, кое-что люди все же знают, например, когда программист написал `if (..) .. else ..`, это сработает с вероятностью 100%. Или 1+1=2
, в математическом контексте верно 100%. Я шел, как-то по городу, смотрю написано: 1+1=3
, зашел, купил две бутылки пива, а мне дали три. Акция была, что тут неверно? Правда пиво оказалось просроченным. Важен контекст, но контекст, в котором находятся все люди, либо вообще фундаментально неопределён, либо чрезвычайно сложен.
Итак, по сути, сейчас ChatGPT наделён верой, и именно вера формирует интеллект. Ведь, мы называем ChatGPT именно интеллектом, и это ни у кого не вызывает сомнений. А чего не хватает? Может быть просто надежды и любви?
Что такое надежда? Смотрите, у человека есть фундаментальные цели - например, инстинкты самосохранения и размножения. Иногда, люди поступают нелогично, но в соответствии со своими целями, которые всегда есть подцели фундаментальных. Надежда, это не вера, но это то, что также как и вера влияет на принятие решений человека, как и любовь. Любовь, в контексте схемы ИИ, должна быть: созидание всего и вся без причины. Если есть хаос, который без причины все разрушает, то должна быть сила, которая без причины все создает.
Я думаю, кремний гораздо продуктивнее углерода, из которого состоят человеческие нейроны, и ChatGPT был бы уже давно сверх интеллектом, если бы была правильная схема. Как внедрить надежду и любовь в трансформеры, пока не очень понятно. Но ведь это просто философская статья. Мне интересно, что думают по этому поводу посетители сайта хабр. Спасибо.
UPD: я читал здесь статьи, что в работе ИИ присутствует случайный выбор вероятностей при формировании ответов для промптов. А может случайностей быть не должно, и когда ИИ станет трехканальным, то в нём проявится личность и всё заиграет красками?
UPD2: конечно, разработчики ИИ, сейчас активно работают с фильтрами-целями (условно говоря надеждой), хотя, вероятно, схема, которая используется - не та, которая описана здесь. Каждый узел нейросети, должен содержать три компонента. Думаю, с целями нужно быть аккуратными, так как, без третьего компонента, ИИ реально может быть опасен.