Леопольд Ашенбреннер, бывший сотрудник OpenAI из команды Superalignment, опубликовал документ под названием «Осведомленность о ситуации: Предстоящее десятилетие», в котором он делится своим видением будущего ИИ. Основываясь на своих знаниях в этой области, Ашенбреннер предсказывает стремительное развитие искусственного интеллекта в ближайшее десятилетие.

Мы прочитали этот документ объемом в 165 страниц за вас. В этой статье расскажем о ключевых идеях Ашенбреннера и о его прогнозах на будущее искусственного интеллекта.

В статье будут использоваться следующие термины:

  • AGI (Artificial General Intelligence) — Общий Искусственный Интеллект, ИИ с разумом человеческого уровня

  • Сверхинтеллект — ИИ, ставший в разы умнее людей

  • Алгоритмический прогресс — улучшение алгоритмов машинного обучения

  • OOM (order of magnitude, порядок величины) — десятикратное увеличение, 10x

  • Капитальные затраты (CapEx) — расходы компании на приобретение или модернизацию оборудования

Вступление

По словам Ашенбреннера, американский бизнес готовится вложить триллионы долларов в развитие вычислительных мощностей, необходимых для создания машин, способных думать и рассуждать. К 2025-2026 годам эти машины, как ожидается, превзойдут по интеллекту выпускников колледжей, а к концу десятилетия станут умнее, чем любой человек. Ашенбреннер предупреждает, что этот прогресс может привести к гонке в области ИИ между США и Китаем, а в худшем случае — к полномасштабной войне.

Для начала давайте разберемся, кто такой Леопольд Ашенбреннер и чем занималась его команда.

Ашенбреннер был уволен из OpenAI ранее в этом году. По его словам, причиной увольнения стало то, что он поднимал вопросы о недостаточных мерах безопасности в компании и делился документами, которые, по мнению руководства OpenAI, содержали конфиденциальную информацию. Ашенбреннер отрицает, что в документе была конфиденциальная информация, и утверждает, что в нем лишь упоминалось о планах компании по созданию AGI (общего искусственного интеллекта) к 2027-2028 годам.

Перед увольнением Ашенбреннера юрист OpenAI расспрашивал его о взглядах на прогресс ИИ, AGI, уровень безопасности, роль правительства в регулировании AGI и его лояльность к компании. Ашенбреннер был одним из немногих сотрудников, кто не подписал письмо с призывом вернуть Сэма Альтмана на пост CEO после того, как совет директоров его уволил.

Команда Superalignment, ранее возглавляемая Ильей Суцкевером и Яном Лейке (они тоже ушли из OpenAI), занималась контролем развития AI. Их главная цель заключалась в удержании искусственного интеллекта в определенных рамках, чтобы он:

  • Соответствовал целям его создателей

  • Не действовал непредсказуемо

  • Не наносил вред человечеству

I. От GPT-4 к AGI: Подсчет OOM (Orders of Magnitude)

В первой главе Леопольд Ашенбреннер утверждает, что AGI (Artificial general intelligence) появится уже в 2027 году. Это будет разум, по своим возможностям сопоставимый с человеческим. Ашенбреннер приходит к этому выводу, анализируя темпы прогресса в области deep learning за последние годы:

  • С 2019 по 2023 год, от GPT-2 до GPT-4, был пройден путь от моделей с интеллектом дошкольника до моделей, сравнимых с одаренным старшеклассником. Этот гигантский скачок произошел всего за 4 года.

По мере того, как мы масштабируем модели, они постоянно становятся умнее, и, подсчитав OOM, мы получаем примерное представление о том, какой интеллект моделей нам следует ожидать в (ближайшем) будущем.
По мере того, как мы масштабируем модели, они постоянно становятся умнее, и, подсчитав OOM, мы получаем примерное представление о том, какой интеллект моделей нам следует ожидать в (ближайшем) будущем.
  • Этот прогресс обусловлен ростом вычислительных мощностей (примерно на 0.5 порядка величины в год), алгоритмическими улучшениями (еще +0.5 порядка в год) и «расковыванием» моделей — переходом от простых чатботов к более гибким агентам.

    Многие люди предполагают, что рост вычислительных мощностей связан с законом Мура. (Закон Мура — это наблюдение Гордона Мура, предложенное им в 1965 году. Он предсказал, что количество транзисторов на кремниевом чипе будет удваиваться каждые два года). Но, вместо предполагаемых 1-1.5 ООМ за десятилетие, мы наблюдаем гораздо более быстрое масштабирование вычислений (почти в 5 раз быстрее, чем по закону Мура) благодаря гигантским инвестициям. Раньше, трата даже одного миллиона долларов на одну модель было возмутительной мыслью, которую никто не допускал.

    Как менялись вычисления с течением времени
    Как менялись вычисления с течением времени
  • Если эти тенденции сохранятся, то в следующие 4 года, к 2027, мы должны ожидать еще одного скачка, сопоставимого с прогрессом от GPT-2 до GPT-4. Это, вероятно, приведет нас к AGI-системам, способным выполнять работу на уровне ученых, исследователей и ИИ-инженеров.

  • Ключевую роль будут играть алгоритмические прорывы и «расковывание» моделей, а не только масштабирование вычислений. В ближайшие годы модели превратятся из чатботов в гибких «агентов», сравнимых с сотрудниками-людьми.

ИИ-системы быстро достигают человеческого уровня или превосходят его в определенных областях.
ИИ-системы быстро достигают человеческого уровня или превосходят его в определенных областях.

Несмотря на то, что обычно все внимание уделяется инвестициям в технологии, алгоритмический прогресс является не менее важным драйвером прогресса.

Леопольд Ашенбреннер признает большую неопределенность в прогнозах, но считает, что AGI к 2027 году — наиболее вероятный сценарий, если экстраполировать текущие тенденции. Он предупреждает, что к этой возможности нужно отнестись предельно серьезно. Достижение уровня AGI станет лишь первым шагом на пути к интеллекту, превосходящему человеческий.

Существует проблема под названием «Стена данных». Суть проблемы заключается в том, что данные в интернете не бесконечны (сейчас ИИ-модели обучаются именно на них). Если рассматривать область программирования, то все публичные репозитории на Github оцениваются примерно в 1 миллион токенов. Вероятно, подход к обучению моделей вскоре придется менять.

Различные лаборатории уже сейчас вкладывают ресурсы на поиск новых подходов и способов решить эту проблему. Исследователи пробуют множество стратегий, начиная от синтетических данных и заканчивая RL-подходами. Конечно, любые результаты исследований, которые касаются «стены данных», являются собственностью компаний и в настоящее время не публикуются.

Итоговый подсчет ООМ
Итоговый подсчет ООМ

II. От AGI к Суперинтеллекту: Интеллектуальный взрыв

После достижения ИИ человеческого уровня (AGI), прогресс не остановится. Сотни миллионов AGI смогут автоматизировать ИИ-исследования, сжав десятилетие алгоритмического прогресса (5+ порядков величины) в 1 год. Мы быстро перейдем от человеческого уровня к ИИ-системам, намного превосходящим человека. Сила и опасность сверхинтеллекта будут огромны.

Ашенбреннер приводит аналогию атомными и водородными бомбами. Если атомная бомба является просто эффективным оружием, то водородная бомба — это устройство, способное уничтожать целые страны. Так же будет с AGI и сверхинтеллектом. Сверхинтеллект, вероятно, будет способен обеспечить военное преимущество определенным странам. Из-за этого все человечество столкнется с одним из самых напряженных и нестабильных периодов за всю нашу историю.

Как автоматизированные AI-исследования изменят технический прогресс
Как автоматизированные AI-исследования изменят технический прогресс

Благодаря автоматизации ИИ-исследований, ИИ-системы вскоре смогут работать намного быстрее, чем люди:

  • Gemini 1.5 Flash работает примерно в 10 раз быстрее GPT-4, обеспечивая производительность, аналогичную GPT-4. Это алгоритмическое ускорение, которого удалось достичь всего за год паре сотен исследователей. Что будет, когда исследованиями и обучением моделей будут заниматься не люди, а ИИ-ученые? Как быстро они смогут достичь подобного?

  • Например, у нас есть 100 миллионов ИИ-исследователей, каждый из которых работает в 100 раз быстрее человека. Каждый из них сможет выполнить годовой объем работы за несколько дней. Не представляйте здесь просто 100 миллионов младших стажеров-программистов (мы получим уже в ближайшие пару лет). ИИ-исследователи будут очень умными, смогут прочитать каждую когда-либо написанную статью по машинному обучению, глубоко обдумать каждый предыдущий эксперимент, проведенный в лаборатории, учиться и накапливать опыт. Они смогут развить гораздо более глубокую интуицию в области машинного обучения, чем любой человек.

  • Они смогут легко написать миллионы строк сложного кода, держать весь код в контексте и тратить человеко-десятилетия (или больше) на проверку и перепроверку каждой строки кода на наличие ошибок и оптимизаций. Они будут превосходно компетентны во всех частях работы.

Ашенбреннер считает, что человечек на картинке - это мы сейчас.
Ашенбреннер считает, что человечек на картинке - это мы сейчас.

Идея появления сверхинтеллекта часто перекликается с давними дебатами о возможности создания ядерной цепной реакции и атомной бомбы.

Г. Уэллс предсказал появление атомной бомбы в романе 1914 года. Когда Лео Силард, американский ученый и физик, впервые задумался об идее цепной реакции в 1933 году, он не мог никого в ней убедить. Цепная реакция была всего лишь теорией.

Когда в 1938 году было открыто деление ядра, Силард снова запаниковал и стал настаивать на секретности, ведь некоторые ученые начали осознавать, что приближается момент создания атомной бомбы.

Даже Эйнштейн, который изначально не считал цепную реакцию рабочей теорией, быстро понял последствия такого открытия и был готов сделать все, чтобы эти последствия предотвратить. Но Ферми, Бор и большинство остальных учёных считали, что не стоит серьезно относиться к возможности создания бомбы. Секретность этих исследований казалась им бессмысленной и абсурдной. Идея о цепной реакции звучала слишком безумно (даже когда до создания бомбы оставалось всего 5 лет).

Ашенбреннер утверждает, что мы вскоре снова столкнемся с «цепной реакцией», даже если сейчас все это кажется спекулятивным. Ведь среди ведущих учёных в лабораториях искусственного интеллекта многие считают «интеллектуальный взрыв» неизбежным.

Они могут это предвидеть. Сверхинтеллект — возможен.

Как быстро человечество переходило от этапа к этапу
Как быстро человечество переходило от этапа к этапу

Ашенбреннер предполагает, что уже совсем скоро мы столкнемся с одним из самых напряженных и нестабильных моментов в истории человечества. Неудача может легко стать катастрофой. Он рассуждает о том, что «интеллектуальный взрыв» и временной период после появления сверхинтеллекта будет одним из самых нестабильных, напряженных и опасных периодов в истории.

Как повлияет появление сверхразума на человечество
Как повлияет появление сверхразума на человечество

IIIa. Гонка за кластером стоимостью в триллион долларов

По мере роста доходов от ИИ, до конца десятилетия триллионы долларов будут вложены в создание GPU, дата-центров и электростанций. Чем активнее будет развиваться AI, тем быстрее произойдет промышленная мобилизация, в том числе увеличение производства электроэнергии на десятки, а может и на сотни процентов.

Компания Nvidia уже потрясла мир, ведь продажи центров обработки данных резко выросли с 14 миллиардов долларов в год до 90 миллиардов. Но, по словам Ашенбреннера, это только начало.

Прибыль NVIDIA от продажи датацентров
Прибыль NVIDIA от продажи датацентров

Человечество движется к созданию индивидуальных кластеров для обучения моделей стоимостью в сотни миллиардов долларов к 2028 году. Они будут требовать мощности, эквивалентной той, что требует небольшой штат США. А уже к концу десятилетия мы придем к кластерам стоимостью более чем в $1 трлн, требующим мощности более 20% от производства электроэнергии в США. Триллионы долларов пойдут на производство сотен миллионов GPU в год.

Сравнение тенденции общего производства электроэнергии в США с приблизительными оценками спроса на электроэнергию ИИ.
Сравнение тенденции общего производства электроэнергии в США с приблизительными оценками спроса на электроэнергию ИИ.

Почему Ашенбреннер делает такие выводы? Вот несколько фактов:

Цукерберг купил 350 тысяч H100. Amazon приобрел дата-центр мощностью в 1 ГВт рядом с атомной электростанцией. Ходят слухи, что в Кувейте строится кластер мощностью 1 ГВт, эквивалентный 1,4 млн H100. А Microsoft и OpenAI работают над кластером стоимостью 100 миллиардов долларов (цифра, сопоставимая с стоимостью Международной космической станции).

Но главный вопрос пока что остается без ответа — где взять 10ГВт энергии? (по грубым расчетам, именно столько энергии понадобится для кластера в 2028 году). Уже в 2030 году нужна будет мощность в 100 ГВт. Это мощность эквивалента 20% производства электроэнергии в США. Это будет уже не просто склад GPU, а сотни мощных электростанций.

Как масштабируются крупнейшие кластеры
Как масштабируются крупнейшие кластеры

Производство чипов тоже потребует кратного роста, но все же вопрос с энергией будет стоять более остро. Также остается вопрос локации. Будут ли кластеры построены в США или в странах Ближнего Востока? Национальная безопасность требует, чтобы они строились в Америке, даже если с точки зрения географии это будет менее выгодно.

IIIb. Заблокированные лаборатории: безопасность для AGI

Ведущие национальные лаборатории, которые занимаются разработкой искусственного интеллекта, считают безопасность второстепенной задачей. В настоящее время они, по сути, преподносят ключевые секреты, ведущие к созданию AGI, на блюдечке с голубой каемочкой.

При текущем курсе развития событий, ведущие китайские AGI-лаборатории будут находиться не в Пекине или Шанхае, а в Сан-Франциско и Лондоне. Через несколько лет станет ясно, что секреты разработки AGI являются самыми важными секретами национальной обороны и заслуживают такого же отношения, как чертежи бомбардировщиков и подводной лодки класса Columbia, не говоря уже о пресловутых «ядерных секретах».

Рекламный щит на заводе по обогащению урана в Ок-Ридже, штат Теннесси, 1943 год.
Рекламный щит на заводе по обогащению урана в Ок-Ридже, штат Теннесси, 1943 год.

Поскольку гонка AGI ускоряется, все большему числу людей становится ясно, что суперинтеллект будет иметь решающее значение в международной конкуренции. В настоящее время ИИ-лаборатории едва способны защищаться от скрипт-кидди.

Алгоритмы AGI разрабатываются прямо сейчас, но охраняются на уровне стартапа. Последствие утечки этих алгоритмов одно: преимущество США в гонке AGI будет безвозвратно утеряно.

Что требуется для должной защиты AGI:

  • Полностью изолированные дата-центры с системой безопасности как на военных базах

  • Новые достижения в области конфиденциальности вычислений и шифрования

  • Работа всех исследователей в защищенных помещениях

  • Строгая проверка персонала и мониторинг

  • Жесткий контроль внешних зависимостей

  • Постоянный интенсивный пентестинг со стороны спецслужб

Текущая готовность лабораторий ИИ:

  • Лаборатории не готовы к защите от полномасштабного промышленного шпионажа

  • Нет времени на подготовку, учитывая вероятные сроки создания AGI (несколько лет)

Необходимые шаги, которые следует предпринять:

  • Немедленное и радикальное усиление безопасности лабораторий ИИ

  • Строительство вычислительных кластеров AGI в США

  • Готовность лабораторий ИИ сотрудничать с военными

IIIc. Superalignment

Главная проблема при создании и разработке AGI — это проблема суперсогласованности (superalignment). Как мы можем контролировать ИИ-системы, которые превосходят человека интеллектуально? Текущие методы согласованности, такие как RLHF (обучение моделей зависит от человеческой обратной связи), не будут работать для сверхчеловеческих систем.

Согласование систем искусственного интеллекта методом RLHF не приведет к сверхинтеллекту
Согласование систем искусственного интеллекта методом RLHF не приведет к сверхинтеллекту

А взрывной рост интеллекта (intelligence explosion), описанный во второй главе, делает проблему суперсогласованности чрезвычайно острой.

  • Возможно, переход от систем, где RLHF работает, к системам, где он полностью сломается, произойдет слишком быстро. Человечество к этому не готово.

  • Мы быстро перейдём от систем, в которых сбои и ошибки не имеют последствий (ChatGPT сказал плохое слово, ну и что), к чрезвычайно высоким ставкам (упс, сверхинтеллект самостоятельно вылез из нашего кластера, теперь он взламывает военные базы).

  • Получившийся в итоге суперинтеллект будет слишком разумным, вследствие чего потенциально чуждым.

  • Все это будет происходить в невероятно нестабильный и напряженный период.

Интеллектуальный взрыв делает суперсогласование невероятно пугающим
Интеллектуальный взрыв делает суперсогласование невероятно пугающим

Управление таким резким ростом интеллекта потребует экстраординарной компетентности. Ошибки на этом пути неизбежны, поэтому многослойные меры защиты критически важны. В целом, Ашенбреннер настроен оптимистично. Он уверен, что человечество способно решить проблему суперсогласованности. Однако, он обеспокоен рисками, которые могут возникнуть. Ключевым из них будет ответственное управление ситуацией, а для этого потребуется серьезное отношение к проблеме.

Простая аналогия: вместо человека, контролирующего сверхчеловеческую модель, мы можем просить маленькую модель контролировать большую модель.
Простая аналогия: вместо человека, контролирующего сверхчеловеческую модель, мы можем просить маленькую модель контролировать большую модель.

IIId. Свободный мир должен восторжествовать

Сверхразум даст военное преимущество, сравнимое с ядерным оружием. Страны, обладающие им, будут доминировать над теми, у кого его нет. Даже преимущество в несколько месяцев может быть решающим. Авторитарные режимы могут использовать сверхразум для мирового господства и тотального контроля внутри страны. История показывает опасность диктатур. Ашенбреннер говорит о том, что свободный мир должен победить авторитарные державы в этой гонке.

Наращивание мощности искусственного интеллекта к 2030 году кажется гораздо более осуществимым для Китая, чем для США
Наращивание мощности искусственного интеллекта к 2030 году кажется гораздо более осуществимым для Китая, чем для США

Здоровая конкуренция в AGI-гонке будет иметь решающее значение для безопасности не только отдельных стран, но и всего мира в целом. Это позволит обеспечить относительную стабильность, которая будет необходима для решения проблем безопасности в крайне нестабильный период появления сверхразума.

США и все остальные страны должны начать относиться к ИИ как к вопросу национальной безопасности. Чтобы избежать проблем в будущем, необходимо уже сейчас обезопасить лаборатории ИИ, строить вычислительные кластеры внутри страны и сотрудничать с разведывательным сообществом и военными.

IV. Проект и V. Прощальные мысли

Мы решили объединить завершающие главы документа в одну, так как они обе содержат в себе одну общую мысль. В этих главах Ашенбреннер рассматривает возможные сценарии, связанные с развитием искусственного интеллекта (ИИ) и достижением им сверхчеловеческого уровня — суперинтеллекта.

Он выделяет возможные препятствия для «интеллектуального взрыва»:

  • Ограниченные вычислительные мощности и их недостаток для проведения экспериментов

  • Фундаментальные ограничения, связанные с алгоритмическим прогрессом

  • Идеи становятся всё сложнее, поэтому вероятно ИИ-исследователи лишь поддержат текущий темп прогресса, а не увеличат его в разы. Однако Ашенбреннер считает, что эти препятствия могут замедлить, но не остановить рост интеллекта ИИ систем.

Ашенбреннер призывает серьезно отнестись к перспективе появления суперинтеллекта в ближайшие годы и десятилетия. Хоть это и даст человечеству огромные возможности, ошибки и просчеты могут иметь катастрофические последствия. Во всем тексте прослеживается важная мысль — необходимо обеспечить надежный контроль ИИ на каждом этапе.

Если вы хотите прочесть документ самостоятельно, его можно почитать здесь.

Также с Леопольдом Ашенбреннером вышел подкаст, который можно глянуть тут.

Комментарии (185)


  1. sergehog
    05.06.2024 10:36
    +36

    Лет 5 тому назад все (самые умные) предсказывали что self-driving машины вот уже совсем скоро будут, и все таксисты помрут. До этого виртуальная реальность должна была заменить обычную, а до этого каждый второй хотел купить 3D телевизор, поскольку все фильмы теперь только в 3D будут.. А бум дот-комов кто помнит? А сколько было хайпов которых мы даже не запомнили или не заметили? Прогресс какой-то будет, это несомненно. Модельки/ЛЛМки улучшаться будут. Но никакой экспонентой уже и не пахнет, тут уже даже не логарифм, а сигмойд какой-то. Угрохают в 10 раз больше компьюта, а выхлоп выростет на пару процентов.


    1. ksbes
      05.06.2024 10:36
      +13

      Тут ведь ещё какой вопрос?

      Например, проектирование самолёта (не с нуля, естественно) занимает чуть ли не раза в два меньше времени, чем его испытания и сертификация.
      Т.е. если даже сверхумный ИИ сможет проектировать самолёты то:

      • не факт что по деньгам это обойдётся дешевле (гигаватт-часы - это сотни миллионов и миллиарды долларов)

      • всё равно надо будет испытывать и сертифицировать как и самолёт разработанный людьми

      Т.е. процесс имплементации задумок ИИ никто не отменял. И далеко не факт, что недоразвитое человечество вообще сможет сделать то что богоподобный ИИ нафантазировал. От сотен гигаватт вкаченных в датацентр космические корабли просторы не забороздят.

      Т.е. нам не нужен AGI любой ценой. Нам нужен ИИ который даст приемлемый результат за адекватную цену.
      Собственно почему у нас практически нигде нет 100% роботризации на заводах? Хотя об этом уже лет 50 как говорят и стремятся? Правильно! Потому что во многих случаях человек сделает всё тоже самое дешевле и, нередко, быстрее.


      1. darthmaul
        05.06.2024 10:36
        +4

        Учитвая разницу между ресурсами, нужными на обучение нейросети и на инференс, можно смело предположить что ни одна страна мира банально не сможет себе позволить обучение ИИ, эксплуатация которого будет стоить миллионы. По поводу имплементации - сложность в сертификации самолёта как раз в бюрократии, а не в самих испытаниях. Никто годами круги не наматывает ведь. И тут даже туповатый, но надёжный (т.е., не галлюцинирующий) ИИ ускорит процесс на порядки.

        И далеко не факт, что недоразвитое человечество вообще сможет сделать то что богоподобный ИИ нафантазировал

        Ну если он прям такой уж богоподобный, то дадим ему сотню "атласов" и пусть сам строит, в чём проблема?

        Так то ясно, что полная замена рабсилы на машинную невозможна и бессмысленна, но ускорить многие процессы можно на порядки.


        1. AlexeySetevoi
          05.06.2024 10:36
          +7

          C надежным ИИ в целом проблема. Текущая работа вся построена на генерировании наиболее вероятного токена следующего, а не на верификации какой-то. Как обучили - так и генерирует. Верификация вся на человеке, отказ от ответственности, вот это все вот.

          ну и в целом по тексту документа автор скорее просто "мечтает". Ничего нового, люди в начале промышленной революции тоже мечтали о великих вызовах и преобразованиях. Такова природа людей на гребне волны.


          1. darthmaul
            05.06.2024 10:36

            Уже более, чем очевидно, что LLM никогда не станет сильным ИскИном. Оно же решения принимать в принуипе неспособно. ИМХО, будущее за моделями "ситуация - действие" вроде "Q learning". Говорилки - максимум одна из подсистем ИИ будущего, но никак не основа.


          1. Wesha
            05.06.2024 10:36
            +7

            Причём, обратите внимание, обучено оно на материалах, полученных из интернета. Медленно и печально: ин-тер-нета. Ну да, ну да, сто миллионов обезьян за печатными машинками, ну вы понели. А люди от обученного на этих материалах ИИ ожидают прорыва в науке...


            1. DaneSoul
              05.06.2024 10:36
              +2

              Ну да, ну да, сто миллионов обезьян за печатными машинками, ну вы понели. А люди от обученного на этих материалах ИИ ожидают прорыва в науке...

              Ну так текущие версии не для науки разрабатывались, потому и учили их другому. Что мешает в дальнейшем более развитые версии ИИ обучить на всей базе учебной и научной информации существующей в мире?


              1. Wesha
                05.06.2024 10:36

                Что мешает в дальнейшем более развитые версии ИИ обучить на всей базе учебной и научной информации существующей в мире?

                Ну вот как обучат — тогда и поговорим.


              1. NeoPhix
                05.06.2024 10:36
                +3

                У меня для вас плохие новости: по качеству научный и учебный материал далёк от идеала. А уж сколько там банально ошибочных и подтасованных результатов даже в технических журналах...


                1. DaneSoul
                  05.06.2024 10:36
                  +1

                  Идеал - это вообще недостижимая абстракция. Какие бы проблемы не были с существующими учебными и научными материалами, тем не менее люди их вполне успешно используют для обучения и научной деятельности - результат мы видим по развитию научно-технического прогресса. Соответственно есть надежда, что и высококачественный ИИ сможет такие материалы адекватно переварить для своего развития.


        1. Kanut
          05.06.2024 10:36

          Учитвая разницу между ресурсами, нужными на обучение нейросети и на инференс, можно смело предположить что ни одна страна мира банально не сможет себе позволить обучение ИИ, эксплуатация которого будет стоить миллионы

          Зависит от эксплуатации и того сколько эта эксплуатация позволит сэкономить или наоборот заработать.

          Ну то есть если брать какой-нибудь бюрократический аппарат, то в куче стран там можно миллиарды экономить если грамотно к делу подойти. Или там в здравоохранении, в общественном транспорте или ещё куче других вещей.


          1. darthmaul
            05.06.2024 10:36
            +1

            Верно, я про то, что мы в принципе не можем создать нейросеть, для инференса которой нужны какие-то невероятные мощности и она использовала бы их эффективно т.к. на её обучение нужно на много порядков больше вычислительных ресурсов. Так что если придумают сильного ИИ - его станут пихать везде.


          1. AlexeySetevoi
            05.06.2024 10:36
            +2

            Если смотреть на это с точки зрения автоматизации — можно просто дорабатывать CRM и процессы бюрократии. Это гораздо более предсказуемо в управлении, отдаче и результате. Да и процессы все равно надо будет кому‑то прорабатывать. И поддержка ДЦ для обычного кода будет, почти наверняка, стоить дешевле всех этих центров обработки данных для ИИ.

            Ну и деньги в таких процессах обычно не цель, они средство обеспечения функционала. Бюрократический аппарат — это люди, если их заменить, какую‑то часть (а может и не часть) сьэкономленных денег вы все равно отдадите им под видом базового дохода/пособия или получите безработицу и социальные проблемы. А учитывая, что эти люди голосуют, вы врядли захотите делать безработными своих избирателей. Только в рамках каких‑то очень долгосрочных программ, долго, с заменой им работы(на что?). Поэтому вам, как политику и лицу принимающему решения, который должен думать о следующих выборах, гораздо проще принимать решения, в которых никто работу не теряет, а лучше находит. Например открывает новое подразделение по доработке процессов)

            В условной чисто капиталистической корпорации — да, можно попытатся, но это очень странная игра с непонятным исходом. И раньше появления агентов, которых можно будет выстраивать прямо в цепочку — непонятно как осуществимая.


             В сущности ИИ/LLM щас уверенно кушает только одну нишу рынка — это персональный поисковик. Остальное — фантазии. Поэтому Гугл и прыгает так высоко, чует что это грозит его рынку. Поэтому МС и спонсирует все это мероприятие и пихает его в bing со страшной силой.


            1. Alexey2005
              05.06.2024 10:36
              +3

              Вот тут-то диктатура и получает преимущество. Потому что при диктатуре властям не нужно думать, кто там и как за них проголосует. Да и проблему утилизации "лишних" людей диктаторы могут решать предельно эффективно.

              Сейчас диктатуры "сыплются" на сложностях с воспроизводством интеллектуальной элиты (люди с интеллектом хоть немного выше среднего, при этом нацеленные на создание интеллектуального продукта, а не на аппаратные игры, как-то быстро заканчиваются, после чего начинается деградация во всех областях). Но ведь "сильный" ИИ как раз и решает эту проблему!

              В мире, где есть "сильный" ИИ, демократии попросту не способны конкурировать с авторитарными режимами.


              1. AlexeyZlobin
                05.06.2024 10:36
                +3

                Это не главная проблема диктатур. Да, отсутствие ученых и их повышенный расход путем ссылок в лагеря, заставляет страну тормозить в научно-техническом прогрессе, однако тот же СССР довольно эффективно с этим справлялся, путем создания буквально научных тюрьм, так называемых "шарашек" и запрета людям с мозгами выезжать заграницу.

                Главная проблема диктатур в другом - отрицательный естественный отбор на всех должностях. ИИ в этом не поможет никак, ты же не уволишь зятя племянника младшей сестры своего друга, которому дал пост министра, только потому что он некомпетентный дятел? Нет! Главное, что он верный некомпетентный дятел...

                А что ентому ИИ проклятущему в голову придет, вдруг решит, что ты страну в пропасть ведешь и надо бы от тебя избавиться? Не нужнова нам этих заморских бесовских технологий!


                1. vvzvlad
                  05.06.2024 10:36

                  Главная проблема диктатур в другом - отрицательный естественный отбор на всех должностях.

                  Это не признак диктатур. Это признак попыток построить социализм.


        1. MiyuHogosha
          05.06.2024 10:36

          А дальше - биокомпьютер чтоб самовоспроизводился


      1. myrov_vlad
        05.06.2024 10:36

        Имхо: тут еще проблема в том, могут ли роботы/ИИ задать уже ВЕРХНЮЮ планку на стоимость и качество труда? А-ля "какой смысл ученому расти до уровня нобелевского лауреата, если теперь надо только верифицировать идеи ИИ?"


        1. Wesha
          05.06.2024 10:36
          +3

          могут ли роботы/ИИ задать уже ВЕРХНЮЮ планку на стоимость и качество труда?

          — Вам ничего нельзя объяснить. В том-то и дело. Ведь в этом заключается последнее испытание. Даже после отсева в День образования девять человек из десяти, попавших сюда, оказываются не совсем подходящими для творчества, и нет такого прибора, который помог бы нам выделить из этой десятки того единственного, кто нам нужен. Десятый должен доказать это сам.

          — Каким образом?

          — Мы помещаем вас сюда, в приют для слабоумных, и тот, кто не желает смириться с этим, и есть человек, которого мы ищем. Быть может, это жестокий метод, но он себя оправдывает. Нельзя же сказать человеку: "Ты можешь творить. Так давай, твори". Гораздо вернее подождать, пока он сам не скажет: "Я могу творить, и я буду творить, хотите вы этого или нет". Есть около десяти тысяч людей, подобных тебе, Джордж, и от них зависит технический прогресс полутора тысяч миров. Мы не можем позволить себе потерять хотя бы одного из них или тратить усилия на того, кто не вполне отвечает необходимым требованиям. 

          (Айзек Азимов. "Профессия".)


          1. MiyuHogosha
            05.06.2024 10:36

            Только я хотел написать что этим мечтам почти столетие и привести цитату оттуда.

            А в итоге робот-философ у Азимова пришел к выводу что человечеству роботы не нужны.


      1. red_elk
        05.06.2024 10:36

        Т.е. процесс имплементации задумок ИИ никто не отменял. И далеко не факт, что недоразвитое человечество вообще сможет сделать то что богоподобный ИИ нафантазировал. От сотен гигаватт вкаченных в датацентр космические корабли просторы не забороздят.

        Это вопрос наличия эффективного интерфейса для взаимодействия с физический миром, и вполне возможно это лишь временное ограничение. По идее ничто не мешает AI улучшать уже имеющиеся приборы, манипуляторы, видеокамеры, роботов и т.д. В перспективе, проектировать новые фабрики, затем самостоятельно строить и производить всё это.


      1. DaneSoul
        05.06.2024 10:36

        Например, проектирование самолёта (не с нуля, естественно) занимает чуть
        ли не раза в два меньше времени, чем его испытания и сертификация.

        В проектировании самолетов не силен, но о биологии/медицине представление некоторое имею.
        Основная проблема не в самих испытаниях и сертификациях, а в том, что очень часто они дают отрицательный результат. То есть вещество разработали, ожидали хороших эффектов, а при испытаниях оно оказалось неэффективным или вылезли всякие побочки, в итоге годы работы и кучи денег в мусорку.
        Если ИИ будет настолько крут, что сможет предсказывать большую часть таких провалов еще на этапе разработки, то уже одна такая ранняя отбраковка может очень сильно удешевить разработку новых препаратов. А человеческих способностей для такого анализа уже не хватает - организм и процессы в нем очень сложны и многочисленны, все зависимости отследить у человека не получается.


      1. Heartofhill
        05.06.2024 10:36

        Верная мысль - производственные, строительные, энергетические ресурсы человечества ограничены. И если мы хотим тотально увеличить с помощью ИИ промышленный потенциал человечества надо разрабатывать термоядерные электростанции, которые будут питать роботов и заводы по их производству. Хотя можно теоретически сделать огромные поля солнечных батарей.

        Также нужны автоматические исследовательские центры под контролем ИИ, где будут в автоматическом виде проводиться эксперименты: примерно как было показано в фильме "превосходство".

        Строительные роботы также должны массово производиться, чтобы создавать новые автоматизированные заводы и научные центры. Примерно как во втором аватаре, когда было сказано, что строительные роботы построили за год на Пандоре больше, чем было построено до них за 30 предыдущих лет.

        Если это все дело проработает какое-то время и достаточно разовьется, то можно будет задуматься о реализации мегапроектов, которые требуют колоссальные ресурсы и сейчас выглядят фантастикой. Например, превращение пустынь в цветущий рай или остановка глобального потепления, колонизация других планет.

        Но здесь закономерно возникает вопрос согласованности целей ИИ, который контролирует этот весь промышленный и научный потенциал, и целей человечества. Потому что в развитой форме потенциал ИИ будет больше потенциала всего человечества и если ИИ окажется враждебным у нас будут большие проблемы.


    1. Kergan88
      05.06.2024 10:36
      +3

      Да зачем далеко ходить - ai winter уже не первый раз происходит. Лет через 5 это все схлопнется, как схлопывалось и до этого.


    1. lehshik
      05.06.2024 10:36
      +4

      >Прогресс какой-то будет, это несомненно

      прогресс уже есть, рисует лучше 99% художников, обыгрывает человека почти во все игры, и это при числе параметров меньше в тысячи раз чем в мозге.


      1. freeExec
        05.06.2024 10:36

        А вот такого, чтобы и рисовал, говорил и обыгрывал нету


        1. KvanTTT
          05.06.2024 10:36

          Это называется мультимодальность - ChatGPT 4o уже может в базовые вещи.


      1. Wesha
        05.06.2024 10:36

        рисует лучше 99% художников

        Ну да, конечно.


        1. Kanut
          05.06.2024 10:36
          +1

          Вам слово "сюрреализм" что-то говорит? :)


          1. KvanTTT
            05.06.2024 10:36
            +1

            Тут надо учитывать исходный запрос. Если в нем было что-то про сюрреализм, то результат нормальный, в противном случае - ошибка.


            1. Kanut
              05.06.2024 10:36

              А когда художники-сюрреалисты собственно придумали этот самый сюрреализм, то они это тоже по конкретному запросу сделали? Или просто потому что они художники и они так видят? :)


              1. KvanTTT
                05.06.2024 10:36

                Я не искусствовед, но думаю, что скорей всего, т.к. искусство - это, как правило, отражение политических, экономических, социальных реалий современников, а не просто картинки и другие произведения в вакууме.


                1. Kanut
                  05.06.2024 10:36

                  Ну вот вам и ИИ делает "отражение политических, экономических, социальных реалий". Ровно так как он это "видит" :)


          1. Wesha
            05.06.2024 10:36
            +1

            Ваша оценка того, что 99% художников — сюрреалисты, несколько преувеличена.

            P.S. В моём словаре для слова "сюрреалист" записано определение "дурень, который рисованию так и не доучился, а жрать хочется, поэтому вместо этого стал разводить лохов на бабки".


            1. Kanut
              05.06.2024 10:36

              Ваша оценка того, что 99% художников — сюрреалисты, несколько преувеличена

              Я нигде такого не писал.

              В моём словаре для слова "сюрреалист" записано определение "дурень, который рисованию так и не доучился, а жрать хочется, поэтому вместо этого стал разводить лохов на бабки".

              Бывает.


        1. Alexey2005
          05.06.2024 10:36
          +5

          Иван Крамской, "Христос в пустыне", 1872 г.

          Увидь я это изображение без подписи - был бы на 100% уверен, что это выхлоп нейронки. Проблемы с пальцами, на лице явные артефакты от применения ADetailer, неконсистентность стилей (пейзаж фотореалистичный, а фигура явно рисованная).

          В работах известных мастеров прошлого можно без проблем отыскать кучу того, за что бранят нейронки. Просто нейро-хейтеры берут лучшие работы живых художников, часто ещё и реставрированные, сравнивают с худшими работами операторов нейронок - и радуются: ура, ваши нейронки - хрень.


          1. DonStron
            05.06.2024 10:36
            +1

            на лице явные артефакты от применения ADetailer

            нам рассказывали на истории живописи, что Крамской в этой картине несколько лет(!) лицо Христа перерисовывал, никак не мог достичь желаемого.

            И вот то, что называют "искушением Христа в пустыне" - фактически - это просто многодневное размышление: понимая, что далее его ожидает, остановиться и прожить жизнь обыкновенного человека, или пойти дальше, быть казненным и тем самым триггернуть что-то, попробовать этим дать человечеству нечто большее.


        1. FirExpl
          05.06.2024 10:36

          И много людей в вашем окружении могут нарисовать картинку такого уровня? :)


          1. Wesha
            05.06.2024 10:36

            И много людей в вашем окружении могут нарисовать картинку такого уровня?

            В моём — много.

            (Просто у меня окружение такое. Вон, в частности, один нарисовал картину, из которой я иконку сделал.)


        1. AlexeyZlobin
          05.06.2024 10:36

          Пальцы уже пофиксили.


          1. Mausglov
            05.06.2024 10:36

            вот именно. что "пофиксили". Это не нейронка поняла, что с пальцами что-то не так, а разработчик её зомбировал.


            1. inkelyad
              05.06.2024 10:36
              +1

              Не надо ровнять конкретный набор весов с всей нейронкой.

              Что произошло - некий информационный конструкт мутировал и видоизменился под воздействием внешних объяснений (не словами, да - другими способами объясняли). С точностью до терминологии - 'понял'.


    1. Nepedique
      05.06.2024 10:36

      Как вы там, все верите в миазмы?
      5-10-20-50 лет в масштабах вселенной - ничтожная погрешность. Навязчивый скептицизм равнозначен невежеству, простите.


  1. amazingname
    05.06.2024 10:36
    +20

    Аналогии в стиле "с атомной бомбой тоже думали что она не возможна" никогда не работают. Нужно смотреть на реальное положение вещей, это гораздо надежнее.

    Если посмотреть реально - сейчас мы действительно обнаружили нечто обнадеживающее в AI. Сначала это были сверточные сети: если просто подавать картинку в нейронную сеть, она не сильно эффективна, но если подобрать правильную архитектуру, которая позволяет сети эффективно отражать закономерности в изображении, сеть становится сколь угодно умной в распознавании изображений. Аналогичная вещь случилась с трансформерами. Все что нужно - архитектура которая позволит сети эффективно отражать закономерности обущающего тестового материала. И тогда случается волшебство - обученная сеть достигает уровня, когда она ведет себя в точности как спонтанно реагирующая человеческая память и даже лучше.

    Открытием здесь было два факта. Первый факт - вменяемого числа искуственных нейронов достаточно чтобы достичь почти человеческого уровная реакции и понимания матерала. Это было неожиданно, учитывая насколько сложны нейроны мозга и насколько их много.

    Второй факт - даже обычного алгоритма обратного распространения достаточно чтобы в нейронной сети отразились и разложились все знания мира, как это делает биологический мозг.

    Дальше вопрос - что еще у нас есть? Вроде пока больше ничего. Мы можем взять миллион примеров любого разумного но спонтанного поведения (с немедленной реакцией без планирования) и найти архитектуру для сети, которая это поведение воспроизведет. Сейчас это дело техники. С этим похоже и придется работать инвесторам.

    Что касается некого принципиального прорыва - может быть найден новый способ обучения, не требующий так много информации, или может оказаться что достаточно большая сеть вдруг сама по себе станет умнее чем материал на котором ее обучали. Это все может случиться а может не случиться, точно так же как это было раньше. Здесь ничего не поменялось.


    1. RGrimov
      05.06.2024 10:36

      IMHO, свёрточные сети выстрелили, когда появился достаточный набор данных - ImageNet1K, так то они были давно известны, ими ещё Лекун баловался в конце 90х для распознавания цифр и подписей.


    1. inkelyad
      05.06.2024 10:36
      +1

      Что касается некого принципиального прорыва - может быть найден новый способ обучения, не требующий так много информации, или может оказаться что достаточно большая сеть вдруг сама по себе станет умнее чем материал на котором ее обучали.

      А еще можно попытаться не торопиться, а построить телеуправляемого андроида, воткнуть его в качестве 'тела' для сетки и воспитывать ее лет 20 точно так же как человека воспитывают. С полноценными периодами 'сна/отдыха', где сеть дообучается на том, что она в течении 'бодрствования' увидела и в контексте запомнила.


      1. PeeWeee
        05.06.2024 10:36
        +1

        НИР "Или шах, или ишак"?
        Полагаю перспективнее начать с "первичного бульона". При удачном раскладе на дольше хватит. А если вдруг "не прокатило", то хотя бы без статьи за экстремизм обойдется.


        1. inkelyad
          05.06.2024 10:36

          НИР "Или шах, или ишак"?

          Да нет, серьёзно. Если нам нужен(а вот точно нужен? Судя по всему все хотят уже сверхчеловеческий) интеллект, близкий к человеческому - то и нужно создавать его способами, близкими к человеческим. Иначе получим может и интеллект, но 'инопланетный', после чего иметь головную боль, что оно мыслит не так и делает совершенно непредсказуемые и неудачные с нашей точки зрения выводы/решения.


          1. Aldrog
            05.06.2024 10:36

            Можно подумать, что все люди совершают предсказуемые и удачные решения и думают одинаково. Или что известен научно достоверный способ воспитать человека так, чтобы он думал «правильно» и далее по списку.


          1. omxela
            05.06.2024 10:36
            +1

            Если нам нужен (а вот точно нужен? Судя по всему все хотят уже сверхчеловеческий) интеллект, близкий к человеческому - то и нужно создавать его способами, близкими к человеческим.

            Вы не создаёте человеческий интеллект. Он сам такой получается с тем или иным успехом. Вы никак не контролируете этот процесс. А на входе вы имеете для этого мозг, который не вы создали и о работе которого не имеете, по сути, никаких разумных представлений. Казалось бы, простая и естественная мысль: хотите создать разум - поймите сначала, как он устроен и как он работает. Иначе вы получите тупой автомат, который ещё и лажает время от времени. В результате вам придётся тратить свой естественный интеллект на то, чтобы понять, что вам тут лопатой набросали. А вы-то мечтали, поди, совсем о другом. Это классическая фобия о человеке - придатке машины. Ей много лет.


          1. DaneSoul
            05.06.2024 10:36
            +2

            С другой стороны, самолет у нас крыльями не машет как птица, а машина лапами не перебирает как лошадь. Вполне вероятно что и в сфере ИИ более эффективные другие подходы, чем у природы.

            Тем более, что человеческий интеллект сам по себе во многом "черный ящик" и люди друг друга зачастую понимают с трудом и "отмочить" ту еще дичь могут совершенно неожиданно, так что за эталон понятной системы тоже странно брать.


            1. Wesha
              05.06.2024 10:36
              +1

              машина лапами не перебирает как лошадь

              BigDog смотрит на Вас с непониманием


              1. inkelyad
                05.06.2024 10:36

                Вот только их последний робот - может пользоваться своими ногами ну ни разу ни так, как природные аналоги.


                1. Wesha
                  05.06.2024 10:36

                  Ви так говорите, как будто это что-то плохое.


            1. KvanTTT
              05.06.2024 10:36

              самолет у нас крыльями не машет как птица, а машина лапами не перебирает как лошадь

              Такая механика в некоторых случаях имеет преимущества: по крайней мере она более универсальная. Думаю машина с ногами может как сносно бегать, так и преодолевать сложные препятствия.


    1. AlexeySetevoi
      05.06.2024 10:36
      +4

      Насчет атомной бомбы, как и любого другого проекта инженерного — вопрос был в исследованиях, испытаниях и освоении производства. Никто не сидел и не думал из серьезных ученых/разработчиков, что это невозможно. Скорее думали о том, сколько для этого всего надо сделать. Это как с ИТЭР — все знают что делать, но есть организационные и технические сложности вытекающие из не‑приоритетности этого проекта для участников.


  1. Tyusha
    05.06.2024 10:36
    +22

    Сверхразум даст военное преимущество, сравнимое с ядерным оружием. [...] Авторитарные режимы могут использовать сверхразум для мирового господства и тотального контроля внутри страны. История показывает опасность диктатур. Ашенбреннер говорит о том, что свободный мир должен победить авторитарные державы в этой гонке.

    Если убить всех плохих, то в мире останутся только хорошие люди. Несколько таких проектов в истории человечества уже пытались провернуть.


    1. unclejocker
      05.06.2024 10:36
      +8

      В любом случае хорошие останутся, ведь именно они напишут мемуары.


      1. MAXH0
        05.06.2024 10:36

        Если судить прочитанные мною мемуары, то останутся плохие, которые вовремя сдались/уехали/сменили сторону.


      1. bbs12
        05.06.2024 10:36
        +2

        Это отчасти заблуждение. Геноцид индейцев например был официально признан.

        Если бы Гитлер победил, написал мемуары и эти мемуары считались бы в современном мире адекватными и нормальными - такой мир был бы либо замкнутой антиутопией как в книге "1984", в котором население скажет что угодно, лишь бы не поехать в лагеря на урановые рудники. Либо этот мир был бы самоуничтожен в результате какого-либо внутреннего коллапса. Этот мир не может существовать долго даже в относительно нормальном состоянии, такая ситуация нестабильна.


        1. MAXH0
          05.06.2024 10:36
          +1

          Вы оптимист.

          Если бы Гитлер победил,

          то победил бы и Геббельс и его наследники. "Mein Kampf" вполне популярен в современном мире. И в большинстве обществ достаточно 10% идеологически заряженных лидеров, чтобы 80% "тех, кому не интересна политика" следовали в общем фарватере, а 10% оппозиции были ошельмованными маргиналами. И без всяких урановых рудников.


          1. ksbes
            05.06.2024 10:36

            Просто хочу напомнить про одного "победившего Гитлера". Хотя он, конечно, был повменяемее. Всё-таки наследник Цивилизации, а не потомок голозадых варваров из лесов.


            1. MAXH0
              05.06.2024 10:36

              Да, чувствуется «Порода»...

              Разум — это наше право, а доброта — это наш долг.


    1. SergioShpadi
      05.06.2024 10:36
      +22

      Вот кстати да. Многие тут на Хабре уверены, что вой американских леваков про системный расизм - это исключительно плод их воспалённого сознания. Но если плотно пообщаться с обычными американцами, (обычными не в смысле карикатурного реднека, а в смысле среднего "прогрессивного" представителя Силиконовой Долины, например), то быстро понимаешь о чём идёт речь. Они относятся к представителям других наций как к каким-то там ни на что не способным отсталым аборигенам. Так что легко верится, что внутри своего общества одни ведут себя примерно похоже по отношению к другим. При этом больше всего пещерного нацизма демонстрируют как раз те самые леваки, кто воют про системный расизм. Вот даже в этой статье всё сквозит этой темой национального превосходства - типа нельзя позволять другим строить свой AGI, а то что это удумали папуасы авторитарные!


      1. darthmaul
        05.06.2024 10:36
        +5

        Как по мне, это старый - добрый трибализм. Если у соседа будет большая палка - он побьёт меня, если у меня больше - то я его.


        1. SergioShpadi
          05.06.2024 10:36
          +1

          Безумное двоемыслие, кстати. С одной стороны эти люди рассказывают, что представители всех племен и их видение мира одинаково ценны (основная левая идея), с другой же стороны рассказывают, что нам нужна палка побольше, чтобы всем другим племенам набить кочерыжку (основная правая идея). Можно уважительно относиться к представителям обоих идей, можно уважительно относиться к тем, кто ищет срединный путь между этими полюсами - людям, кто считает у обоих идей есть плюсы и минусы и пытаются найти некий баланс между ними (основная идея центризма). Но невозможно уважать людей, которые декларируют эти две противоречащие друг другу вещи одновременно.


          1. Tyusha
            05.06.2024 10:36
            +2

            Те, кто выступают за толерантность, крайне нетолерантно относятся к тем, кто против толерантности. Стало быть, какие же они тогда толерантные?!

            А если они всё же к нетолерантным относятся толерантно, то выходит, что они поощряют нетолерантность, поэтому снова-таки толерантными не являются.

            Налицо кризис. Движение толерантности в тупике.


            1. Kanut
              05.06.2024 10:36
              +1

              Те, кто выступают за толерантность, крайне нетолерантно относятся к тем, кто против толерантности. Стало быть, какие же они тогда толерантные?!

              Толерантность, грубо говоря, это про "не лезть в жизнь и дела других людей". Но только до того момента пока их "жизнь и дела" не начинают лезть в ваши "жизнь и дела".

              То есть как только "противники толерантности" начинают влиять на жизнь "сторонников толерантности", то толерантность прекращается "по определению".


            1. inkelyad
              05.06.2024 10:36
              +4

              Те, кто выступают за толерантность, крайне нетолерантно относятся к тем, кто против толерантности. Стало быть, какие же они тогда толерантные?!

              Потому что парадокс толерантности. (Ну или сильно-сильно короче в русском варианте)


              1. Kanut
                05.06.2024 10:36
                +1

                Какое-то у них другое определение толерантности похоже. В википедии например:

                Толера́нтность (от лат. tolerantia — «терпение, терпеливость, способность переносить») — социологический термин, обозначающий терпимость к иному мировоззрению, образу жизни, поведению и обычаям. Толерантность не равносильна безразличию. Она не означает также принятия иного мировоззрения или образа жизни, она заключается в предоставлении другим права жить в соответствии с собственным мировоззрением.

                И дальше:

                Проявление толерантности также не означает терпимости к социальной несправедливости, отказа от своих убеждений или уступки чужим убеждениям, а также навязывания своих убеждений другим людям.


                1. inkelyad
                  05.06.2024 10:36
                  +2

                  Какое-то у них другое определение толерантности похоже.

                  Ну да. Если верить той же статье - это одна из причин/решений парадокса. Лингвистическая. То, что одним и тем же словом называются разные понятия и результате все запутывается до логического противоречия.


                  1. MiyuHogosha
                    05.06.2024 10:36

                    Это аналогично парадоксу лжеца. Биение по категориям не являтся бинарным.

                    Лжец может сказать правду, если это в его интересах


            1. AlexeyZlobin
              05.06.2024 10:36
              +1

              "Никакой свободы врагам свободы"


          1. Wesha
            05.06.2024 10:36
            +2

            можно уважительно относиться к тем, кто ищет срединный путь между этими полюсами - людям, кто считает у обоих идей есть плюсы и минусы и пытаются найти некий баланс между ними

            Знакомо...

            Соглашатель:

            Милые! Ну, не надо! Не подымайте ругань!
            Бросьте друг на друга коситься.
            Протяните руки,
            обнимите друг друга.
            Господа, товарищи,
            надо согласиться.

            Француз (злобно):

            Чтоб я согласился?
            Это уж слишком!

            Рыбак: (злобно. И рыбак и француз костыляют шею соглашателю).

            Ах ты, соглашатель!
            Ах ты, соглашателишка!

            Соглашатель (отбегая, побитый, скулит).

            Ну вот,
            опять...
            Я ему по-хорошему,
            а он...
            Так вот всегда:
            зовешь согласиться,
            а тебе наложат с двух сторон.


            1. MiyuHogosha
              05.06.2024 10:36

              Это суть философии дао (и одной из их притч).

              Вот толь следование этой философии выражается в "пусть они перебьют друг друга, а я в сторонке постою и помедитирую, а потом помогу выжившим". Не работает, если в ходу пошли огнеметы.


      1. bbs12
        05.06.2024 10:36
        +2

        типа нельзя позволять другим строить свой AGI, а то что это удумали папуасы авторитарные!

        Для таких утверждений есть основания. В авторитарных странах к управляющим системам страны чаще приходят родственники или друзья главного. Они не прошли соответствующий отбор на уровень своей компетенции, чтобы быть допущенными к такой сложной работе. А грамотно управлять страной - очень сложная работа. В неавторитарных странах вероятность этого ниже, а значит такая страна автоматически будет управляться в среднем более компетентными людьми.


        1. mk2
          05.06.2024 10:36

          >В неавторитарных странах вероятность этого ниже, а значит такая страна автоматически будет управляться в среднем более компетентными людьми.

          Это если неявно предполагать, что "приход родственников или друзей главного" это главная или хотя бы основная причина прихода некомпетентных людей к управляющим системам страны.

          Есть множество других возможностей - "купил должность", "политический назначенец", "выбранный голосованием популист", для примера. Какие из этих вариантов дают гарантии, что выбранный человек прошёл "соответствующий отбор на уровень своей компетенции"?

          И как минимум двух последних вариантов в не авторитарных странах больше по определению.


          1. acsent1
            05.06.2024 10:36

            Ну и выходцы из правильных семей обычно вполне умные люди. Достаточно посмотреть на элиту- очень мало там людей со стороны


      1. leok
        05.06.2024 10:36
        +1

        Я не знаю с кем вы там общались, но мой опыт категорически несогласуется с вашим описанием. Наверное, вы путаете представителей других наций с поклонниками традиционных ценностей. Последнее, да, вопринимается как атавизм, но даже в России эти ценности недостаточно популярны, чтобы вопринимать их как характеристику всей нации. Ну или вы общались с радикальными товарищами, для которых и 90% жителей США тоже недостаточно прогрессивны.


      1. olezh
        05.06.2024 10:36
        +2

        Да, при этом вспоминая, что чертежи ядерной бомбы утекли ко всем кто был сильно заинтересован. Да ещё и во времена когда отсутствовали такие жирные каналы информации как сегодня. Как эти люди собираются сохранить любую революционную технологию в тайне когда на протяжении всей истории это не удавалось?

        Насчёт самой статьи - ничего нового.


      1. boldape
        05.06.2024 10:36

        Я не знаю какой у вас жизненный опыт, но мне кажется вам стоит попутешествовать по океании/пацифику и посмотреть чем живут представители нативных народностей так называемые индженики. Далеко не сразу, но вы возможно начнёте таки оспаривать/сомневаться во всеобще признанных гуманитарных тезисах о том, что представители всех расс одинаково убоги. Нет, не одинаково и таки есть коррелеция между рассой человека и тем чего от него ожидать не зная этого человека. Это конечно не повод быть рассистом - автоматически и безапелляционно навешивать какие-то характеристики на основании только лишь рассы, но игнорировать праяры/базовые вероятности полученные от рассы тоже глупо, а иногда и фатально глупо.


        1. amazingname
          05.06.2024 10:36

          Вопрос не в том, есть ли эта кореляция. Если вы возьмете двух случайных представителей одной рассы то весьма вероятно что один будет обладать блестящим умом а второй будет читать с трудом. То что все люди разные это и так общеизвестно.

          Вопрос в том что делать. Сейчас на западе решили, что лучшая стратегия - верить что разницы между рассами и нациями нет или что она не так существенна. Результат этой стратегии - вавилонское смешение народов и культур в котором одни страны начинают деградировать, другие обогащаются в смысле цивилизованности. Наилучшая ли это стратегия никто не знает, но как есть.


    1. marcbook
      05.06.2024 10:36
      +3

      Если показательно убить пару плохих, то остальные плохиши начинают вести себя гораздо лучше. Факт!


    1. amazingname
      05.06.2024 10:36
      +1

      Если убить всех плохих, то в мире останутся только хорошие люди. Несколько таких проектов в истории человечества уже пытались провернуть.

      Например?


      1. Tyusha
        05.06.2024 10:36
        +2

        Подозреваю, Адольф желал всемирного добра и счастья всем хорошим арийцам. Он же наверняка не считал себя злодеем.

        А ещё был Пол Пот. Там с помощью мотыг и мачете забили 3 миллиона "плохих", приближая светлое будущее.

        Мао, Сталин, Ленин, Энвер-паша, Саддам, Багосора... (Прошу прощения у остальных, кого забыла)... Это я ограничилась лишь 20 веком.


        1. bbs12
          05.06.2024 10:36
          +2

          Подозреваю, Адольф желал всемирного добра и счастья всем хорошим арийцам

          Имхо, нет. Если посмотреть на его ближайших друзей - там в основном отморозки и дегенераты. Просто по личностям и характеру людей видно, что они крысы, как во многих криминальных группировках ОПГ.

          Глубоко в душе Гитлер кайфовал от зрелища концлагерей. Т.е. стремился скорее не сделать лучше арийцам, а заставить страдать других.

          А сказки про добро - это популизм, чтобы усидеть на троне и быть популярным.


        1. amazingname
          05.06.2024 10:36
          +1

          Не не, вы сказали о нескольких проектах, когда люди которые формально и по общим признакам могли считаться хорошими решили убить всех плохих. Такого просто не было никогда. Фашисты со своим культом силы и совершенства и особождением от химеры совести никак не могли считаться "хорошими" ни в какой объективной ситсеме координат. И аналогично про остальных. Зачем обязательно черное называть белым а белое черным? Что это пошла за тенденция и к чему она приведет?


          1. AlexeyZlobin
            05.06.2024 10:36
            +3

            Это не мешало им самим себя считать хорошими. Точно так же не мешает сейчас считать себя хорошими - еще одну страну, что тоже развязала крупнейшую со времен вов, войну в Европе. Почитай вообще мемуары рядовых немцев, как изнутри для них этот режим выглядел, наткнешься на множество современных параллелей.


          1. Tyusha
            05.06.2024 10:36

            Любой человек, любой подлец и негодяй в глубине души считает себя хорошим и правильным человеком. Это не касается наверное только совсем уж паталогичечких психопатов.

            Так что те, кого вы считаете отмороками и дегенератами таковыми себя не считали, не считала их такими и подавляющая частью общества.

            А Сталин, Ленин, Дзержинский и вся эта компания — это другое, позвольте спросить? Если уж кто ОПГ, так у этих даже больше оснований таковой считаться.


            1. amazingname
              05.06.2024 10:36

              Это не важно кто кем себя считает. Хорошие люди отличаются от плохих тем что они не делают другим того что не пожелали бы себе, если кратко. А не тем кто их кем считает.

              Вы пишете:

              Если убить всех плохих, то в мире останутся только хорошие люди. Несколько таких проектов в истории человечества уже пытались провернуть.

              Но это не правда. Никогда хорошие люди такого не оргазовывали и никто никогда не задавался такой целью. Все было наоборот - эгоистичные люди которые любили только себя звали убить всех слабых, чужих, других, но никогда тот кто исповедует гуманизм не может быть одновременно источником бедствий (т.е. в принципе конечно может, но это не тот масштаб проблем и всегда есть большие сомнения относительно виновников бедствий). Подобный релятивизм, когда белое и черное - все едино, приведет к третьей мировой.


              1. ksbes
                05.06.2024 10:36
                +2

                Хорошие люди отличаются от плохих тем что они не делают другим того что не пожелали бы себе, если кратко.

                Кант, мягко говоря не универсален. Есть много как бы "объективных" определений "хорошести" (например "чукчанский": хороший тот, кто мне приносит пользу).

                И если вы не уловили мысль начального сообщения - то подсказываю: это стёб над вот такими как вы, считающими, что существуют абсолютные моральные нормы которым все обязаны следовать. И предупреждение о том, к каким кровавым гекатомбам приводит такая точка зрения.


                1. amazingname
                  05.06.2024 10:36
                  +1

                  Абсолютных моральных норм не существует, как не существует вообще ничего абсолютного, даже математической истины. Но существуют определенные работоспособные тенденции. И к кровавым последствиям приводит как раз отрицание этих тенденций. И никогда - следование им.

                  Но сейчас пошла мода на полный релятивизм. Дескать ваше добро, гуманизм и ценности относительны и приносят еще больше горя чем отрицание этих ценностей. Но это чистой воды обман. Единственно, что приятно чувстовать себя умным отрицая все подряд. Но поверьте, это дело как раз не хитрое и это любой умеет.

                  Это как если вам предлагают одеяло когда вам холодно, а вы начинаете рассуждать сколько людей были задушены одеялами, сгорели от сигареты и одеяла и так далее. Это бессмысленное занятие. И делается это в двух случаях: чтобы оправдать зло с которым ты ничего не можешь поделать и чтобы просто показаться себе умнее других. Как-то так.


    1. event1
      05.06.2024 10:36
      +1

      Из этого абзаца становится понятна цель и целевая аудитория оригинального текста. Цель — получить грошей на защиту от Страшного АГИ™. Целевая аудитория — американские военные или связанные с ними инвесторы.


  1. BeLord
    05.06.2024 10:36
    +2

    Дано: Лада Гранта, нужно а) оптимизировать конструкцию с точки зрения сборки, все операции по сборке должны выполняться роботом, б) оптимизировать материалы, износ деталей на 10% при 10 летней эксплуатации или пробеге 1 млн км, в) отпускная розничная цена оптимизированной версии 5 млн рублей, г) базовый технические характеристики (скорость передвижения, потребления топлива, динамика не должны ухудшиться). Вот, есть у меня подозрение, что инженеры Тойоты с такой задачей потенциально справятся, а ИИ сможет?-)))


    1. venanen
      05.06.2024 10:36
      +11

      С задачей установить отпускную цену Гранты в 5млн справится и АвтоВАЗ. Оптимизировать материалы и производство - не справится и тойота, там место проклятое -)


  1. ImagineTables
    05.06.2024 10:36
    +8

    2025-2026 годам эти машины, как ожидается, превзойдут по интеллекту выпускников колледжей, а к концу десятилетия станут умнее, чем любой человек

    И наконец-то построят термояд. /s


    1. KReal
      05.06.2024 10:36
      +1

      Или выучат C++


      1. ImagineTables
        05.06.2024 10:36
        +10

        Может, всё-таки возьмёте термояд?


    1. MiyuHogosha
      05.06.2024 10:36

      его уже и без них...


    1. Wizard_of_light
      05.06.2024 10:36
      +1

      И наконец-то построят термояд

      А потом, видимо, применят. Наконец-то.


  1. SergioShpadi
    05.06.2024 10:36
    +9

    Мы прочитали этот документ объемом в 165 страниц за вас

    Ну вот же ИИ уже захватил мир


    1. Wesha
      05.06.2024 10:36

      Ну вот же ИИ уже захватил мир

      А ведь предупреждали!

      — Давай свои заметки, - не слишком охотно сказал Фэй, протягивая руку. Он поймал шелестящие листки, выскользнувшие из пальцев Гастерсона, аккуратно разровнял их у себя на колене, а затем, передал через плечо своему щекотуну, который защелкнул клешни на полях с обеих сторон и довольно быстро стал вести верхний лист дюймах в шести от своего единственного глаза.

      — Но я хотел, чтобы это прочитал ты, — ошеломленно сказал Гастерсон, не отрывая глаз от происходящего.

      — Пух-Бах сделает это лучше меня, — заверил его Фэй. — Уловит суть, не выплескивая с водой ребенка.

      — Но, черт подери, это ведь все о нем, — еще настойчивее сказал Гастерсон. — Он не будет объективен.

      — Он сделает лучше, — повторил Фэй, — и более объективно. Пух-Бах настроен на подробное реферирование. Перестань беспокоиться. Это беспристрастная машина, а не подверженный ошибкам эмоционально неустойчивый человек, сбитый с толку обманчивым сознанием.

      [...]

      Гастерсон вышел, толкнув вращающиеся двери. Он уже примерился сделать шаг на медленно движущуюся транспортную ленту. А потом, подчинившись порыву, резко толкнул дверь и заглянул внутрь.

      Погрузившись в вялую задумчивость, Фэй сидел в той же позе, в какой Гастерсон его оставил. Пух-Бах на его плече торопливо сучил своими маленькими металлическими ручонками, разрывая заметки на все более мелкие клочки. Он бросил обрывки, которые стали медленно падать на пол

      —Фриц Лейбер. Ночь волка

      (конец немного предсказуем)


  1. Xambey97
    05.06.2024 10:36
    +9

    Сдается мне, что всю эту тему раздувают по полной только ради одного - рынка ценных бумаг и стоимости акций компании Nvidia, которая по сути сейчас весь рынок и двигает в основном, на кону у крупнейших фондов мира огромные бабки, которые еще надо перевести из воздуха в прибыль, а в нынешних экономических условиях это не просто. Подобные расходы на электроэнергию для супер AI звучат фантастически и что-то мне подсказывает, несут как раз характер "привлечь больше хомяков" в сектор и надуть ценник, мы же как никак в мире сплошных спекуляций в экономике живем. История знает подобные пампы, и всегда они заканчивались одним и тем же, в IT секторе в последний раз крахом дот комов... Это все правда не отменяет высокого потенциала развития AI, но его возможности как по мне сильно преувеличивают.


    1. coresky
      05.06.2024 10:36
      +4

      Если всё так, как описано в статье, то это равносильно что обнаружили эскадрилью инопланетян, которые прибудут к 2030 году. По фантастическому сценарию фильма, человечество объединяет усилия.


  1. xoid555
    05.06.2024 10:36
    +14

    сдается мне что это один из "специалистов по этике" которых уволили из OpenAI поняв что они бесполезны чуть более чем полностью


    1. karabas_b
      05.06.2024 10:36
      +1

      Не совсем, он экономист. Чел закончил колумбийский университет лучшим на курсе (valedictorian) в 19 лет, при том, что английский даже не его родной язык. Его бы радостно взяла на работу любая компания мира.


  1. remova
    05.06.2024 10:36
    +1

    Что требуется:

    • Полностью изолированные дата-центры с системой безопасности как на военных базах

    • Строгая проверка персонала и мониторинг

    • Постоянный интенсивный пентестинг со стороны спецслужб

    • Готовность лабораторий ИИ сотрудничать с военными

    Что-то напоминает


  1. anzay911
    05.06.2024 10:36
    +1

    Что требуется для должной защиты AGI:

    • Полностью изолированные дата-центры с системой безопасности как на военных базах

    • Новые достижения в области конфиденциальности вычислений и шифрования

    • Работа всех исследователей в защищенных помещениях

    • Строгая проверка персонала и мониторинг

    • Жесткий контроль внешних зависимостей

    • Постоянный интенсивный пентестинг со стороны спецслужб

    А потом генерала Брюстера попросят справиться с вирусом, захватившим половину интернета и второстепенные программы Пентагона.


  1. Timchikk
    05.06.2024 10:36
    +7

    Наверное такой же ажиотаж был в 60-х: только недавно все самолёты были поршневыми, а сейчас уже летают в несколько раз быстрее скорости звука, запустили спутник, потом человека, выход в открытый космос, летаем на орбиту как на работу, стыковки и проч., совсем скоро Луна - а потом точно Марс и т.д. С точки зрения этих ожиданий космическая программа "человечества" (в целом) влетела в бетонную стену к середине 70-х


    1. omega-hyperon
      05.06.2024 10:36

      Космическую программу перестали финансировать в требуемых для этих подвигов объемах. У НАСА сейчас весь бюджет меньше, чем был в середине 60-х под одну Луну. Для Марса к 1982-му просили в три раза больше, чем требовала лунная программа на пике.


      1. Johnneek
        05.06.2024 10:36
        +5

        Перестали финансировать, так как исчезли военные и экономические цели - стало понятно, что освоение Венеры невозможно, Луны и Марса - бессмысленно.

        С ИИ пока и близко не так - экономические и военные цели вполне осязаемы. Так что ближайшее десятилетие мегафинасирования гарантировано.


    1. kickstarter
      05.06.2024 10:36
      +1

      Космическая программа дала тысячи современных технологий, которые используются в нашем повседневном мире


      1. Timchikk
        05.06.2024 10:36
        +1

        Правильно (впрочем, не уверен про "тысячи"). Но ожидания 60-х были совсем о другом.


  1. Mike_666
    05.06.2024 10:36
    +1

    AGI доступный только военным США - перспектива страшная, как они поступили с атомной бомбой мы уже знаем.
    Будем надеятся что они не успеют достичь решаюшего перевеса и какой-никакой баланс в мире сохранится. Пока вся надежда на Китай...


    1. amazingname
      05.06.2024 10:36
      +5

      AGI доступный только военным США - перспектива страшная, как они поступили с атомной бомбой мы уже знаем.

      Закончили войну за 3 дня, а потом позволили Японии победить себя (США) в свободной конкуренции и стать одной из самых развитых стран мира. Ужас-ужас.


      1. Mike_666
        05.06.2024 10:36
        +10

        Сбросили ядерные бомбы на города не имевшие военного значения, убив многие тысячи мирных жителей включая женщин и детей, а война закончилась с разгромом квантунской армии, собственно бомбы на срок капитуляции повлияли мало.

        В Японии до сих пор размещены военные базы США, содержащиеся за счет Японии, причем служащие на них неподсудны местному суда, в том числе за преступления совершенные за пределами баз против местных жителей.

        По поводу свободной конкуренции тоже интересно, как только Япония начала закреплять победу в ней сразу же начались "Потерянные десятилетия" (и продолжаются по сей день)


        1. amazingname
          05.06.2024 10:36
          +4

          Война закончилась? Закончилась. Япония стала высокоразвитой страной? Стала. Какая-то прямая вина США в потерянных десятилетиях есть? Ее нет.

          А высосать из пальца при большом желании можно вообще все что угодно. Обычно это делается чтобы найти самооправдания, когда "в действительности все не так как оно на самом деле", ага.


        1. AlexeyZlobin
          05.06.2024 10:36
          +2

          Да, конечно не имеющие военного значения. Всего лишь ставка командования второй армии, что и должна было защищать остров от десанта США, а также армейские склады, где хранилось все, что требовалось, чтобы этот остров защищать.

          Ну и еще уничтожили одну из крупнейших военных верфей Японии.
          Такие вот "не имеющие военного значения" объекты.

          Вот что реально не имело значение, так это "разгром" отрезанной на материке Квантунской армии, что в общем-то и не сопротивлялась, так как сопротивление было бессмысленным, а самая армия ни на что не влияла. Уж вплавь они на Японские острова бы не отправились, чтобы защищать их от высадки десанта..

          Что реально повлияло на решение Японии перестать торговаться на переговорах о капитуляции и капитулировать без условий - так это не разгром армии, а само вступление СССР в войну, так как Япония пыталась использовать не объявившего ей войну СССР как посредника для того, чтобы выбить себе более приемлемые условия (если быть точнее, сохранение императорской власти над страной). Ну и Ядерные бомбы, что подстегивали перестать торговаться и капитулировать.

          >Потерянные десятилетия
          Парень, нам бы в России такие "потерянные" десятилетия, я бы от счастья прыгал.


          1. olezh
            05.06.2024 10:36

            Сами верфи Мицубиси не уничтожили, возможно только персонал, бомбу сбросили выше на жилой район Нагасаки, если речь об этом.


            1. AlexeyZlobin
              05.06.2024 10:36
              +2

              Уничтожили сталелитейные, орудийные и торпедные заводы. Прилет был в промзону, на жилой район никто бомбы не сбрасывал, какой смысл? Их и так взрывной волной снесло, а вот более крепкие заводы нужно было уничтожать тщательнее.


              1. olezh
                05.06.2024 10:36
                +2

                до и после взрыва *wiki
                до и после взрыва *wiki

                на жилой район никто бомбы не сбрасывал

                Затрудняюсь это комментировать


                1. AlexeyZlobin
                  05.06.2024 10:36

                  Что из слов ">Их и так взрывной волной снесло" тебе непонятно?
                  Даже на фото хорошо видно, что взрыв был вдали от частного сектора.

                  "Бомба взорвалась высоко над промышленной долиной Нагасаки, почти на полпути между сталелитейными и оружейными производствами Мицубиси к югу, и торпедным заводом Мицубиси — Ураками к северу, двумя главными целями в городе. Если бы бомба была сброшена дальше к югу, между деловым и жилым районами, то людской урон был бы намного больше."

                  Ты мне главное объясни, зачем нацеливать бомбу на жилые кварталы вместо промзоны, если их и так в любом случае взрывной волной снесет?

                  Просто потому что они "ЗЛЫЕ ЗЛЫДНИ УБИТЬ ПОБОЛЬШЕ МИРНЫХ ЯПОНЦЕВ УХ КАКИЕ МЫ ЗЛЫЕ!! ПУСТЬ ЗАВОДЫ СТОЯТ А МЫ БУДЕМ ПРОСТО РАЗБРАСЫВАТЬСЯ САМЫМ ДОРОГИМ ОРУЖИЕМ В МИРЕ ПУШТО МЫ НЕ ТОЛЬКО ЗЛЫЕ, НО ЕЩЕ И ТУПЫЕ" ?

                  Смешно же.


                  1. ksbes
                    05.06.2024 10:36
                    +1

                    А вот эти маленькие квадратики в ground zero - это куча маленьких заводиков таких? И вон тот овал у реки - полигон наверное?

                    Просто потому что они "ЗЛЫЕ ЗЛЫДНИ УБИТЬ ПОБОЛЬШЕ МИРНЫХ ЯПОНЦЕВ УХ КАКИЕ МЫ ЗЛЫЕ!! ПУСТЬ ЗАВОДЫ СТОЯТ А МЫ БУДЕМ ПРОСТО РАЗБРАСЫВАТЬСЯ САМЫМ ДОРОГИМ ОРУЖИЕМ В МИРЕ ПУШТО МЫ НЕ ТОЛЬКО ЗЛЫЕ, НО ЕЩЕ И ТУПЫЕ" ?

                    Про бомбёжки Токио почитайте, что ли. В том числе и американских военных теоретиков тех времён ... Очень не смешно, знаете ли ...


                    1. AlexeyZlobin
                      05.06.2024 10:36
                      +1

                      Еще разок, смотри. Есть район Гинза, его вообще нет на твоем фото, он находится дальше к югу, это был деловой квартал и он вообще толком не пострадал. Выше, к северу - были университеты и большая часть жилых домов, которые опять же мало пострадали. А на том фото, что у тебя - ПРОМЫШЛЕНЫЙ РАЙОН ГОРОДА.

                      И как мы видим, бомба прилетела прямо в промышленные объекты.
                      Были ли вокруг этих промышленных объектов дома? Ясен красен были, это же город. Снесло ли их взрывом? Ясен-красен снесло, они же были далеко не такие крепкие, как бетонные постройки.

                      Били ли специально по домам? Нет. Зачем? Ну окей, если бы цель была больше людей убить, тогда бомба прилетела не в промышленность, чтобы была холмами прикрыта, а за пределы твоего фото, либо в финансовый квартал, либо в университеты и дома. Но смысл?

                      Если же речь о том, что вместе с промышленностью и часть домов снесло, что рядом стояли...

                      Так ты погляди, от взрыва жилой сектор даже на другом берегу снесло. Зачем направлять бомбу на дома, если главная цель - разрушить весьма прочные заводы, которые и так, как ты видишь сумели устоять, а не обратиться в пыль, а ведь взрыв буквально над ними в воздухе произошел!


                      1. ksbes
                        05.06.2024 10:36
                        +1

                        Так всё таки и не почитали американских военных теоретиков? Ну что ж просвещу: цель была убить рабочую силу заводов и мобилизационный потенциал. Именно так. Явно и не скрываясь.
                        Вы, надеюсь, понимаете как это расшифровывается?

                        И вообще - именно там они особо не целились на самом деле : это была вообще запасная цель и сбрасывали из-за облаков не видя куда собственно бросают. Т.е. сбрасывали именно "на город", а не выцеливали конкретную точку. Так что не надо играть в техасского стрелка!


                      1. AlexeyZlobin
                        05.06.2024 10:36

                        Чел, еще раз. Причем тут американские военные теоретики, если ты говоришь о доктрине Дуа, которая была изобретена в Италии в межвоенный период и была популярной во всем мире. Согласно ей СССР бомбил Хельсинки в 1939 году. Согласно ей союзники стирали немецкие города. Согласно ей сожгли Токио.
                        Но воют почему-то лишь о Хиросиме и Нагасаки, хотя объективно, как раз именно эти два случая под доктрину подходят очень плохо, так как Доктрина гласит именно о другом - бомбардировать не укрепленную промышленность, а куда менее укрепленные дома рабочих, то есть прямо противоположное тому, что сделали в Нагасаки.

                        Но ты видимо пересмотрел Соловьева и считаешь, что это ЗЛЫЕ АМЕРИКАНЦЫ, единственные такие ужасные люди, что БОЖЕ МОЙ не заботились о мирном населении и БОМБИЛИ его! Ух плохие-злые американцы, хорошо, что остальные страны так не делали, верно?

                        А, нет, все так делали. И это было нормальной практикой Второй Мировой, так же как во времена Первой Мировой было нормой использовать газовые атаки, а до этого было нормой иметь рабов.

                        Представляешь, захватывали людей в РАБСТВО! Именно так. Явно и не скрываясь! Владели ДРУГИМИ ЛЮДЬМИ, БУДТО СКОТОМ Вон какие плохие-злые жили (вставь-любую-страну-нейм). И даже газом травили! ЛЮДЕЙ! Газом! Ух какие злые-плохие! (Вставить-цитату-любого-военного-теоретика-ПМВ-любой-страны-нейм-где-описывается-газовое-оружие)

                        >Вы, надеюсь, понимаете как это расшифровывается?
                        Это называется нормальная практика тех лет.
                        Однако, это если мы говорим о Доктрине Дуа, которая к ядерным бомбардировкам Хиросмы и Нагасаки никакого отношения не имеет.

                        >И вообще - именно там они особо не целились на самом деле
                        >это была вообще запасная цель и сбрасывали из-за облаков не видя куда собственно бросают. Т.е. сбрасывали именно "на город", а не выцеливали конкретную точку.
                        Да, это была запасная цель, однако то, что якобы не видели куда сбрасывают - опровергается тем, что попали идеально по промке. Допустим, повезло - окей. Но претензии-то какие?
                        Вот если бы попали НЕ по ПРОМКЕ, а чисто по гражданским - тогда можно было бы и обсуждать, специально ли это так сделали, согласно Доктрине Дуа или может быть это была случайность из-за плохой видимости. Однако, к счастью, в нашей реальности попали туда, куда попали.


                      1. ksbes
                        05.06.2024 10:36
                        +1

                        Понятно. Продолжайте играть в техасского стрелка! Отличная игра для игры с самим собой :)


                      1. AlexeyZlobin
                        05.06.2024 10:36

                        Нет, ты похоже так ничего и не понял.


      1. AlexeyZlobin
        05.06.2024 10:36
        +2

        База.


  1. wataru
    05.06.2024 10:36
    +3

    был пройден путь от моделей с интеллектом дошкольника до моделей, сравнимых с одаренным старшеклассником

    citation, как говориться, needed.

    одаренный старшекласник не будет предлагать жрать камни, например.


    1. Melirius
      05.06.2024 10:36
      +5

      Гхкм, после многих лет общения в Википедии с фриками в том числе и в кулинарном изводе я б не был так уверен... А если взять типичный киоск с многочисленными журналами "бабушкины советы по питанию", так и вообще...


  1. event1
    05.06.2024 10:36
    +2

    Если рассматривать область программирования, то все публичные репозитории на Github оцениваются примерно в 1 миллион токенов

    Может, я не правильно понимаю, как работает токенизация в коде, но на гитхабе лежит всё ядро линукс. Ядро содержит порядка 30 MLOC. В каждой строчке должно быть хоть пара токенов. Как при таких вводных на весь гитхаб выходит миллон токенов не понятно.

    В целом, прежде чем создавать супер-искин-программиста, скормите в трансформер какую-нибудь небольшую софтину и пусть он просто фиксит баги из трекера. Как технологический демонстратор.


    1. janvarev
      05.06.2024 10:36
      +3

      В целом, прежде чем создавать супер-искин-программиста, скормите в трансформер какую-нибудь небольшую софтину и пусть он просто фиксит баги из трекера.

      Да, так ты на 100B долларов видеокарт не продашь! /s


  1. zabanen2
    05.06.2024 10:36

    все так, ощущение, что сша ввязало и поддерживает конфликт ua-ru, чтобы самим соперничать с китаем в гонке ИИ


  1. NeoCode
    05.06.2024 10:36

    Единственное с чем соглашусь - "Свободный мир должен восторжествовать". Попадание AGI в руки авторитарным режимам, таким как Китай или Россия, чрезвычайно опасно. Всё остальное - какие-то неолуддитские страхи, не имеющие никаких оснований. ИИ по определению не имеет звериных инстинктов (которые собственно и делают любой интеллект опасным). Единственная опасность ИИ - это люди, которые его будут использовать.


    1. AlexeyZlobin
      05.06.2024 10:36
      +2

      Учитывая, какие возможности перед человечеством открывает сверхсильный ИИ... Страшно становится от мысли, что ОН доживет до такого. Омолодит себя и сколько еще сотен сроков придется его терпеть?


      1. Alexey2005
        05.06.2024 10:36

        Да даже доживать не обязательно - достаточно создать виртуальную личность. Для выступлений по ТВ этого хватит, а для появления на публике двойники есть.


  1. YuriPanchul
    05.06.2024 10:36
    +9

    С 2019 по 2023 год, от GPT-2 до GPT-4, был пройден путь от моделей с интеллектом дошкольника до моделей, сравнимых с одаренным старшеклассником.

    После этой фразы можно не читать, так как функционала "одаренного старшеклассника" у GPT-4 нет, а есть функционал "двоечника который пробует выкрутиться на экзамене выкладывая ассоциации без понимания в надежде что профессор поставит тройку". Если автор не понимает разницы, то он тупой.


    1. Timchikk
      05.06.2024 10:36
      +2

      Я, кстати, скармливал задачи по олимпиадной математике для 1 класса (в смысле с олимпиад по математике для 1 класса, хотя может что-то и для более старших брал, 2-3 класса - брал просто из pdf'ок за прошлые года, и вставлял) в GPT-4, в целом конечно прикольно что некоторые задачи решает, но некоторые даже после долгих "уговоров" нет... Иногда даже самую трудную часть рассуждений проводит, а потом тупит (если бы это был человек, то скорее наоборот было бы, тупить на сложной).

      Правда это было на русском, м.б. на английском чуть успешнее было бы.


      1. AlexeyZlobin
        05.06.2024 10:36

        >Пдфок
        Может ты ему контекст забил? Попроси его процитировать задачу, есть вероятность, что она для него обрывается на середине, вот и тупит.


        1. Timchikk
          05.06.2024 10:36

          Да нет, я имел ввиду просто ctrl-c - ctrl - v из файла с условиями (и решениями). Естественно просто (только) саму задачу, ну и ещё в конце можно попросить по шагам рассуждать, или как там модно делать.

          Я просто к тому, что каждый может взять с десяток таких олимпиад младших классов, повставлять в GPT-4 задачи и решить сам для себя, справляется ли он (ИИ) с ними на уровне "талантливого младшеклассника" :-) или нет ещё. Они с одной стороны простые, нет чего-то специфического, с другой стороны и подумать бывает надо над ними (пусть и недолго для взрослого человека). Лучше в этом смысле чем какие-то там тесты. Понятнее самому себе в смысле


  1. kareon
    05.06.2024 10:36
    +2

    Мне вот интересно, а откуда уверенность, что AI сможет создать что-то сверхчеловеческое, если все знания, которые у него есть сейчас - это просто трансформированный продукт умственной деятельности людей (та самая стена данных)? Что-то не слышал, чтобы он действительно создавал нечто принципиально новое. Ради интереса, было бы интересно обучить модель на научных текстах конца XIX века и посмотреть, сможет ли на этой основе воспроизвести какие-нибудь научные открытия, скажем, начала XX века...


    1. StGeass
      05.06.2024 10:36
      +1

      Все наши знания не принципиально новые, всё новое это трасформированный продукт умственной деятельности множества поколений людей

      Про принципиально новое, навскидку вот https://blog.google/technology/ai/google-deepmind-isomorphic-alphafold-3-ai-model/#life-molecules и вот https://deepmind.google/discover/blog/millions-of-new-materials-discovered-with-deep-learning/, первое про предсказание структур белков вместе с ДНК, РНК, лиганд и тем как они взаимодействуют, второе про предсказание структур кристаллов, в том числе стабильных, на нахождение которых "естественным" путём ушли бы столетия


  1. ifap
    05.06.2024 10:36
    +1

    Нам еще до понимания, как работает человеческий мозг, как до Луны пешком, а у него уже ИИ, превосходящий интеллект человека на носу, ага. Превосходящий по эрудиции - да уже полно, по способности самостоятельно мыслить, воображать, изобретать, да еще за пределами заданных паттернов - ха-ха.


    1. AlexeyZlobin
      05.06.2024 10:36
      +3

      В том-то и прикол, что не обязательно понимать.

      Да, мы не особо в курсе, что такое мышление, но зато мы в курсе что такое логика и если машины ее используют и дают реальные ответы на вопросы, то какая разница, ИМИТИРУЮТ ли они логику или в самом деле ею владеют?

      Пока что масштабирование моделей делает их умнее, а значит мы можем развиваться в этом направлении просто грубой мощью. Учитывая, что нейросети демонстрируют просто небывалую склонность к эмирджентности - сверхинтеллект более чем реален. Читал недавнюю статью про переобучение нейросети?

      https://arxiv.org/abs/2405.15071

      Вот, почитай. Так сказано про эффект, что назвали грокингом.

      Обычно обучение нейросети останавливают в момент, когда ее показатели начинают ухудшаться, но согласно исследованию, если продолжить просто обучать ее дальше, в десятки раз - она формирует внутреннюю логику. Это потребует лишь ресурсов и мощности, то есть у нас уже есть два перспективных и реальных способа улучшать модели, первый - повышать масштаб, а второй - обучать дольше. Мы и близко не уперлись в потолок.


  1. mytsyk
    05.06.2024 10:36
    +17


  1. Vladionair
    05.06.2024 10:36


  1. andy1618
    05.06.2024 10:36
    +1

    Если рассматривать область программирования, то все публичные репозитории на Github оцениваются примерно в 1 миллион токенов.

    Тут что-то не так. 1 миллион токенов (даже не Lines of Code) - это вполне по силам обычному много пишущему разработчику. Соответственно, исходя из примерного числа гитхаб-писателей, цифра должна быть на 6-7 OOM выше (т.е. триллионы токенов).


    1. vtb_k
      05.06.2024 10:36

      цифра должна быть на 6-7 OOM выше

      Токен - это уникальное слово. Откуда возьмутся миллионы уникальных токенов, когда половина гитхаба просто копии "Hello world"?


      1. andy1618
        05.06.2024 10:36

        Эмм. Там же BPE токенизация, т.е. токены - это даже не слова а их части. И уникальных - там да, несколько десятков тысяч. Т.е. речь явно не о них.

        В общем, руки дошли посмотреть оригинал - подозрения подтвердились, на стр. 26 написано дословно следующее:
        "Moreover, for more specific domains like code, there are many fewer tokens still, e.g. public github repos are estimated to be in low trillions of tokens."


  1. Dark983
    05.06.2024 10:36

    Очень обидно, что этими тенденциями у нас в СНГ не интересуются, и верят в то, что "ИИ не заменит нас минимум 10-20 лет".

    Хороший разбор статьи, +карма


    1. AlexeyZlobin
      05.06.2024 10:36

      Ну, объективности ради - они правы.
      На западе - заменят, а нас - вряд ли.

      Для создания ИИ России нужны... Ладно, давай сделаем вид, будто 2022 года в природе не существовало и просто представим, что все шло бы как шло с 2021 года.

      Да, у нас отличные программисты и в целом есть кадры для такой задачи, НО!
      У нас нет мощностей. Ангрстрем обанкротился, Байкалы производятся на тайване, своих мощных ГПУ нет даже в проекте. Где взять дата-центры на сотни тысяч ГПУ? Да, можем колхозить из потребительских видеокарт, типа 4090.

      Но во-первых, Россия попросту не потянет такие затраты, потому что Россия - это не Китай.
      А во-вторых, как быстро запад бы прикрыл технологическую лавочку, как сейчас ужимает ее Китаю?

      Есть конечно вариант, при котором лавочку бы не прикрыли - присоединиться к европейской семье, выступить против Китая и тогда ВОЗМОЖНО с нами поделятся технологиями, но это мечты уровня того, чтобы в России самим организовать вторую Интел.

      А после 2022 году - это и вовсе даже не мечты, а беспросветные бредни наркомана.

      Так что нет, массово нас не заменят, а то, что кто-то будет по серому импорту покупать западные ИИ-продукты и ограниченно заменять своих работников - на общей картине мало скажется. Уверен, Китай осилит конкуренцию с западом в ИИ, в итоге США, Европа и Китай - опять уйдут вперед, а мы останемся сосать лапы и клепать танки со словами "Не нужон ваш ентот ИИ"


  1. antonival
    05.06.2024 10:36

    Как-то он не упомянул про самый очевидный сдерживающий фактор. Модели машинного обучения напрямую зависят от данных на которых они обучены. А на текущий момент все открытые данные с интернета - уже спылесошены. И огромное количество недостающих данных для создания AGI просто не откуда брать. Для этого придётся разрабатывать новые техники сбора данных, которые, скорее всего, будут очень дорогими и долгими. Поэтому нельзя линейно экстраполировать текущий прогресс.

    Ещё непонятно на основании чего он сравнил GPT-4 с уровнем старшеклассника. По отдельным характеристикам она, конечно, не только старшеклассника, но и кого угодно задвинет. Но по соображалке в целом, она конкурировать с человеком пока не может. Причём, проблемы там структурные, а не количественные. Так что, здесь ещё и текущий уровень развития завышен.


    1. FirExpl
      05.06.2024 10:36

      Для этого придётся разрабатывать новые техники сбора данных, которые, скорее всего, будут очень дорогими и долгими.

      Люди используюя нейросети будут генерить новые данные, на которых будут дообучаться нейросети, с помощью которых люди будут генерировать ещё больше данных ... пока в каокой-то момент люди не будут исключены из цепочки за ненадобностью :)

      Ещё непонятно на основании чего он сравнил GPT-4 с уровнем старшеклассника.

      ИМХО, когда физик на старости лет резко ударяется в религию, биолог начинает рассказывать про пользу гомеопатии, а исследователь ИИ начинает рассказывать про всё пропало и мы все умрём из-за ИИ, это признак того, что этот учёный сломался - несите другого учёного


      1. Wesha
        05.06.2024 10:36

        Люди используюя нейросети будут генерить новые данные, на которых будут дообучаться нейросети,

        Вот только проблема: если в бочку молока добавить стакан овна — получится бочка овна.


        1. FirExpl
          05.06.2024 10:36

          Человечество как-то решало эту проблему до появления нейросетей, будет точно так же решать и и когда нейросети уже появились.


  1. Nvlk
    05.06.2024 10:36

    Тоже склонен считать, что это связано с пузырём в американском фондовом рынке. Все пишут про кризис дот-комов, но никто не вспомнил про Монреальский протокол с помощью которого США нанесли сильнейший удар по экономике СССР и выкинули с рынка качественные и дешёвые российские холодильники. Это одна сторона медали.
    Параллельно с "развитием" ИИ хозяева денег вкладывают немалые средства в противоположный процесс - упрощение человека. Вы не находите, Уотсон?
    При чём под упрощением я понимаю не только отрезание людей от точных наук в пользу гуманитарных. Речь идёт о большем - упрощении мышления и установку его в рамки готовых "формочек": BLM, зелёной повестки, равноправия.


  1. Bkmz1986
    05.06.2024 10:36

    И все эти фантазии идут на хутор обломав зубы на энергопотреблении, нужное количество которого могут построить только 3 страны в мире и займет это в лучшем случае 30-50 лет. Стоить будет в 100 раз дороже сего суперкластера. И главное, поддерживать стабильное количество энергии будет адово сложно ибо инфраструктура той же США сейчас постоянно сваливается в блекауты. Все эти фантазии о будущем где все будут делать роботы рушится на примитивном - отсутствии достаточного количества электроэнергии. И пока не будет придуман компактный реактор способный вырабатывать энергии как солнце или суперчип размером с смартфон, все это не более чем сказка.


  1. ivan_ilushenko
    05.06.2024 10:36
    +1

    С 2019 по 2023 год, от GPT-2 до GPT-4, был пройден путь от моделей с интеллектом дошкольника до моделей, сравнимых с одаренным старшеклассником. Этот гигантский скачок произошел всего за 4 года.

    Нет, это ложное утверждение. GPT-4 знает много, но модель не обладает интеллектом. Это понимает любой, кто поработал с LLM хотя бы один рабочий день. Ее нельзя сравнивать ни со старшеклассником, ни с дошкольником. По объему знаний? Ну давайте с википедией еще сравнивать, та тоже много "знает".
    LLM не может стать AGI, сколько весов в нее не заливай, просто потому что это языковая модель. Она может делать крутые штуки, она может быть очень большой, но это просто языковая модель.

    AGI скорее всего будет, но весьма вероятно он будет построен на несколько других принципах. Предсказать его появление со сколько-нибудь адекватной точностью практически невозможно, т.к. в ИИ вкладывают большие деньги, им занимается много людей, прорывное открытие может случиться хоть завтра (а может и через 10+ лет).

    Но кто сказал, что AGI будет намного умнее человека? Современным LLM системам зачастую требуются десятки минут, чтобы пофиксить простой баг в гитхаб репозитории. Это быстро, но сравнимо с человеком. Это не микросекунды. Если мы сделаем AGI, то вполне возможно что он будет думать не намного быстрее и не намного лучше человека. Плюс только в том, что, в отличие от человека, AGI можно распараллелить на множество устройств, но технологической сингулярности может и не быть.

    AGI может эффективно использовать все знания Интернета? Ну давайте сделаем чип в мозг к человеку с прямым подключением к Интернету, чем не сверхразум? Добавим в чип АЛУ для быстрых вычислений и точную память. Может быть AGI появится в этом направлении, как синтез человека и машины.

    В общем, скептически я отношусь к технологической сингулярности (тм). Особенно в ближайшее десятилетие, весьма маловероятно.


    1. AlexeyZlobin
      05.06.2024 10:36

      >LLM не может стать AGI, сколько весов в нее не заливай, просто потому что это языковая модель.
      А примитивные муравьи не образуют куда более сложноорганизованный муравейник, сколько бы муравьев мы не собрали в одном месте?
      Упс. Таки образуют.

      Также как ЛММ достигли нынешнего состояния из примитивного алгоритма аля Т9, из ЛММ вполне может получиться AGI, нужно лишь масштабировать модель.
      Эмерджентность, она такая, собака.


      1. ivan_ilushenko
        05.06.2024 10:36
        +1

        А если увеличить количество муравьев в муравейнике в миллион раз, они образуют супер-муравейник, построят космический шаттл и полетят к звездам?

        Упс. Не полетят. Эмерджентность существует, но у любого явления есть границы.


        1. AlexeyZlobin
          05.06.2024 10:36

          Я бы не был столь категоричен, как знать - дай им миллионы лет и вполне себе и построят и полетят. :3

          Мы же как-то полетели.

          Конечно у явления есть границы, однако мы говорим не о каких-то магических свойствах, а лишь об увеличении интеллекта (Или улучшения имитации интеллекта, если так угодно) и это вполне прогнозируемая штука.


          1. ivan_ilushenko
            05.06.2024 10:36

            Мы полетели не из-за эмерджентности, а из-за качественного и радикального изменения подхода к выживанию (относительно муравьев).

            По поводу прогнозирования тоже поспорю - на момент появления трансформеров в 2017 году никто и не догадывался, какими свойствами могут обладать 175B трансформеры, обученные на триллионах токенов.

            Однако попытка масштабировать те же конволюционные сети до условно 100B ни к чему хорошему не приводят, они не становятся умнее. Попытки сделать из LSTM большие и сильные LLM тоже пока мало к чему привели (недавно была статья о новых LSTM, но они все равно хуже трансформеров).

            Т.е. где-то у трансформеров, как и у любой архитектуры, есть предел, где он - предсказать сложно, не скажем пока не уткнемся.

            Плюс у всех нейросетей есть большой минус - отсутствие памяти, "жизненного опыта" если хотите. Каждый инференс мы должны передавать им весь предыдущий контекст, это жутко неэффективно и накладывает сильное ограничение на существование AGI в этой парадигме. Представьте, что вы используете AGI дома на протяжении 20 лет, вы каждый инференс будете передавать 20-летнюю историю? Можно попытаться соорудить память, как в mLSTM, но там свои ограничения. Т.е. сеть останавливается в развитии в момент окончания обучения. Онлайн-обучение какой-нибудь GPT-4 это пока трудоемкая задача.

            А если у большой сети будет своя память, то не "сойдет ли она с ума" от миллионов запросов в секунду? Делать отдельную память (читай личность) под каждого пользователя? Как вариант, но кажется здесь тоже будут ограничения.


            1. inkelyad
              05.06.2024 10:36
              +1

              Плюс у всех нейросетей есть большой минус - отсутствие памяти, "жизненного опыта" если хотите.

              Это от недостатка вычислительных ресурсов. По хорошему - надо каждому свой экземпляр, которые периодически дотренеровывается на том самом контексте, получая тот самый жизненный опыт в долговременную память. (Контекст, соответственно, можно считать кратковременной).

              Делать отдельную память (читай личность) под каждого пользователя?

              Да.

              Т.е. сеть останавливается в развитии в момент окончания обучения.

              А тут недостаток терминологии. ИИ нужно считать не конкретный набор весов, а систему с обратной связью, которая этот набор весов модифицирует.

              Собственно, я считаю, то та же ОpenAI целиком - искусственный, сильный, человеко-машинный "Hive Mind" интеллект.


              1. ivan_ilushenko
                05.06.2024 10:36

                По вычислительным ресурсам тоже вопрос - мы не знаем, как долго мы можем увеличивать наши вычислительные возможности и сколько их потребует AGI.

                Может так случиться, что не хватит. Или это будет планетарный AGI в единственном экземпляре.

                При дообучении огромной модели после каждого инференс запроса много инженерных трудностей. Это как с колонией на Марсе - теоретически вроде хоть сейчас, но на практике надо прорву денег, пока не получится и по срокам тоже хз.

                Как по мне, слишком много неопределенностей для прогноза "AGI к концу десятилетия".


                1. inkelyad
                  05.06.2024 10:36

                  При дообучении огромной модели после каждого инференс запроса много инженерных трудностей.

                  Не запроса. А так же как с живыми мозгами почти всех животных. Два режима - бодрствования, когда существующие веса используются и личный опыт складируется в контекст. После какого-то промежутка - режим 'сна', когда накопленная информация сортируется и усваивается путем дообучения таблицы весов.

                  Ну и да, это более-менее подразумевает, что оно не облачная одна модель на всех и для всех случаев, а персональная - под конкретное место и задачу. Так что вряд ли AGI каждому к концу десятилетия - железа нужного не будет.

                  А вот несколько штук - я думаю вполне реально, если попытаться. Только никому не нужно. Потому что оно не будет общаться одновременно с миллионом людей, будучи специалистом во всех отраслях знания, как всем хочется.


          1. Wesha
            05.06.2024 10:36

            дай им миллионы лет и вполне себе и построят и полетят.

            Им уже дали что-то около ста этих самых миллионов лет. Результат — на лице.


        1. Apxuej
          05.06.2024 10:36
          +3

          Прямо интересно, какую человеческую деятельность по Вашему не LLM, а именно мультимодальные модели не способны будут выполнить? Мы уже знаем, что нам не нужно собирать разные модели - каждая для своей задачи - достаточно обучить одну модель. С учётом того сколько денег сейчас вбухивается - количество качественной, специально подготовленной и заточенной информации будет расти день ото дня (а шлак будет отсеиваться), также как и вычислительные мощности вырастут на пару порядков. Модели сейчас - это прошлогоднее старьё обученное на едва причёсанном по большей части рандомном шлаке - худшее состояние в котором они когда-либо будут, но даже они уже дают прикурить огромной части населения планеты даже в плане житейской логики. Т.е., например, они уже могут составлять логические цепочки, дают верные ответы на вопросы о повседневном физическом взаимодействии вещей и могут в теорию разума. Посмотрите хотя бы на более или менее свежую GPT4o - и это ещё, по косвенным признакам, относительно лёгкая и быстрая модель - основная цель которой поразить народ привычным для людей способом взаимодействия. И притом ещё никто не запихивал в эти модели кинестетические и кинематические наборы данных, чтобы они имели хотя бы паритет с человеком по типам доступной информации.

          Я в целом могу понять скепсис. Пока не особо видно и слышно людей, которые теряют работу, а если и слышно, то их немного. Думаю настоящая паника начнётся, когда модели получат выше упомянутые данные о том, как физически человек взаимодействует с миром, а не будут пытаться ориентироваться по теням в пещере. Ведь это поможет ИИ разрабатывать интерфейсы взаимодействия человека с объектам вещественного мира и быть эффективным роботом (т.е. под угрозой как минимум 30% рабочих мест в мире). Хотя достаточно мощные модели смогут обойтись и без этих данных - выведут всё на основе только видео данных.

          В целом я согласен с уволенным чуваком из open AI, что к 2027-28 году у нас будет реальный AGI, т.е. штука которая способна превзойти любого среднего человека в любой мыслимой человеческой активности. А через пару лет способная превзойти уже не среднего, а лучшего человека. Для прямо суперИИ - во много раз превосходящего любого человека возможно потребуется чуть больше времени, думаю к 2034 он будет. Потом пяток золотых лет человеческой цивилизации - прямо как в фантастических фильмах, а затем суперИИ, таки закончит подготовку и перейдёт в завершающему этапу исполнения своей терминальной цели, какой бы она не была.


          1. ivan_ilushenko
            05.06.2024 10:36

            Модели могут поражать воображение своими ответами на довольно сложные вопросы, и ровно эти же модели могут поражать воображения абсолютно идиотскими ошибками, которые человек никогда не совершит.

            Вот буквально, сейчас она рассуждает о теории разума, следующим запросом фейлится на задачке вида "в комнате было 4 свечи, 3 свечи задули, сколько в комнате осталось свечей?"

            Подсовываешь фотографию автомобиля и спрашиваешь что это, она распишет про эту марку и ее характеристики абсолютно все. Поменяешь один пиксель, и модель становится уверенной, что смотрит на банан.

            Это прямо следует из того факта, что человек и модель получают и обрабатывают информацию принципиально разными способами, см. adversarial attacks.

            Устранимо ли это простым увеличением размеров модели и качества данных? Не знаю, время покажет. Может сказаться, что и нет. На сегодняшний день атакам подвержены все модели, вне зависимости от размера.

            Будете ли вы доверять такой модели ключевые и ответственные решения? Кажется, что нет.

            Ключевая разница между МЛ моделями и человеком: модель не умеет адекватно экстраполировать. Она не способна сделать какой-либо вывод на данных, выходящих за пределы обучающей выборки. Т.е. если модель учить на данных, сгенерированных предыдущими поколениями моделей, то модель деградирует.

            Человек, учащийся на данных, сгенерированных предыдущими поколениями людей, развивается.

            Появится ли это свойство при увеличении размеров моделей еще на три порядка? Хз, поглядим. Может быть это и будет ключевым свойством AGI.


            1. AlexeyZlobin
              05.06.2024 10:36

              >Вот буквально, сейчас она рассуждает о теории разума, следующим запросом фейлится на задачке вида «в комнате было 4 свечи, 3 свечи задули, сколько в комнате осталось свечей?

              Новые нейросети уже не фейлятся.... Если они достаточно крупные и умные.


            1. Kanut
              05.06.2024 10:36
              +1

              "в комнате было 4 свечи, 3 свечи задули, сколько в комнате осталось свечей?"

              И у этого вопроса есть один единственный правильный ответ? Потому что мне в голову пришли два возможных. Ну или по крайней мере два, которые лично я бы принял :)


              1. Wesha
                05.06.2024 10:36

                Однако при любом раскладе ответ "одна" ни я, ни Вы бы не приняли.


            1. unC0Rr
              05.06.2024 10:36
              +1

              могут поражать воображения абсолютно идиотскими ошибками, которые человек никогда не совершит

              Вы преувеличиваете способности человека. Вот прямо сейчас половина людей Земли покажется вам пещерными дремучими дикарями, если вы попытаетесь с ними пообщаться.


            1. Apxuej
              05.06.2024 10:36
              +1

              Модели могут поражать воображение своими ответами на довольно сложные вопросы, и ровно эти же модели могут поражать воображения абсолютно идиотскими ошибками, которые человек никогда не совершит.

              Попробую угадать: Вы общаетесь с людьми из довольно узкого круга - с работы, друзьями с университета и тп. Иначе Вы бы были более осторожны с "никогда не совершит" утверждениями, даже в отношении самых тривиальных областей знаний или цепочек логических рассуждений. Но если исключить довольно большую группу людей (по ощущениям процентов 10 взрослого населения), то я в целом согласен - современные модели людям не ровня.

              adversarial attacks

              Люди и другие существа биологического происхождения с нервной системой также подвержены подобным атакам, хотя и в гораздо меньших масштабах, потому что естественный отбор сделал своё дело.

              Насколько я понял из объяснений людей, которые занимаются тестированием различных моделей и некоторых статей, против подобных атак есть много способов противодействия - что в итоге приведёт к практически полному их искоренению. Почему я так уверен? Потому что информация в отравленных примерах всё ещё там и нет некой универсальной атаки против которой невозможно подобрать противоядие, т.е. можно ожидать исчерпания векторов атак как это произошло с биологическими системами.

              Ключевая разница между МЛ моделями и человеком: модель не умеет адекватно экстраполировать. Она не способна сделать какой-либо вывод на данных, выходящих за пределы обучающей выборки.

              Вы ошибаетесь, в рамках контекста современные модели способны учиться и делать выводы выходящие за рамки обучающей выборки. И ситуация с крошечным окном контекста стремительно улучшается.

              Т.е. если модель учить на данных, сгенерированных предыдущими поколениями моделей, то модель деградирует. Человек, учащийся на данных, сгенерированных предыдущими поколениями людей, развивается.

              Я не совсем понимаю - если Вас будет обучать ребёнок Вы также деградируете или останетесь на том же уровне. Или нет, в зависимости от компетентности ребёнка в том или ином вопросе, а также его способности предоставить другой тип опыта - не связанный непосредственно с его знаниями. Тоже самое с моделями.

              В чём принципиальная разница между слабыми и сильными моделями? Слабые модели по тем или иным причинам не смогли найти некоторые общие закономерности или даже создать некие абстракции - будь это недостаток данных или мощности и продолжительности обучения. Т.е. допустим они видели х*1000 аварий автомобилей и х*10 других деформирующихся при столкновении объектов. Человек при достаточно маленькой выборке, даже с учётом встроенных биологических систем в мозге (ака инстинктов), при отсутствии опыта взаимодействия с объектами окружающего мира в детстве (допустим паралитик) думаю будет испытывать трудности при попытке представить как объект будет деформироваться, если его бросить в стену, но более или менее сможет представить что произойдёт с машиной, которая врезается в столб. Т.е. выборка вероятно достаточна для оценки свойств взаимодействия конкретных объектов, но не достаточна для вывода принципов материаловедения, а в самом общем случае - физических законов, поэтому модель найдёт приближенную закономерность.

              Более сильные модели нашли более общие закономерности, т.е. нашли способ "архивировать" группу разрозненных закономерностей в одну общую (отсюда и появление новых способностей), но при этом не факт, что успели избавиться от эвристик, которые они нашли на ранних этапах обучения, либо обязаны были их сохранить, чтобы как-то увязывать противоречивую информацию в выборке. Т.е. всё опять упирается в говняные данные и недостаток времени/мощности обучения, чтобы произвести качественную дистилляцию.

              Я не спорю что люди и текущие модели отличаются по способу мышления, т.е. в способе решения поставленных задач, но для меня также очевидно процесс схождения идёт и идёт очень быстро. И я не вижу ни одной причины почему вдруг этот процесс остановится, в самом худшем случае, если денежные потоки иссякнут, скорость этого процесса замедлится, но не остановится - ящик Пандоры уже открыт.


    1. Wesha
      05.06.2024 10:36

      Современным LLM системам зачастую требуются десятки минут, чтобы пофиксить простой баг в гитхаб репозитории.

      Все постоянно забывают, что сами "современные LLM системы" не могут "пофиксить простой баг". "Пофиксить баг" — это когда "баг был; [чёрный ящик]; бага нет". А сейчас "чёрного ящика" нет, в его роли выступает связка "нейросеть + человек" — без человека, который скажет "ни фига это не фикс, а ну переделал быстро!" оно не работает.


  1. Mausglov
    05.06.2024 10:36

    Когда микроскопы (или телескопы) поработят человечество, я признаю, что Леопольд Ашенбреннер был прав, а я заблуждался. Но до той поры останусь скептиком.


  1. AlexanderS
    05.06.2024 10:36

    Интересно, как бы автор прокомментировал новость, что "ИИ может столкнуться с дефицитом данных с 2026 г"?


  1. Neiruha
    05.06.2024 10:36

    Спасибо за хорошо-структурированное резюме и качественный перевод. Но возникает желание все-таки прочитать оригинал.
    Потому что на вопрос, а сколько будут стоить упомянутые в статье 100 миллионов ИИ - инженеров (в денежных затратах, в энергетических затратах и затратах на неизбежное людское сопровождение)

    Тех самых ученых, которые будут проектировать ASI. Насколько эти затраты по силам человечеству?




  1. Timchikk
    05.06.2024 10:36

    Автор статьи мне кажется реально болен. Всё время проводить прямую аналогию между Китаем и нацистской Германией, ну это надо быть очень уже не знаю что.... Ещё и воевать собрался судя по всему

    We’re developing the most powerful weapon mankind has ever created. The algorithmic secrets we are developing, right now, are literally the nation’s most important national defense secrets—the secrets that will be at the foundation of the US and her allies’ economic and military predominance by the end of the decade, the secrets that will determine whether we have the requisite lead to get AI safety right, the secrets that will determine the outcome of WWIII...


    1. AlexeyZlobin
      05.06.2024 10:36

      Мне кажется, что наоборот - болен ты.

      Где ты вообще в тексте хоть одну аналогию Китая с Рейхом нашел?


      1. Timchikk
        05.06.2024 10:36
        +1

        Вы вообще читали её? Почитайте часть IIIb, да и другие. Хотя бы частое упоминание про важность секретности при разработке атомной бомбы, чтобы она не попала к Германии, и тут же переход(ы) к тому, что также важно, чтобы хоть что не утекло в Китай, потому что Китай... ну вот непонятно что Китай конкретно сделает, но что-то очень плохое для free world (то есть США). Нет, извините, но у автора - если конечно считать что он всё реально всерьёз пишет - крыша поехала на теме CCP is coming, и он из окна сейчас выбросится.

        ...а нет, понятно что сделает, IIId, "authoritarians could use superintelligence for world conquest", поэтому "superintelligence is a matter of national security, and the United States must win"

        ...А, ну вот, пожалуйста, там же в IIId: "Perhaps possessing those initial superintelligences alone, even before being broadly deployed, would be enough for a decisive advantage, e.g. via superhuman hacking abilities that could shut down presuperintelligence militaries, more limited drone swarms that threaten instant death for every opposing leader, official, and their families, and advanced bioweapons developed with AlphaFold-style simulation that could target specific ethnic groups, e.g. anybody but Han Chinese".

        То есть автор прямо пишет, что китайцы возьмут и умертвят всех не-китайцев. Надеюсь тут-то уже не надо пояснять за аллюзию? Кстати, автор - из Германии, знает видимо толк в геноциде


        1. AlexeyZlobin
          05.06.2024 10:36

          Так еще раз, все верно - ИИ также важны, как ядерная бомба.
          И абсолютно точно они не должна попасть в руки китайцев. Или ты хочешь, чтобы соцрейтинг по всей планете был? Китай уже сейчас демонстрирует склонность к тотальному контролю за населением, а уж с ИИ он и вовсе во всю ширь развернется.

          > ну вот непонятно что Китай конкретно сделает, но что-то очень плохое для free world (то есть США)
          То же, что он делает и сейчас, только лучше и с ИИ.
          Дестабилизация, экспансия, поддержка авторитарных лидеров...

          >authoritarians could use superintelligence for world conquest
          Опять же чертовски верно. В чем ошибка? ИИ сделают авторитарные режимы более устойчивыми.

          >что китайцы возьмут и умертвят всех не-китайцев.
          Нет, он написал, что китайцы возможно, СМОГУТ это сделать. А может ограничатся трудовым перевоспитанием в лагерях, как это сделали для уйгуров. И кстати, то, что китайцы делают с уйгурами, вполне подходит под определение геноцида.

          Однако все еще я не увидел аллюзий на Рейх. Или по твоему геноцидом только он занимался? Да нет, в общем-то, много кто им занимался.


      1. Timchikk
        05.06.2024 10:36
        +1

        А с Россией знаете что автор предлагает сделать? "We’ll need to subvert Russia". Ну то есть дословно "стереть с лица земли" в одном из смыслов значения subvert a country. Ну тут точно немецкие корни прорвались у товарища


        1. Wesha
          05.06.2024 10:36

          знаете что автор предлагает сделать?

          Очень знакомый тип мышления. Где-то я его слышал...

          ...он увидел, какой может быть ненависть, и убедился, до чего же мелка людская ненависть, если постигнуть глубину, силу и дикую кровожадность ненависти пуудли. Это не слепая ненависть, бессмысленная и непоследовательная, которая ведет к поражению, а разумная, расчетливая, целенаправленная. Она приводит в движение умную, разящую без промаха машину, натравливая хитрого и кровожадного зверя на любое живое существо, не являющееся пуудли. Поведение пуудли подчинено закону самосохранения, заставляющему его опасаться всех и каждого. Он толкует этот закон так: безопасность гарантируется только... смертью всех прочих живых существ. Чтобы совершить убийство, пуудли не требуется никакого повода. Достаточно того, что другое существо живет, движется; уже самим этим фактом оно представляет угрозу — пусть даже самую незначительную — для пуудли.

          — Клиффорд Саймак. Спокойной ночи, мистер Джеймс.

          Мужик явно с натуры писал.


        1. AlexeyZlobin
          05.06.2024 10:36

          Так круто же, полностью его поддерживаю. Жаль, что он этим не займется и придется нам самим как-то разбираться с той кучей говна, что мы сами наворотили своей пассивностью и аполитичностью.