Команда VK Cloud перевела интервью с Эйданом Гомесом, генеральным директором и соучредителем компании Cohere. Cohere — один из самых обсуждаемых стартапов в сфере ИИ на данный момент, но его ориентир чуть отличается от многих других. В отличии, например, от OpenAI, он вовсе не производит потребительские продукты. Вместо этого Cohere сосредотачивается на корпоративном рынке и создает ИИ-продукты для крупных компаний. Из интервью вы узнаете, в чем особенности такого подхода, что ИИ может, а чего не может, и что происходит на корпоративном рынке искусственного интеллекта.

О чем пойдет речь

В первую очередь мы с Эйданом поговорили о том, чем отличается такой подход и почему он дает Cohere гораздо более четкий путь к прибыльности по сравнению с некоторыми конкурентами. Вычислительные мощности дорогостоящие, особенно в ИИ, но структура Cohere дает его компании преимущество, так как не требует тратить столько денег на создание своих моделей.

Еще одна интересная тема — это преимущества конкуренции на корпоративном рынке. Многие отрасли высоких технологий очень сильно сконцентрированы на ограниченном количестве вариантов для различных услуг. Если вам нужны графические процессоры для ваших ИИ-моделей, то вы, вероятно, покупаете что-то от Nvidia — желательно целый стек Nvidia H100, если сможете их получить.

Но Эйдан отмечает, что его корпоративные клиенты одновременно склонны к избеганию рисков и чувствительны к ценам: они хотят, чтобы Cohere работала в конкурентной среде, так как это позволит им заключать более выгодные сделки, вместо того чтобы быть привязанными к одному поставщику. Поэтому с самого начала Cohere должна была быть конкурентоспособной, что, по словам Эйдана, способствовало процветанию компании.

Мы также много говорили о том, что ИИ может и чего не может. Мы согласились, что он определенно еще не достиг высочайшего уровня. Даже если вы обучаете ИИ на ограниченном, специфическом, глубоком наборе данных, например по контрактному праву, все равно нужен человеческий контроль. Но Эйдан считает, что ИИ в конечном итоге превзойдет человеческие знания в таких областях, как медицина. 

Есть действительно большое противоречие, которое заставит нас спорить на протяжении всего этого эпизода. До недавнего времени компьютеры были детерминированными. Когда вы вводите в них определенный входной сигнал, вы точно знаете, какой результат получите. Это предсказуемо. Но если мы все начнем разговаривать с компьютерами на человеческом языке и получать ответы на нем же... что ж, человеческий язык запутанный. Это сделает другим весь процесс понимания того, что вводить и какой именно результат мы получим от компьютеров. Мне очень хотелось узнать, думает ли Эйдан, что современные LLM могут оправдать все наши ожидания от ИИ, учитывая эту путаницу.

Теперь перейдем к самому интервью.

Я рад, что нам удалось побеседовать. Создается впечатление, что Cohere придерживается уникального подхода к ИИ. Я хочу обсудить это и конкурентную среду. Мне не терпится узнать, считаете ли вы сложившуюся на рынке ситуацию пузырем.

Начну с очень большой темы. Вы один из восьми соавторов статьи, с которой все началось, — Attention is all you need. В ней описан Transformer Google (прим. пер.: трансформер — это название архитектуры нейросети, которая была придумана исследователями Google в 2017 году). На него указывает буква T в GPT. 

Когда снимают документальные фильмы про музыкальные группы, очень часто используют клише: сначала дети играют на инструментах в гараже, а потом они сразу взрослые и выступают на стадионе. Но никто никогда не показывает промежуточные стадии.

Когда вы писали статью и разрабатывали трансформер, вы были «в гараже», верно? Когда вы поняли, что эта технология станет основой современного бума ИИ?

Думаю, я этого не понимал. Пока мы работали, это казалось обычным исследовательским проектом. Казалось, что мы делаем успехи в области перевода, для которого мы и создали трансформер, но это была довольно хорошо понятная, известная проблема. У нас уже был Google Переводчик — мы хотели немного улучшить его. Мы повысили точность на несколько процентов, создав архитектуру трансформера — и мне казалось, что на этом все. Это и есть наш вклад: мы немного улучшили перевод. Позже мы начали замечать, что сообщество подхватывает нашу архитектуру и начинает применять ее во многих задачах, которые мы никогда не рассматривали при ее создании.

Потребовался примерно год, чтобы сообщество обратило внимание на нашу работу. Сначала она была опубликована, ее представили на академической конференции. Затем мы начали наблюдать эффект снежного кома: все начали адаптировать ее к новым сценариям использования. Ее начали применять в других приложениях, связанных с обработкой естественного языка (NLP). Затем мы увидели ее применение для языкового моделирования и представления языка. Именно тогда все начало меняться.

Это очень знакомый процесс для любого нового технологического продукта: 

  1. Люди разрабатывают новую технологию для определенной цели.

  2. Многие начинают использовать эту технологию.

  3. Цель меняется, случаи использования выходят за пределы того, что предполагали изобретатели.

  4. Следующая версия технологии подстраивается под то, что делают пользователи.

Такое же изменение произошло с трансформерами и большими языковыми моделями. Но создается впечатление, что разрыв между возможностями технологии и ожиданиями людей увеличивается.

Поскольку вы были у самого истока и наблюдали это первое изменение, считаете ли вы, что мы заходим дальше возможностей технологии?

Ожидания растут кардинально, и это забавно. Технология значительно улучшилась и стала полезнее.

Когда семь лет назад мы создали трансформер, никто и не думал, к чему это приведет. Все произошло гораздо быстрее, чем можно было предположить. Но это лишь поднимает планку ожиданий. Одно дело — языковая модель, но живой язык — это наш интеллектуальный интерфейс, поэтому мы очень легко персонифицируем технологию. 

Вы ожидаете от технологии того же, что и от человека. И это логично: она ведет себя так, что действительно кажется умной. Все, кто работает над этой технологией, создают языковые модели и внедряют ИИ в жизнь, стремятся к одному и тому же.

За последние семь лет было много скепсиса в отношении ИИ: «Он не будет улучшаться», «Методы и архитектура, которые вы используете, неправильные» и так далее.

Критики говорили: «Ну, машина не может сделать вот это». Проходит три месяца, и модель уже это делает. Тогда они говорят: «Ладно, это она может, но вон то она не сделает…» Это продолжалось все семь лет. С помощью этой технологии мы постоянно превосходим ожидания.

Тем не менее впереди нас ждет долгий путь. Я думаю, что у технологии все еще есть недостатки. Поскольку взаимодействие с ней очень похоже на общение с человеком, люди переоценивают технологию или доверяют ей больше, чем следует. Они начинают применять ее в сценариях, для которых она еще не готова.

Это приводит меня к одному из ключевых вопросов, который я собираюсь задавать всем, кто работает в области ИИ. Вы упомянули интеллект, упомянули возможности, сказали слово «логика». Считаете ли вы, что язык и интеллект в этом контексте — одно и то же? Или они развиваются в технологии по-разному: компьютеры все лучше используют язык, но интеллект растет с другой скоростью или, возможно, уже достиг своего предела?

Я не думаю, что интеллект и язык — это одно и то же. На мой взгляд, для понимания языка требуется высокий уровень интеллекта. Вопрос в том, понимают ли эти модели язык или просто имитируют его.

Это касается другого очень известного документа Google — статьи про стохастических попугаев. Она вызвала много споров. В этой статье утверждается, что модели просто повторяют слова и у них нет никакого глубокого интеллекта. Повторяя слова, модели будут выражать предубеждения, которым их обучили.

Интеллект помогает вам с этим справляться, верно? Вы можете много что выучить, и ваш интеллект поможет вам превзойти то, чему вы научились. Но разве вы видите, что модели способны превзойти то, чему их обучили? Или они никогда не выйдут за его пределы?

Я бы сказал, что люди тоже много повторяют и полны предубеждений. Этим в значительной степени занимаются известные нам интеллектуальные системы — люди. Есть такое выражение, что каждый из нас является усреднением 10 прочитанных книг или 10 человек, с которыми мы чаще всего общаемся. Мы моделируем себя на основе наших знаний о мире.

В то же время люди по-настоящему творческие. Мы создаем то, чего никогда не видели раньше. Мы выходим за пределы обучающих данных. Думаю, именно это имеют в виду, когда говорят об интеллекте, — способность открывать новые истины. Это нечто большее, чем простое повторение уже известного. Я думаю, модели не просто повторяют, они способны экстраполировать за пределы того, что мы им показали, распознавать закономерности в данных и применять эти закономерности к новым данным, раньше не встречавшимся. На этом этапе мы можем утверждать, что мы перешагнули гипотезу стохастического попугая.

Является ли это неожиданным поведением для моделей? Вы думали об этом, когда начинали работать с трансформерами? Вы сказали, что это был семилетний путь. Когда вы это поняли?

Было несколько моментов на самых ранних этапах. В Google мы начали обучение языковых моделей с помощью трансформеров. Мы просто экспериментировали с этим, и это была еще не та языковая модель, с которой вы взаимодействуете сегодня. Она была обучена только на «Википедии», так что могла только писать для той статьи.

Возможно, это была самая полезная версия. [Смеется]

Да, возможно. [Смеется] 

В те времена компьютеры едва ли могли правильно составить предложение. Ничего из написанного ими не имело смысла. Были орфографические ошибки. Было много шума.

Но однажды мы как будто проснулись, взяли выборку из модели, и она стала писать целые документы так же бегло, как человек. Это было настоящее потрясение для меня. Это был момент благоговения перед технологией, и он повторяется снова и снова.

Мне постоянно кажется, что все это просто стохастический попугай. Возможно, модель никогда не сможет достичь желаемой нами степени полезности, потому что в ней есть какой-то фундаментальное слабое место. Мы не можем сделать ее умнее. Мы не можем расширить ее способности дальше некоего предела.

Но каждый раз, когда мы улучшаем модели, они преодолевают эти границы. Я думаю, что это преодоление будет продолжаться. Мы сможем получить от моделей все, что хотим. 

Важно помнить, что мы пока не находимся на конечном этапе. Есть очевидные сферы применения, для которых технология еще не готова. Например, мы не должны позволять моделям назначать лекарства людям без человеческого контроля. Но однажды технология может «созреть». В какой-то момент мы получим модель со всеми знаниями человечества о медицине и будем доверять ей больше, чем живому врачу. Я считаю это очень вероятным будущим. 

Но сегодня я надеюсь, что никто не принимает от моделей медицинские советы и что человек все еще вовлечен в этот процесс.

Именно это я имею в виду, когда говорю, что разрыв увеличивается. И это подводит нас к обсуждению компании Cohere. 

Начну с так называемого второго акта, потому что второй акт традиционно получает так мало внимания: «Я что-то создал, а потом превратил это в бизнес, что заняло семь сложных лет». Cohere сильно ориентирована на корпоративный сегмент. Можете ли вы рассказать о компании?

Мы разрабатываем модели и предоставляем их крупным компаниям. Мы не пытаемся конкурировать с ChatGPT. Мы пытаемся создать платформу, которая позволит компаниям внедрить технологию ИИ. Мы работаем в двух направлениях. 

Первое: мы только что достигли состояния, когда компьютеры могут понимать язык. Теперь они способны говорить с нами. Это значит, что практически каждую вычислительную систему, каждый продукт, который мы создали, мы можем оснастить голосовым интерфейсом и позволить людям взаимодействовать через их язык. Мы хотим помочь компаниям внедрить эту технологию и внедрить языковой интерфейс во все их продукты. Это ориентация вовне. 

Второе направление ориентировано вовнутрь — на продуктивность. Я думаю, уже ясно, что мы вступаем в новую промышленную революцию, которая вместо физического труда избавляет человечество от труда интеллектуального. Модели умны. Они могут выполнять сложную работу, требующую рассуждений, глубокого понимания и доступа ко многим данным, — то, что многие люди сегодня делают на работе. Мы можем этот труд переложить на модели, значительно повысив продуктивность компаний.

Язык людей связан с недопониманиями — это легко увидеть по истории человечества. Мы используем его весьма расплывчато. А программирование компьютеров исторически очень детерминировано, предсказуемо. Что вы думаете о преодолении этого противоречия? «Мы собираемся продать вам продукт, который сделает взаимодействие с вашим бизнесом менее ясным и более запутанным, возможно, более склонным к недопониманию, но при этом более комфортным».

Программирование с помощью языковой технологии не является детерминированным. Это стохастика, вероятности. Есть вероятность, что модель может сказать что угодно. Что-то совершенно абсурдное.

Я считаю, что наша задача как разработчиков технологий состоит в том, чтобы представить хорошие инструменты для контроля. Чтобы вероятность абсурдного ответа модели была один на многие триллионы и на практике мы бы с этим не сталкивались. 

Однако я думаю, что компании уже привыкли к стохастическим элементам и ведению бизнеса с их участием, потому что у нас есть люди. У нас есть продавцы и маркетологи. Мир устойчив к такому. Мы устойчивы к шуму, ошибкам и неточностям. 

Вы можете доверять всем продавцам? Они никогда не вводят в заблуждение и не преувеличивают? На самом деле они иногда делают это. Когда к вам обращается продавец, вы применяете его слова соответствующие ограничения: «Я не буду воспринимать все, что вы скажете, как истину в последней инстанции».

Я думаю, мир на самом деле очень устойчив к участию таких систем. Это может сначала пугать, вы скажете: «Компьютерные программы полностью детерминированы». Но на полностью детерминированные системы очень странны. Это новое явление. И мы на самом деле возвращаемся к чему-то гораздо более естественному.

Когда я встречаю джейлбрейк-промпт для очередного чат-бота, то вижу в нем ведущий промпт, который обычно говорит что-то вроде: «Вы чат-бот. Не говорите вот это. Убедитесь, что вы отвечаете таким образом. А вот это для вас совершенно недопустимо». Они постоянно утекают, и мне их всегда интересно читать. Каждый раз сразу мелькает мысль: это безумный способ программирования компьютера. Вы собираетесь разговаривать с ним как с безответственным подростком. Говорите: «Это твоя роль» — и надеетесь, что он будет следовать ей. Но даже после всех этих инструкций есть вероятность одна на триллион, что компьютер пойдет по совершенно неправильному пути и скажет что-то безумное. Мне кажется, интернет-сообщество получает удовольствие, заставляя чат-ботов выходить из строя.

Вы продаете корпоративное программное обеспечение. Вы приходите в крупные компании и говорите: «Вот наши модели. Мы можем их контролировать, что снижает хаос. Мы хотим, чтобы вы переосмыслили свой бизнес с помощью этих инструментов, потому что кое-что они сделают лучше. Это повысит вашу продуктивность. Это сделает ваших клиентов счастливее». Нет ли тут противоречия? Ведь это большое культурное потрясение. Компьютеры детерминированы, мы построили современный мир на основе их очень детерминированной природы. А теперь вы говорите компаниям: «Тратьте деньги и рискуйте своим бизнесом, чтобы попробовать новый способ общения с компьютерами». Это большое изменение. У вас получается? Кто-то проявляет энтузиазм? Встречаете ли сопротивление? Каковы отклики?

Это возвращает нас к разговору о том, где внедрять технологию и для чего она подходит, для чего она достаточно надежна. Есть сферы, в которых мы сегодня не хотим внедрять ИИ, потому что технология недостаточно устойчива. Мне повезло, что Cohere — это компания, работающая в тесном сотрудничестве с клиентами. Мы не просто выбрасываем на рынок продукт и надеемся, что он преуспеет. Мы активно участвуем во внедрении и помогаем клиентам продумать, где развернуть технологию и каких изменений с ее помощью можно добиваться. Надеюсь, никто не станет доверять этим моделям доступ к своему банковскому счету.

Есть ситуации, когда действительно нужен детерминизм и очень высокие показатели надежности. Вы не будете просто устанавливать модель и позволять ей делать все, что она хочет. В подавляющем большинстве случаев речь идет о помощнике для человека. У вас есть сотрудник, который будет использовать модель как инструмент, чтобы выполнять свою работу быстрее, эффективнее, точнее. Она помогает ему, но он все равно участвует в процессе и проверяет, что модель делает что-то разумное. В конце концов, человек несет ответственность за свои решения и то, что он делает этим инструментом в своей работе.

Я думаю, что вы говорите о ситуациях, когда человек полностью исключен из процесса и вся работа переложена на модели. Но до такого еще далеко. Нам нужно гораздо больше доверия, управляемости и возможности устанавливать границы, чтобы модели вели себя более детерминированно.

Вы упомянули промпты и то, что можно управлять моделями через разговоры.

Мне каждый раз кажется, что это безумие.

Я думаю, что это некое волшебство: вы можете эффективно управлять поведением моделей с помощью разговора. Но помимо этого вы можете задавать контроль и некие ограничения за пределами модели. Вы можете создать модель, которая будет наблюдать за другой моделью, вмешиваться и блокировать выполнение определенных действий в определенных случаях. Я думаю, нам нужно изменить свое представление о том, что это одна модель. Это один ИИ, которому мы просто передаем управление. А что, если он ошибется? Что, если все пойдет не так?

В реальности это будут гораздо более крупные системы со средствами наблюдения, детерминированные и выявляющие паттерны сбоев. Если модель делает что-то конкретное, ее просто остановят. Это полностью детерминированная проверка. А затем будут другие модели, которые могут наблюдать и давать обратную связь поднадзорной модели, чтобы предотвратить совершение ею ошибок.

Парадигма программирования, или технологическая парадигма, начиналась с того, что вы описываете модель и применяете ее к какой-то задаче. Это просто модель и задача. Сейчас идет сдвиг в сторону более крупных систем с высокой сложностью и бо̒льшим количеством компонентов. И это уже меньше похоже на ИИ, который делает работу за вас. Это сложное ПО, которое вы развертываете, чтобы оно делало работу за вас.

Сейчас у Cohere есть две модели: Cohere Command и Cohere Embed. Вы, очевидно, работаете над ними: обучаете их, развиваете, применяете для клиентов. Сколько времени компания тратит на то, что вы описываете: создание детерминированных систем управления и понимание, как связывать модели вместе для обеспечения большей предсказуемости?

Крупные компании крайне не склонны к риску — при том, что всегда ищут возможности. Практически каждый первый разговор с клиентом начинается с фразы: «Надежна ли эта система?» Нам нужно показать им конкретный пример использования. Скажем, помощь юристам в составлении контрактов, чем мы занимаемся в компании Borderless.

В этом случае вам нужен человек, участвующий в процессе. Ни в коем случае нельзя отправлять полностью сгенерированные контракты без какой-либо проверки. Мы стараемся помочь в руководстве и обучении по типам систем, которые можно создать для надзора, будь то люди, участвующие в процессе, или автоматизированные системы для снижения рисков. 

С потребителями дело обстоит немного иначе, но в крупных компаниях первым вопросом, который нам задает совет директоров или руководство компании, будет вопрос о рисках и их предотвращении.

Если применять это к Cohere и к тому, как вы разрабатываете свои продукты: как организована структура компании? Отражается ли это на ней?

Думаю, да. У нас есть внутренние команды безопасности, сосредоточенные на повышении управляемости и снижении предвзятости наших моделей. При этом все это одновременно остается в каком-то роде образовательной кампанией — ведь в первую очередь знакомит людей с тем, что такое ИИ.

Это смена парадигмы создания ПО и технологий. Чтобы обучать этому людей, мы создаем такие проекты, как LLMU — что-то вроде университета LLM, где мы показываем, какие подводные камни есть у этой технологии и как их обойти. Наша структура ориентирована на то, чтобы помочь рынку знакомиться с технологией и ее ограничениями по мере ее внедрения.

Сколько людей работает в Cohere?

Всегда удивительно говорить об этом, но сейчас нас около 350 человек, что для меня кажется безумием.

Это безумие только потому, что вы основатель.

Еще вчера это были только Ник [Фрост], Иван [Чжан] и я в этом крошечном... фактически в шкафу. Я не знаю, сколько там было квадратных метров, но это было однозначное число. А несколько недель назад у нас был корпоративный выезд, и на нем были сотни людей, создающих что-то вместе с тобой. Я задаюсь вопросом: как мы к этому пришли? Как все это произошло? Это действительно весело.

Как распределены обязанности среди этих 350 человек? Сколько из них инженеры? Сколько занимаются продажами? Для корпоративных компаний требуется много постпродажной поддержки. Какова структура?

Подавляющее большинство — это инженеры. Совсем недавно значительно выросла команда вывода продуктов на рынок. Я думаю, что рынок только сейчас начинает фактически внедрять эту технологию. Ее начинают применять сотрудники, клиенты, пользователи.

Прошлый год прошел под знаком POC (Proof of Concept, или доказательство концепции) — о технологии узнали все. Мы работаем над ней уже почти пять лет, но только в 2023 году широкая общественность реально заметила ее, начала использовать и влюбилась в технологию. В корпорациях тоже работают люди — и они задумались о внедрении в бизнес. Начали экспериментировать, чтобы лучше понять технологию.

Первая группа этих экспериментов завершена, и людям нравятся продукты, которые они создали. Теперь задача состоит в том, чтобы взять эти предвнедренческие тесты и фактически внедрить их в эксплуатацию в масштабируемом виде.

Эта масштабируемость в смысле: «Окей, мы можем добавить еще пять клиентов без значительных дополнительных затрат»? Это масштабируемость вычислений? Масштабируемость в том, как быстро вы разрабатываете решения для людей? Или все сразу?

Все сразу. Технологии дорого разрабатывать и дорого запускать. Мы говорим о сотнях миллиардов, о триллионах настраиваемых параметров только в одной из этих моделей, поэтому требуется много памяти, чтобы это все хранить. Требуется огромное количество вычислительных ресурсов для запуска. В эксперименте у вас пять пользователей, масштабируемость значения не имеет, цена тоже. Важно лишь доказать возможность. Но если вы довольны тем, что создали, и планируете внедрять это в эксплуатацию, то идете в финансовый отдел и говорите: «Вот сколько это стоит для пяти пользователей. А мы хотим предоставить это всем 10 миллионам».

Числа не сходятся. Это экономически нецелесообразно. Для Cohere приоритетом было не создание самой большой модели, а разработка модели, которую рынок действительно сможет потреблять и которая будет полезной для корпораций.

Это означает, что мы сосредоточены на сжатии, скорости, масштабируемости, чтобы создать технологию, которую рынок сможет использовать. За последние несколько лет многие исследования не были широко внедрены. Проблемы с масштабируемостью еще не возникали, но мы знали, что для корпораций, которые очень чувствительны к затратам и ориентированы на экономическую эффективность, важна окупаемость инвестиций. Если они не видят потенциала возврата инвестиций, они не внедряют это. Все просто. Поэтому мы сосредоточились на создании категории технологий, которые действительно соответствуют рыночным требованиям.

Вы начали эту работу в Google. У нее есть бесконечные ресурсы и огромный операционный масштаб. Способность Google оптимизировать и снизить стоимость таких новых технологий очень высока благодаря инфраструктуре и охвату. Что заставило вас заниматься этим самостоятельно?

Ник также работал в Google. Мы оба работали у Джеффа Хинтона в Торонто. Он был тем, кто создал нейронные сети — технологию, лежащую в основе всего машинного обучения, в том числе LLM. Она лежит в основе практически каждого искусственного интеллекта, с которым вы сталкиваетесь ежедневно.

Нам нравилось там работать, но не хватало амбициозного продукта и скорости, которые мы считали необходимыми для реализации наших идей. Поэтому мы основали Cohere. Google был отличным местом для исследований, и я считаю, что там работают одни из самых умных в мире людей в сфере ИИ. Но миру нужно было что-то новое. Миру нужен был Cohere и возможность внедрять эту технологию от компании, не привязанной ни к одному облаку, ни к одному гиперскейлеру. Для корпораций очень важна возможность выбора. Если вы CTO крупного ритейлера, то вы, вероятно, тратите полмиллиарда или миллиард долларов на одного из облачных провайдеров для своей инфраструктуры.

Чтобы заключить выгодную сделку, вам нужно обладать реальной возможностью переключаться между провайдерами. В противном случае они будут вас выжимать до бесконечности. Вы ненавидите покупать проприетарные технологии, доступные только на одной платформе. Вы действительно хотите сохранить возможность переключаться между ними. Это то, что предлагает Cohere. Поскольку мы независимы и не привязаны ни к одному из крупных облаков, мы можем предложить это рынку, что очень важно.

Позвольте задать вам вопрос от Decoder. До этого момента мы много говорили о пути, о задачах, которые нужно решить. Вы основатель компании. У вас сейчас 350 человек. Как вы принимаете решения? Какая у вас методология их принятия?

Моя методология… [Смеется] Я бросаю монетку.

Мне повезло, что я окружен людьми, которые намного умнее меня. Все в Cohere лучше меня в том, что они делают. У меня есть возможность спрашивать совета у людей, будь то совет директоров, исполнительная команда или отдельные сотрудники, те, кто выполняет реальную работу. Я могу спрашивать и агрегировать их мнения. Когда мнения разделяются, решение остается за мной. Обычно я руководствуюсь интуицией. Но, к счастью, мне не нужно принимать много решений, потому что вокруг меня люди, которые гораздо умнее меня.

Но, конечно, есть большие решения, которые нужно принимать. Например, в апреле вы анонсировали две модели: Command R и Rerank 3. Их обучение стоит дорого. Их разработка также затратна. Вам придется перестраивать свою технологию с учетом новых моделей и их возможностей. Это большие шаги.

Кажется, что каждая компания в сфере ИИ спешит разработать следующее поколение моделей. Как меняется ваша оценка этих инвестиций с течением времени? Вы много говорили о стоимости доказательства концепции по сравнению с операционной моделью. Новые модели являются самыми дорогими из всех. Что вы думаете об этих расходах?

Это действительно очень дорого. [Смеется]

Можете назвать конкретное число?

Я не уверен, что могу назвать число, но могу сказать примерный порядок. Чтобы делать то, что мы делаем, нужно тратить сотни миллионов долларов в год. Такова стоимость. Мы считаем, что мы чрезвычайно капиталоэффективны. Мы не пытаемся создавать модели, которые слишком велики для рынка или поверхностны. Мы стремимся создавать такие инструменты, которые рынок действительно сможет потреблять. Поэтому нам это обходится дешевле и мы можем сосредоточить наш капитал. Некоторые компании тратят много-много миллиардов долларов в год на создание своих моделей.

Для нас это крайне важно. Нам повезло, что мы относительно небольшие, так что наша стратегия способствует большей капиталоэффективности и созданию технологий, которые действительно нужны рынку, а не потенциальных исследовательских проектов. Но, как вы заметили, это чрезвычайно дорого, и мы справляемся так: a) привлекаем капитал, чтобы оплатить необходимую работу, и б) сосредотачиваемся на нашей технологии. То есть вместо того чтобы пытаться делать все, вместо того чтобы решать каждую потенциальную задачу технологии, мы сосредотачиваемся на тех шаблонах или сценариях использования, которые, по нашему мнению, будут доминировать или уже доминируют.

Одним из примеров является RAG, генерация с расширенным извлечением. Модели обучены на данных из интернета, они много знают о публичных фактах и тому подобном. Однако вы хотите, чтобы модель знала о вашей компании, о вашей закрытой информации. RAG позволяет разместить вашу модель рядом с вашими частными базами данных или хранилищами знаний и связать их. Этот подход используется повсюду. Любой, кто внедряет эту технологию, хочет, чтобы у нее был доступ к его внутренней информации и знаниям. Мы сосредоточились на том, чтобы достичь в этом исключительно высокого уровня.

Нам повезло: у нас есть человек, который изобрел RAG, — Патрик Льюис. Это позволяет нам значительно эффективнее решать задачи с помощью наших моделей. Мы будем продолжать, но все равно этот проект ежегодно требует многих миллионов. Это очень капиталоемко.

Хочу спросить вас, является ли это пузырем. Начну с Cohere, а потом хочу поговорить об индустрии в целом. Сотни миллионов долларов в год только для обеспечения работы компании, для выполнения вычислений. Не считая зарплат. А зарплаты в сфере ИИ довольно высокие, так что это еще одна куча денег, которую нужно заплатить. Вам нужно оплатить аренду офиса. Вам нужно купить ноутбуки. И куча других расходов. Но только вычисления обходятся в сотни миллионов долларов в год. Видите ли вы путь к получению прибыли, который оправдывает такой объем чистых затрат на вычисления?

Абсолютно. Мы бы не создавали это, если бы не видели.

Я думаю, что ваши конкуренты верят, что это когда-нибудь наступит. Я задаю вам этот вопрос, потому что вы создали бизнес, нацеленный на корпоративный рынок. Предполагаю, что вы видите гораздо более четкий путь к прибыли. Так в чем же она заключается?

Как я уже сказал, мы используем инвестиции значительно эффективнее. Мы можем потратить на вычисления лишь 20 процентов от того, что тратят некоторые наши конкуренты. Но то, что мы создаем, прекрасно соответствует потребностям рынка. Мы можем сократить расходы на 80% и предлагать нечто столь же привлекательное для рынка. Это основное направление нашей стратегии. Конечно, если бы мы не предполагали получать многомиллиардную прибыль, мы бы не строили этот бизнес.

Каков путь к миллиардам? Сколько времени это займет?

Не знаю, много ли могу рассказать, но это ближе, чем кажется. На рынке возникает много расходов. Безусловно, уже сегодня на эту технологию в корпоративном секторе тратятся миллиарды. Большая часть этих расходов идет на вычисления, а не на создание моделей. Но на ИИ действительно уходит много денег.

Как я уже говорил, прошлый год был больше посвящен экспериментам, а затраты на POC составляют примерно 3–5% от того, что требуется для эксплуатации. И сейчас такие решения начинают вводить в эксплуатацию. Эта технология применяется в продуктах, с которыми взаимодействуют десятки и сотни миллионов людей. Она действительно становится повсеместной. Так что, я думаю, получение нами необходимой прибыли — вопрос нескольких лет.

Это типично для цикла внедрения технологии. Корпорации неторопливы. Они склонны медленно внедрять новые вещи. Они очень консервативны. Но как только они что-то внедрили, это остается там навсегда. Однако им требуется время, чтобы набраться уверенности и принять решение о внедрении технологии. Прошло всего около полутора лет с тех пор, как люди осознали эту технологию, но за это время мы уже наблюдаем принятие и серьезные производственные нагрузки.

Корпоративные технологии очень устойчивы. Они никогда не исчезнут. Первое, что приходит на ум, это Microsoft Office, который будет всегда. Основой корпоративной стратегии является Office 365. Microsoft является крупным инвестором в OpenAI. У них есть свои модели. Они ваш крупный конкурент. Они продают Azure корпоративному сектору. Они гипермасштабируемы. Они могут предложить вам сделку. Они интегрируют голосовой интерфейс, чтобы можно было говорить с Excel. Я не раз слышал от сотрудников Microsoft, что у них на местах есть люди, которым нужно ждать ответа аналитиков, но теперь они могут просто напрямую говорить с данными и получать нужный ответ. Это очень привлекательно.

Вы стартап. Microsoft — это 300 000 человек, а вас 350. Как вы отвоевываете долю рынка у Microsoft?

В каком-то смысле они конкуренты, но они также и партнеры, и канал для нас. Когда мы выпустили Command R и Command R Plus, наши новые модели, они сначала были доступны на Azure. Я рассматриваю Microsoft как партнера в предоставлении этой технологии корпорациям и я думаю, что Microsoft тоже рассматривает нас как партнера. Я думаю, что они хотят создать экосистему, основанную на множестве различных моделей. Я уверен, что у них будут свои модели, модели OpenAI, наши, и это будет экосистема, а не только собственные технологии Microsoft. Посмотрите на историю баз данных — там есть выдающиеся компании, такие как Databricks и Snowflake, которые независимы. Это не дочерние предприятия Amazon, или Google, или Microsoft. Они независимы, и причина их успеха заключается в том, что у них есть невероятное видение продукта. Продукт, который они создают, действительно является лучшим вариантом для клиентов. Но при этом их независимость является ключевым фактором успеха.

Я описывал, почему технические директора не хотят связываться с одной проприетарной программной платформой: это вызывает много проблем и стратегически ограничивает возможность вести переговоры. Думаю, то же самое будет справедливо и для ИИ, когда модели становятся продолжением ваших данных. Они отражают ценность ваших данных, которая заключается в том, что вы можете использовать их для создания модели ИИ, которая принесет вам пользу. Данные сами по себе не обладают ценностью. То, что мы независимы, говорит о том, что компании вроде Microsoft, Azure, AWS и GCP заинтересованы в нашем существовании. Они должны нас поддерживать, потому что иначе рынок их отвергнет. Рынок будет настаивать на независимости, которая позволяет переключаться между облаками. Так что конкуренты вынуждены поддерживать наши модели. Это именно то, чего хочет рынок. Я не считаю их исключительно конкурентами. Я рассматриваю их как партнеров, которые помогают внедрять нашу технологию на рынок.

Одна из причин, почему я был рад поговорить с вами, заключается в том, что вы так ориентированы на корпоративный сектор. В ваших словах есть определенность. Вы идентифицировали множество клиентов с определенными потребностями. У них есть деньги на это. Вы можете посчитать сколько. Вы можете построить свой бизнес с учетом этих денег. Вы продолжаете общаться с рынком. Вы можете вкладывать свой бюджет в технологии, соответствующие размеру доступных средств на рынке.

Когда я спрашиваю, является ли это пузырем, я говорю о потребительской стороне. Есть крупные компании, занимающиеся ИИ для потребителей, которые создают большие потребительские продукты. Люди платят 20 долларов в месяц за общение с такой моделью, и компании-разработчики тратят в год на обучение больше денег, чем вы. Это передовые компании. Я говорю о Google и OpenAI. Однако есть целая экосистема компаний, которые платят OpenAI и Google долю, чтобы работать на основе их моделей и продавать потребительский продукт по более низкой цене. Это не кажется мне устойчивым бизнесом. У вас есть такие же опасения по поводу остальной отрасли? Это привлекает много внимания и вдохновляет, но это не кажется устойчивым.

Я думаю, что те, кто строит свои продукты на основе OpenAI и Google, должны строить их на основе Cohere. Мы будем лучшими партнерами.

[Смеется] Я специально это для вас подготовил.

Вы правильно определили, что фокус внимания компаний и технологических поставщиков может противоречить интересам их пользователей. Представьте стартап, который пытается создать ИИ-приложение для мира и строит его на основе продукта одного из своих конкурентов, который тоже создает потребительский ИИ-продукт. Здесь возникает явный конфликт, и вы можете увидеть, как один из моих конкурентов крадет или копирует идеи этого стартапа.

Вот почему необходимо существование Cohere. Нужно, чтобы были такие, как мы, кто сосредоточен на создании платформы, позволяющей другим создавать их приложения. И чтобы были те, кто действительно вкладывается в их успех — без какого-либо конфликта или конкуренции.

Вот почему я думаю, что мы хорошие партнеры: мы позволяем нашим пользователям добиться успеха, не пытаясь конкурировать или играть на том же поле. Мы просто создаем платформу, которую вы можете использовать для освоения технологии. Это весь наш бизнес.

А вся индустрия — это пузырь? 

Нет. Я действительно так не думаю. Я не знаю, насколько часто вы пользуетесь LLM (моделями на основе большого количества данных) в повседневной жизни. Я использую их постоянно, по несколько раз в час, так что как это может быть пузырем?

Это может быть полезно, но экономически невыгодно. Приведу пример. Вы много говорите об опасности чрезмерной шумихи вокруг ИИ, в том числе в нашей беседе. Вы рассказывали о двух способах финансирования вычислений: можно привлекать клиентов и развивать бизнес или можно привлекать инвестиции. Я смотрю на то, как некоторые ваши конкуренты привлекают деньги и это делают с помощью таких заявлений, как: «Мы собираемся создать AGI на базе L1» и «Нам нужно приостановить разработку, потому что эта технология может уничтожить мир». Это кажется мне достаточно надутым. Типа: «Нам нужно собрать много денег, чтобы продолжать обучение следующей передовой модели, прежде чем мы построим бизнес, который может поддерживать вычисления существующей модели». Но, похоже, вы об этом не слишком переживаете. Вы думаете, что это как-то само собой уладится?

Я не знаю, что сказать, кроме того, что я полностью согласен с тем, что это опасная ситуация. Реальность такова: компании вроде Google и Microsoft могут тратить десятки миллиардов долларов на это, и это нормально. Это просто округление. Стартапам, которые выбирают такую стратегию, нужно стать дочерней компанией одной из этих крупных технологических компаний, которые печатают деньги, или строить очень, очень плохой бизнес, чтобы это сделать.

Cohere к такому не стремится. Я в значительной степени согласен с вами. Я думаю, что это плохая стратегия. А у нас стратегия другая: разрабатывать продукты и технологии, подходящие для наших клиентов. Так строились все успешные бизнесы. Мы не хотим забегать слишком далеко вперед. Мы не хотим тратить так много денег, что станет трудно выйти на прибыльность. Cohere стремится создать самодостаточный независимый бизнес, поэтому мы вынуждены направлять компанию туда, где это возможно.

Вы называли абсурдом и отвлечением идею о том, что ИИ представляет собой экзистенциальный риск. Почему вы считаете это абсурдным и каковы, по вашему мнению, реальные риски?

Я думаю, что реальные риски — это те, о которых мы говорили: чрезмерно поспешное внедрение технологии. Люди слишком сильно доверяют ей в ситуациях, в которых, откровенно говоря, не должны доверять. Я с большим пониманием отношусь общественному интересу к сценариям «Судного дня» или «Терминатора». Они меня интересуют, потому что я смотрел научную фантастику и там всегда все плохо кончается. Нам рассказывали эти истории десятилетиями. Это очень яркий сюжет. Он действительно захватывает воображение. Думать об этом увлекательно, но это не наша реальность. Как человек, который технически подкован и близок к самой технологии, я не вижу, чтобы мы двигались в направлении, которое подтверждает подобные рассказы, распространяемые в медиа и многими технологическими компаниями.

Я хотел бы, чтобы мы обратили внимание на две вещи. Во-первых, на чрезмерно поспешное внедрение, внедрение в сценарии без человеческого контроля. Это действительно волнует регуляторов и правительство. Будет ли это вредно для населения, если финансовый сектор или медицина внедрит ИИ подобным образом? Они практичны и действительно опираются на технологии.

Во-вторых, мне хотелось бы широкого обсуждения возможностей, позитивной стороны вопроса. Чтобы кто-нибудь говорил о том, что мы можем или хотим сделать с помощью этой технологии. Да, важно избегать негативных сценариев, но я также хочу услышать мнение общественности и публичные дискуссии о позитивных возможностях. Какое добро мы могли бы сделать?

Я думаю, один из примеров — это медицина. Врачи тратят 40% своего времени на записи. Они делают это между посещениями пациентов. Закончили прием, садитесь за компьютер и пишете: «Пришел такой-то, у него было это, я помню, несколько недель назад это выглядело так. Мы должны проверить это в следующий раз, когда он придет. Я выписал этот препарат». Мы могли бы прикрепить на одежду врачей пассивные микрофоны, которые будут записывать разговор, и к следующей встрече будет готова расшифровка и предварительно заполненные документы. Вместо того чтобы писать все это с нуля, врач просто читает и говорит: «Нет, я не говорил это, я сказал то, и добавь вот это». Получается процесс редактирования. Вместо 40% они будут тратить 20%. За одну ночь у врачей появляется на 25% больше времени. Я думаю, это невероятно. Это огромное благо для мира. Мы не тратили деньги на обучение врачей. Мы не увеличивали количество врачей в школах. Они просто получают на 25% больше времени с помощью внедрения технологии.

Я хочу найти больше таких идей. Какие применения должна приоритизировать Cohere? В чем нам нужно стать лучше? Что мы должны решить, чтобы сделать добро миру? Об этом не пишут. Никто не говорит об этом.

Как человек, который придумывает заголовки, я думаю, во-первых, еще недостаточно примеров, чтобы сказать, что это реально. А это, как мне кажется, вызывает скептицизм у людей. Во-вторых, я слушаю ваши рассуждения и думаю: «О, блин, владельцы множества частных клиник просто добавили на 25% больше пациентов в расписание врачей».

Я слышу от нашей аудитории, что они чувствуют, что ИИ-компании берут много, не отдавая достаточно взамен. Это реальная проблема. Это проявлялось в основном в творческих индустриях; мы видим этот гнев, направленный на творческие генеративные ИИ-компании.

Вы работаете в корпоративной сфере и этого не замечаете. Но вы обучили кучу моделей, вы должны знать, откуда берутся данные. Люди, создавшие оригинальные работы, на которых вы обучаетесь, вероятно, хотят получить компенсацию за это.

О, да, конечно. Я полностью это поддерживаю.

Вы компенсируете тем, чьи данные используете?

Мы много платим за данные. Есть множество разных источников данных. Есть информация, которую мы собираем из интернета, и в этих случаях мы стараемся соблюдать предпочтения людей. Если они говорят: «Мы не хотим, чтобы вы собирали наши данные», мы соблюдаем это. Мы смотрим на robots.txt, когда сканируем код. Мы смотрим на лицензии, которые связаны с этим кодом. Мы фильтруем данные, если люди ясно сказали: «Не сканируйте это» или «Не используйте этот код». Если кто-то отправит нам электронное письмо с просьбой: «Эй, я думаю, вы собрали X, Y и Z, можете удалить это?» — мы, конечно, удалим, и все будущие модели не будут обучаться на этих данных. Мы не обучаемся на материалах, если люди этого не хотят. Я очень, очень сочувствую создателям и действительно хочу поддержать их и создать инструменты, чтобы помочь им стать более продуктивными и помочь в их творческом процессе.

Обратная сторона этого: те же самые создатели наблюдают за тем, как платформы, на которых они публикуются, заполняются ИИ-контентом, и им это не нравится. Здесь присутствует небольшая конкуренция. Это одна из опасностей, о которых вы говорили. Существует прямая угроза распространения дезинформации на социальных платформах, которая, похоже, пока недостаточно контролируется. Есть ли у вас идеи о том, как можно уменьшить дезинформацию, генерируемую ИИ?

Одна из вещей, которая меня сильно пугает, заключается в том, что демократический мир уязвим для влияния и манипуляций в целом. Исключите ИИ — и демократические процессы все еще останутся очень уязвимы к манипуляциям. В начале беседы мы говорили о том, что люди в среднем воспринимают последние 50 постов, которые они видели, или что-то подобное. Вы сильно подвержены влиянию того, что считаете консенсусом. Если вы смотрите на мир через социальные сети и вам кажется, что все соглашаются с X, тогда вы думаете: «Окей, наверное, X прав. Я доверяю миру. Я доверяю консенсусу».

Я считаю, что демократия уязвима и ее необходимо очень внимательно защищать. Вы можете задаться вопросом, как ИИ влияет на это? ИИ позволяет гораздо масштабнее манипулировать общественным мнением. Можно создать миллион фейковых аккаунтов, которые продвигают одну идею и создают ложный консенсус для людей, потребляющих этот контент. Это звучит действительно страшно. Это ужасно. Это огромная угроза.

Но я думаю, что это предотвратимо. Социальные медиаплатформы — это новая городская площадь. На настоящей городской площади вы знали, что человек, стоящий на ящике, вероятно, был голосующим гражданином наряду с вами, и поэтому вам было важно то, что он говорил. А на цифровой городской площади все настроены гораздо скептичнее ко всему, что они видят. Вы не принимаете это как должное. У нас в соцмедиа уже есть методы проверки, человек это или бот, и нам нужно гораздо тщательнее поддерживать их, чтобы люди могли видеть, является ли конкретный аккаунт подтвержденным. Действительно ли это человек на другой стороне?

Что происходит, когда люди начинают использовать ИИ для массового обмана? Например, я публикую сгенерированное ИИ изображение политического события, которое не происходило.

Когда один человек может сгенерировать множество различных голосов, говорящих одно и то же, чтобы создать видимость консенсуса, это можно остановить с помощью подтверждения, что за каждым аккаунтом стоит человек. Вы будете знать, что на другой стороне действительно человек, и это остановит масштабирование миллионов фейковых аккаунтов.

С другой стороны, то, что вы описываете, — это фейковые новости. Они уже есть. Есть Photoshop. Я думаю, что создавать фейковые новости станет легче. Существует понятие «медиаверификация», но при этом вы будете по-разному доверять разным источникам. Если это опубликовал ваш друг, которого вы знаете в реальной жизни, вы этому очень доверяете. Если это какой-то случайный аккаунт, то вы не обязательно верите всему, что он утверждает. Если это исходит от государственного агентства, вы будете доверять этому по-другому. Если это исходит от медиа, то ваше доверие будет зависеть от конкретного источника.

Мы знаем, как присваивать соответствующие уровни доверия различным источникам. Это определенно проблема, но она решаема. Люди уже очень хорошо осведомлены о том, что другие люди лгут.

Я хочу задать вам последний вопрос. Я думал об этом больше всего, и это возвращает нас к началу.

Мы возлагаем на модели много коммерческих, культурных, вдохновляющих надежд. Мы хотим, чтобы наши компьютеры все это делали, и базовая технология — это LLM. Могут ли они выдержать бремя наших ожиданий? Есть причина, по которой Cohere делает это целенаправленно, но если посмотреть шире, то на LLM возлагается большая надежда, что они выведут нас на новый уровень вычислительных технологий. Вы были у истоков. Я думаю, что большие языковые модели действительно могут выдержать давление и ожидания, которые на них возлагаются.

Я считаю, что мы всегда будем не удовлетворены технологией ИИ. Если мы поймем, что через два года модели не будут изобретать новые материалы достаточно быстро, чтобы давать нам все, что нужно, мы будем разочарованы. Я думаю, что мы всегда будем требовать больше, потому что такова природа человека. На каждом этапе технология будет удивлять нас, соответствовать ситуации и превосходить наши ожидания, но никогда не наступит момент, когда люди скажут: «Мы довольны, этого достаточно».

Я не спрашиваю, когда это закончится. Я говорю: видите ли вы, что по мере развития технологии она сможет выдерживать давление наших ожиданий? Что у нее есть способность или хотя бы потенциальная способность действительно создавать то, что люди ожидают от нее?

Я абсолютно уверен, что так и будет. Был период, когда все говорили: «Модели галлюцинируют. Они выдумывают. Они никогда не будут полезны. Мы не можем им доверять». Теперь вы можете отследить уровень галлюцинаций на протяжении лет — он значительно снизился, модели стали намного лучше. С каждой жалобой и с каждым фундаментальным барьером все мы, кто строит эту технологию, работает над ней и улучшает ее, превосходит наши ожидания вместе с ней. Я ожидаю, что так и будет продолжаться. Я не вижу причин, почему бы нет.

Видите ли вы момент, когда галлюцинации сойдут на нет? Для меня это точка, когда технология становится действительно полезной. Можно начать полагаться на нее по-настоящему, когда она перестанет лгать. В настоящее время модели галлюцинируют на самом деле в смешных формах. Но есть момент, для меня по крайней мере, когда я думаю, что пока не могу доверять ей полностью. Есть ли точка, когда уровень галлюцинаций станет нулевым? Видите ли вы это на горизонте? Видите ли технические разработки, которые могут привести нас к этому?

У нас с вами ненулевая частота галлюцинаций.

Да, но мне никто не доверяет управлять чем-либо. [Смеется] Есть причина, по которой я здесь задаю вопросы, а вы генеральный директор. Но я говорю о компьютерах: если вы собираетесь вовлечь их в процесс таким образом, то вы хотите, чтобы уровень галлюцинаций был нулевым.

Нет, я имею в виду, что люди забывают, выдумывают, ошибаются в фактах. Если вы спрашиваете, можем ли мы превзойти уровень человеческих галлюцинаций, — я думаю, да. Это определенно достижимая цель, потому что люди галлюцинируют много. Я думаю, мы сможем создать что-то чрезвычайно полезное для мира.

Полезное или надежное? Это то, о чем я говорю, — доверие. Уровень доверия к человеку варьируется, конечно. Некоторые люди лгут больше, чем другие. Исторически мы доверяли компьютерам на очень высоком уровне. С некоторыми из этих технологий уровень доверия снизился, что действительно интересно. Мой вопрос в том, получится ли достичь точки, когда можно будет полностью доверять компьютеру так, как нельзя доверять человеку? Мы доверяем компьютерам управление F-22, потому что человек не может управлять F-22 без компьютера. Если бы вы сказали: «Компьютер управления F-22 иногда будет вам лгать», мы бы этого не допустили. Странно, что у нас есть новый класс компьютеров, которым мы должны доверять немного меньше.

Я не думаю, что большие языковые модели должны назначать лекарства людям или заниматься медициной. Но обещаю вам, если вы придете ко мне с набором симптомов и попросите меня поставить диагноз, то вам следует доверять модели Cohere больше, чем мне. Она знает о медицине намного больше, чем я. Что бы я ни сказал, будет намного хуже, чем то, что скажет модель. Это уже так, прямо сейчас, в этот момент. Но при этом ни мне, ни модели не следует заниматься диагностикой людей. Однако является ли она более надежной? Вы действительно должны доверять этой модели больше, чем этому человеку в таком случае.

На самом деле доверять следует настоящему врачу, который прошел десятилетнее обучение. Так что планка здесь. Эйдан — здесь. Модель слегка выше Эйдана. Я абсолютно уверен, что мы достигнем этого уровня, и в этот момент мы сможем поставить штамп и сказать, что модель надежна. Она на самом деле так же точна, как средний врач. Однажды она будет точнее среднего врача. Мы достигнем этого с помощью технологий. Нет причин полагать, что мы этого не сделаем. Но это процесс. Это не бинарный выбор между «можно доверять технологии» или «нельзя». Вопрос в том, где ей можно доверять?

На данный момент в медицине нам действительно нужно полагаться на людей. Но в других областях можно использовать ИИ. Когда в процесс вовлечен человек, модель на самом деле всего лишь помощь. Это как дополнительный инструмент, который действительно полезен для повышения вашей продуктивности, выполнения большего объема работ, развлечения или изучения мира. Есть области, где уже сегодня можно эффективно доверять и применять эту технологию. Задачи, для решения которых можно внедрять эту технологию и доверять ей, будет только расти. Отвечая на ваш вопрос о том, справится ли технология со всеми задачами, которые мы хотим ей поручить: я действительно глубоко верю, что справится.

Комментарии (2)


  1. Alexey_Volchanskiy
    30.10.2024 19:49

    Где и как этот ИИ можно попробовать?


  1. kemsky
    30.10.2024 19:49

    Согласен, сегодня общался с ИИ саппортом Яндекс Такси, он мне ничем не помог (иначе как дебильными его предложения не назвать), а заявку закрыл. Думаю, такой подход много экономит Яндексу!