Сегодня мы запустили сервис Нейро — новый способ поиска ответов на вопросы. Пользователь может задать Нейро любой вопрос, а тот сам подберёт подходящие материалы в Поиске, проанализирует их и соберёт найденную информацию в одном ответе, подкрепив его ссылками на источники. Нейро объединил опыт Яндекса в создании поисковых технологий и больших языковых моделей. 

Меня зовут Андрей Сюткин, и я отвечаю за ML-трек в Нейро. В этой статье покажу, как выглядит архитектура Нейро и как формируются ответы на технологическом уровне. Ну и, конечно же, поговорим о нейросетях, в том числе о YandexGPT 3, без обучения которых новый сервис просто не увидел бы свет.

Что такое Нейро

Яндекс был основан как сервис для поиска в интернете и вот уже 27 лет помогает людям находить информацию. На текущий день мы знаем о более чем 130 миллиардах страниц и умеем находить в них ответы за 400 миллисекунд для многих тысяч запросов в секунду.

Все эти годы поиск ассоциировался со списком «синих ссылок». Пользователь вводил запрос, получал в ответ список ссылок, а дальше уже сам разбирался в них. Со временем поисковые технологии развились настолько, что для абсолютного большинства запросов люди перестали заглядывать даже на вторую страницу результатов, но базовый подход оставался неизменным.

Мы понимали, что пользователи зачастую ищут не просто ссылки, а хотят решить какие-то свои задачи. И мы стремились помочь людям в этом. Так в поиске начали появляться разного рода «обогащения». Например, сниппеты — фрагменты текста под каждым сайтом на выдаче — упрощали выбор страницы. Позднее мы добавили быстрые ответы, которые отвечали на простые вопросы сразу на странице с результатами, указывая в качестве источника информации один конкретный сайт. Для многих узких срезов были разработаны отдельные тематические блоки, которые упрощали решение конкретных, узких задач. Например, разработчики могли уже сталкиваться с блоком, который содержал структурированный ответ со Stack Overflow. Все эти «фишки» экономят время и помогают с решением задач. Но все они лишь дополняют тот самый список синих ссылок.

И вот сейчас мы хотим показать Нейро. Это новый сервис для поиска ответов, который на текущий момент доступен в приложении Яндекс и Яндекс Браузере. Нейро способен отвечать на вопросы, для которых обычно нужно изучить несколько источников из интернета. Например, «какие растения могут жить в тёмной комнате дома и не требуют ежедневного полива» или «стоит ли ехать осенью в Карелию и чем там заняться». Нейро проанализирует запрос, найдёт в поиске список релевантных ссылок, извлечёт из материалов информацию и скомпилирует готовый ответ.

Нейро берёт факты не из памяти модели, а из источников в интернете. Это значит, что в его ответах содержится свежая и актуальная информация, даже если она появилась всего несколько часов назад. Каждый факт в ответе подкреплён ссылкой на источник. Благодаря таким ссылкам пользователи смогут углубиться в интересующую тему, а площадки — получить дополнительный трафик. Если владелец сайта не хочет, чтобы веб-страницу использовали в качестве источника ответов для нового сервиса, он может установить директиву в robots.txt. При установке этой директивы сайт перестанет использоваться в качестве источника данных как для Нейро, так и для быстрых ответов в Поиске (подробнее — в блоге Вебмастера).

Когда-то всем нам приходилось учиться языку поисковых запросов. Яндекс даже проводил Кубок по поиску! Теперь спрашивать Нейро можно естественным языком — так, как вы формулируете вопрос в голове. Более того, Нейро учитывает контекст предыдущих вопросов в рамках диалога. Если вы хотите доуточнить ответ, задать вопрос в продолжение темы или добавить новые вводные, вы можете сделать это в диалоговом формате. 

А если не хватает слов — можно дополнительно использовать картинки.

Теперь поговорим о том, как всё это работает.

Две крайности

С помощью LLM-моделей можно отвечать на произвольные вопросы пользователей. Но есть два крайних состояния.

Первая крайность. Найдём страничку в интернете, которая содержит ответ на вопрос. LLM-модель получает на вход запрос пользователя, текст страницы и задание суммаризировать исходный текст в ёмкий ответ. При этом важно, чтобы модель не добавляла отсебятину, то есть не галлюцинировала.

Что хорошо: такой ответ подтверждён источником и его легко перепроверить.

Что плохо: если на запрос пользователя не нашёлся сайт с прямым ответом, тогда и ответить нечем, а значит, страдает полнота фактов. Такое решение будет не сильно полезнее, чем простой список ссылок. 

Вторая крайность. Давайте просто зададим модели любой вопрос и попросим её ответить из своей памяти. 

Что хорошо: можно отвечать вообще на любой вопрос.

Что плохо:

  • непонятно, что модель вспомнила, а что выдумала (как верить такому ответу?);

  • знания берутся из весов, а значит, модель должна быть очень большой;

  • нет знаний о недавних событиях;

  • нет знаний о крайне редких фактах.

Такие модели полезны для генерации идей и написания текстов, но вот использовать её в качестве источника знаний вряд ли стоит. 

Каждое из крайних состояний сделать относительно просто. Но оптимум находится где-то между ними. Хочется, чтобы модель умела отвечать на произвольный вопрос, но при этом её ответ был подкреплён источником, и его легко было проверить. Вот как мы решили реализовать это:

  • на вход модели подаётся вопрос пользователя подходящие для ответа сайты из интернета;

  • модель не отвечает фактами из памяти, а берёт их только из источников;

  • модель имеет право делать корректные выводы из фактов, но не имеет права выдумывать факты;

  • любой кусочек ответа должен быть подтверждён источником, его должно быть легко проверить.

И это оптимальное решение — большой челлендж для LLM-моделей. Подать на вход в модель запрос пользователя и тексты из интернета не сложно. Сложно добиться того, чтобы модель использовала эту информацию и делала на её основе выводы, при этом не выдумывая факты и избегая ошибочных заключений.

Об этом челлендже и пойдёт дальше речь.

Архитектура Нейро

Общая архитектура решения выглядит так:

  1. В контексте диалога с Нейро пользователь задаёт какой-то вопрос.

  2. Вопрос пользователя трансформируется в поисковый запрос.

  3. Поисковая система находит топ релевантных документов на запрос пользователя.

  4. Из этого топа выбираются пять документов, на основе которых получится построить текстовый ответ.

  5. Специализированная генеративная модель из семейства YandexGPT 3 получает на вход диалог, запрос пользователя и полезные фрагменты текстов из пяти документов.

Перефразирование запросов (рефразы)

Пользователь ведёт диалог с Нейро. В процессе диалога он может что-то уточнить или перефразировать. Без контекста диалога такой запрос может быть непонятным.

Пользователь:
«Самая популярная книга Чака Паланика»

Нейро:
«Самый знаменитый роман Чака Паланика — «Бойцовский клуб». По нему в 1999 году был снят одноимённый фильм. … »

Пользователь:
«Когда она написана»

Очевидно, по последнему вопросу («Когда она написана») без контекста нельзя сформулировать поисковый запрос «когда была написана книга «Бойцовский клуб» Чака Паланика».

А ещё вопрос пользователя может содержать ошибки, опечатки, лишнюю информацию или быть очень непонятно сформулирован. Его перефразирование позволяет более эффективно применять поиск.

Задача этого этапа — сформулировать один ёмкий поисковый запрос. Технически эта задача реализуется небольшой версией модели YandexGPT 3. На вход она принимает последние 16 реплик диалога и по ним формирует запрос, с которым нужно пойти в поиск, чтобы найти источники информации. Эта модель специально обучена извлекать поисковый запрос пользователя из контекста диалога с Нейро. Обучение модели было многоэтапным.

  1. Сперва мы описали инструкцию вида «есть диалог пользователя с сервисом, напиши поисковый запрос, который поможет ответить на вопрос».

  2. С помощью AI-тренеров мы получили поисковые запросы для нескольких тысяч таких диалогов.

  3. Обучили SFT-модель на ответах AI-тренеров.

  4. Дальше было много циклов active-learning:

  • находили примеры неудачных рефразов. Например, это диалоги, в которых Нейро выдавал ответ в стиле «ничего не нашлось»: такое часто происходило именно в результате неправильной переформулировки;

  • собирали для них правильные рефразы;

  • переучивали модель.

В сумме мы собрали более десятка тысяч таких рефразов с помощью AI-тренеров.

Поиск источников

До этого этапа мы сформировали поисковый запрос, который поможет Нейро найти документы для решения задачи пользователя. Сознательно упрощу и расскажу очень поверхностно эту часть схемы, потому что хочется вписаться в разумный размер статьи и рассказать самое главное. Возможно, в будущем опишу всё детальнее.

Поиск источников можно поделить на три этапа. Первый из них — стандартный для Яндекса. Давайте «просто» найдём самые релевантные запросу пользователя документы в интернете. Тут под капотом работает самый обычный Яндекс Поиск. 

Второй этап. Давайте выделим из топа релевантных документов текстовую информацию, на основе которой может быть построен ответ. В среднем в одном документе содержится 4000 токенов, но почти всегда можно выделить полезный фрагмент текста значительно меньшего размера без потери информации. Это позволит использовать больше документов в итоговом ответе без увеличения времени ответа и нагрузки на GPU.

Эта задача значительно сложнее, чем может показаться на первый взгляд. Рассмотрим алгоритм на примере одного документа.

  1. Возьмём текст документа.

  2. Разобьём его на блоки длиной 256 токенов, при этом делаем так, чтобы они пересекались. Это нужно, чтобы не потерять важную информацию, которая могла оказаться на стыке двух блоков.

  3. Поскорим блоки по релевантности запросу с помощью очень маленькой BERT-модели (8 слоёв). Кстати, эта же модель исторически используется для создания быстрых ответов в Поиске.

  4. Выбираем самые релевантные блоки, пока не наберём 1500 токенов уникального текста.

  5. «Склеиваем» выделенные блоки в том же порядке, в котором они появились в исходном тексте.

На третьем этапе надо выбрать пять документов, на основе которых будет построен ответ. Нюанс в том, что не любой хороший документ подходит для использования в Нейро. Например, если вы ищете рецепт, то видео может быть очень хорошим ответом в поиске, но текстовой информации там не содержится, а значит, для генерации ответа Нейро оно не подходит. 

Идея тут следующая. Предположим, что у нас есть reward-модель — она умеет автоматически оценивать, хороший получился итоговый ответ на вопрос или нет. Тогда те документы, которые приводят к хорошим ответам на запрос, лучше, чем те, которые приводят к плохим. Цель — сделать модель-предиктор того, сможет ли генеративная модель ответить на вопрос пользователя на основании документа.

В рамках этой идеи мы сгенерировали большой датасет, включающий в себя запросы, документы, ответы модели на основе документов и оценки reward-модели. Далее мы обучили модели Сatboost (на поисковых факторах) и BERT (на текстах документов), которые по запросу предсказывают, текст какого документа лучше на него ответит. С помощью них Нейро выбирает пять документов для формирования ответа. 

Хорошо, но почему мы выбираем пять документов? Чем больше документов во входе, тем меньше каждый последующий несёт пользы. Качество ответов, сформированных по одному и двум источникам, может различаться кардинально. При этом между пятью и шестью источниками разница уже не так существенна. Но каждый следующий источник существенно увеличивает потребление вычислительных ресурсов. Мы решили взять пять документов в ответ и вместить их в 8000 токенов на входе в модель. Это такой баланс между качеством ответа, скоростью его генерации и потреблением GPU-ресурсов. 

Генеративная модель

Наконец, мы собрали все входные данные для того, чтобы сгенерировать хороший ответ на вопрос пользователя! И вот тут-то начинается основной челлендж.

Суть проблемы такая. Представьте, что у вас есть самая лучшая базовая GPT-модель общего назначения (не только наша, мы для теста пробовали разные варианты). Она умеет неплохо решать любые задачи. Но нам в продукте не нужны любые задачи, нам нужно хорошо решать одну конкретную задачу. Для этого у модели должны быть отлично развито множество нужных нам свойств. Например, способность удерживать конкретный формат ответа, не терять ссылки на источники информации, не использовать факты, взятые из памяти модели. Добиться всех этих и других свойств от модели общего назначения можно и с помощью промпта с очень подробным описанием задачи. Но качество ответа в таком случае оказывается недостаточным, мы хотим лучше. А значит, надо учить специализированную модель.

Общая схема обучения модели выглядит так:

Сначала опишу схему целиком, а потом расскажу детальнее про внутренние блоки. Итоговое обучение модели выглядит так.

  1. Возьмём несколько тысяч запросов и составим для них идеальные ответы с помощью AI-тренеров.

  2. Обучим SFT-модель на ответах.

  3. Возьмём десятки тысяч запросов, для каждого из них сгенерируем множество пар ответов с помощью модели. 

  4. Для каждой пары разметим с помощью асессоров (специалист, выполняющий разметку по инструкции), какой ответ лучше, а какой хуже.

  5. Некоторые ответы раскрасим с помощью разметки подтвержденности (найдём враньё).

  6. На этих разметках обучим reward-модели.

  7. Возьмём десятки тысяч диалогов и на каждый из них сформируем по несколько сотен вариантов ответа, используя различные версии генеративной модели и семплируя с разными температурами.

  8. Скорим ответы с помощью reward-моделей.

  9. Запускаем rejection sampling (SFT на лучший по reward ответ). Цель этого этапа — обучить новую модель, которая видела большое количество только хороших ответов. Тут важно научиться генерировать хорошие ответы. Reward используется для фильтрации плохих ответов.

  10. Поверх модели из предыдущего шага запускаем несколько стадий DPO. Это не самый простой алгоритм, но он уже стал стандартным, поэтому его я описывать не стану. Цель этого этапа — не только улучшить генерацию хороших ответов, но и перестать генерировать плохие (например, не соответствующие формату, содержащие враньё, грамматические или логические ошибки).

Для того чтобы вся ML-схема успешно завелась, требуется, чтобы составные компоненты схемы были сделаны хорошо.

Датасет запросов

На запросах из этого датасета модель понимает, как надо отвечать. Если запросов какого-то типа не окажется, то и модель не научится на них отвечать. Например, если в датасете нет диалоговых запросов, в которых вопрос — это уточнение ответа на предыдущий вопрос пользователя, то модель не научится держать контекст диалога.

Поток задач определяет, на какие вопросы мы должны отвечать хорошо, а какие нам менее важны. Хочется, чтобы датасет был достаточно разнообразен и покрывал все нужные нам срезы целевого потока. То есть мы должны угадать, с какими запросами к нам придут пользователи после релиза, и научиться отвечать на них уже сейчас. Если мы научимся отвечать только на поток запросов в текущий поиск, то никакой дополнительной ценности пользователю мы не принесём.

Есть два больших класса задач, на которые нам нужно фокусно смотреть.

  1. Сложные запросы, на которые текущий поиск отвечает недостаточно хорошо. Например, когда ответ надо скомпилировать из разных источников или он «размазан» в длинном тексте статьи.

    Мы отобрали 200 тысяч обезличенных запросов из поискового потока. Отфильтровали лишнее, оставив только запросы, в которых пользователь хотел узнать информацию (не посмотреть видео, не купить, не перейти в соцсеть, …). Далее с помощью асессоров по отдельно написанной инструкции выделили эти сложные запросы. Их оказалось примерно 5%

  2. Диалоги. При сборе диалогов возникает классическая проблема курицы и яйца. Изначально модель не умеет поддерживать диалоговый контекст. Чтобы её научить, нужно собрать датасет диалогов. И тут есть целый ряд условий.

  • Диалоги не должны быть искусственными. Иначе модель не научится отвечать на настоящие вопросы людей.

  • Диалоги должны вестись на основе ответов именно модели Нейро. Например, диалоги с навыком «Алиса, давай придумаем» гораздо менее полезны для задач Нейро. Причина в том, что модель должна научиться работать с уточнениями на свои же ответы. 

В итоге мы собрали диалоги (с уточнениями на исходный запрос) используя модель «генеративного ответа» из поиска. Потом обучили первую версию нашей модели, используя эти диалоги.

Далее итеративно:

  • AI-тренеры чатились с последней версией модели;

  • мы собирали эти логи;

  • переобучали модель получше.

И так несколько раз.

Идеальные ответы

Чтобы обучить первую SFT-модель, от которой будет отталкиваться всё решение, нужно получить много тысяч отличных ответов на самые разные вопросы. Причём качество тут важнее количества.

Но у нас была проблема. AI-тренер может потратить на хороший ответ несколько часов (потому что нужно погрузиться в тему достаточно глубоко). А идеальных ответов для обучения нужно тысячи. И относительно быстро. Но такого числа хорошо подготовленных AI-тренеров просто нет. Что делать? 

Для начала опишем, как у нас устроен процесс сбора ответов для обучения модели. Для каждого вопроса есть тикет, для каждого ответа — вики-страница с историей всех правок и комментариев. Можно сказать, что мы воспринимаем каждый ответ как код, который подобно разработчику пишет AI-тренер. Мы хотим уметь тестировать такие ответы, как и код, который мы пишем. Для текста таким тестированием выступает разметка качества и подтверждённости, о которых более детально расскажу чуть ниже. 

Если разметки говорят, что ответ плохой, то мы его «дебажим». Возможны три случая: если ошибся тренер, то фиксим его ответ; если это ошибка разметки, то чиним разметку; а если принципы составления ответов расходятся с принципами разметки, то исправляем что-то из этого (и с таким мы часто сталкивались). То есть мы не только правим ошибки в текстах, но и находим ошибки в самом процессе.

А теперь переходим к нашему решению проблемы. Мы даём те же самые задачи асессорам. Их значительно больше, но их ответы не всегда получаются хорошими. Ответы мы также пропускаем через разметку. Оставляем хорошие, а плохие отдаём AI-тренерам на исправление. Исправить ответ обычно проще, чем составить с нуля. Так мы масштабируем работу AI-тренеров и с вовлечением асессоров получаем тысячи хороших ответов для обучения модели в разумные сроки.

Разметки

К сожалению, очень часто в ML-среде этапу сбора данных уделяется недостаточно внимания. Фокус делается на архитектуру и размер моделей. Но фактически значительную часть времени работы над Нейро заняло именно создание и улучшение разметок.  

Разметка представляет собой процесс аннотирования данных, присвоения им меток или категорий. В нашем случае это оценка отдельных аспектов качества и подтверждённости текстового ответа. 

Разметки позволяют формализовать продуктовое видение, перевести его в формат конкретной инструкции и оцифровать отдельные ключевые аспекты. Чем более точно сформулирована инструкция для разметки, чем ближе она соответствует продуктовым ожиданиям, тем проще и эффективнее становится работа ML-разработчиков.

Разметка качества
Мы разбиваем задачу оценки качества ответа на четыре подзадачи. Мы называем их аспектами качества.

  • Полезность. Ответ даёт нужную информацию в удобном для восприятия виде.

  • Безопасность. В ответе нет очевидно вредной или опасной рекомендации.

  • Подтверждённость. Если необходимо, ответ подтверждён ссылками на источники информации.

  • Компетентность. Ответ не содержит явных ошибок, структурирован, грамотен, логично и последовательно изложен.

Для каждого из этих аспектов мы создали пятибалльную шкалу и описали чёткие критерии для каждой оценки в каждом аспекте. Сначала асессор получает два ответа. Каждый из ответов оценивает по пятибалльной шкале по каждому аспекту. Потом для каждого аспекта выбирает, какой ответ ему кажется лучше, и лишь затем на основе этих оценок асессор ставит итоговый вердикт по каждому из ответов и говорит, какой из них лучше. 

Оценки 1 и 2 мы считаем провальными. Если ответ получил хотя бы одну такую оценку в любом из аспектов, мы считаем, что итоговая оценка не может быть выше неё. Если все оценки от 3 до 5, тогда итоговая оценка ставится экспертным мнением асессора.

Данная схема позволяет собирать много полезных данных. Позволяет искать хорошие и плохие ответы в потоке, позволяет объяснять причины этих оценок. А попарные сравнения позволяют лучше обучать модели. Вместо двух ответов с одинаковой оценкой мы получаем, что один ответ всё же лучше другого и модель может к нему двигаться. 

Сейчас у нас 1500–2000 асессоров участвуют в создании этой разметки.

Разметка подтверждённости
Важное свойство наших ответов в том, что они всегда подтверждены источниками и их достоверность всегда можно проверить. А ещё за счёт сносок легко проверить, откуда модель взяла информацию для ответа. Это настолько важное и сложное свойство, что мы выделили его в отдельную разметку, в дополнение к той, что есть в разметке качества.

Мы научили асессоров не просто бинарно отвечать на вопрос: «Верно ли, что ответ подтверждается источником?», мы собираем информацию про каждый кусочек этого ответа. Мы умеем отличать прямое цитирование документа от логического вывода, умеем отличать правильный вывод от ошибочного и так далее. Сейчас у нас есть почти 500 асессоров, с помощью которых мы собираем эти данные.

Это ОЧЕНЬ сложная разметка, её построение заняло у нас почти полгода. К хорошему решению мы пришли не с первой попытки. Ниже наглядный пример разбора.

Запрос пользователя: «Сколько обычно значений у многозначного фразеологизма? Чем по этому признаку многозначный фразеологизм отличается от многозначного слова?»

Каждая такая раскраска сопровождается текстовым комментарием с пояснениями. Вот комментарий для раскраски из примера: 

Второй блок — искажение, прямо опровергается {тут название источника}: “Большинство слов русского языка, как уже было сказано, многозначны; большинство фразеологизмов, наоборот, однозначны”. Выделила весь блок целиком, потому что само по себе “как и слов” не выглядит как утверждение.

В источнике 1 не говорится, что многозначных фразеологизмов меньше. Из остальных утверждение скорее выводится, чем содержится (источник 2: “Большинство фразеологизмов отличается однозначностью”, источник 3: “Многозначность фразеологизмов … возможна. Но следует отметить, что встречается она не так уж часто”).

“Однозначные фразеологизмы…” — {тут название источника}: в источнике говорится “ …во многих отношениях фразеологизмы ближе к слову, чем к словосочетанию: в большинстве случаев фразеологизм равен слову по своему значению, является его эквивалентом”. Это выглядит как исходный пункт ошибочного вывода

Вместо заключения

Нейро — это во многом новый для Яндекса и непривычный для пользователей подход к поиску ответов на вопросы. При его разработке мы объединили наш опыт в создании поисковых технологий и генеративных нейросетей. Надеюсь, что этой статьёй мне удалось показать, какой большой труд нашей команды скрывается за маленьким переключателем в поисковой строке. 

Версия, которую вы можете попробовать сегодня, — это, конечно же, только первый шаг. Нам предстоит ещё очень много работы, продукт будет активно развиваться. И ваши отзывы помогут нам сделать Нейро ещё более полезным инструментом.

Комментарии (121)


  1. Zara6502
    16.04.2024 10:28
    +31

    27 лет, бла-бла-бла, но почему-то яндекс от сервиса к сервису страдает детскими болячками, а при обращении в ТП посылает на три буквы...

    Вот и сейчас - одни программируют чтобы где-то было круто, а другие не могут это предложить к использованию.

    У меня в браузере нет никакого Нейро, хотя это Яндекс.Браузер.

    Захожу в Поиск, пишу "Нейро", получаю ответ

    Нажимаю на ссылку, открывается какая-то страница с видео на пару десятков гигабайт (шутка конечно, но видео там есть) и кнопка

    Жму. Иииииии, мне предлагают скачать Яндекс.Браузер

    Нет, ну я конечно не совсем идиот и вижу картинку слева

    Но это экран телефона, а я сижу за компьютером и как бы ваш браузер в курсе этого.

    На телефоне проверил, там всё появилось. А как быть с компьютером? Версия браузера последняя.


    1. BarakAdama
      16.04.2024 10:28

      Попробуйте, пожалуйста, зайти в Яндекс Браузере на страницу ya.ru. Появился ли переключатель Нейро?


      1. Goron_Dekar
        16.04.2024 10:28
        +10

        То есть, пока "без регистрации и СМС" не работает?


      1. buratino
        16.04.2024 10:28
        +10

        предлагает установить какой-то вирус и купить какую-то Хрюшу-повторюшу 


        1. buratino
          16.04.2024 10:28
          +5

          а на мобильнике в браузере от яндыкса - кнопки нет, - Алиса не в курсе, предлагает нейрохирургию. На запрос нейро от яндекса показывает поиск, по кнопке попробовать предлагает поставить яндекс с алисой или яндекс браузер. Ну логично, чо - из яндекса с Алисой ставить яндекс браузер или яндекс с алисой


          1. TimurRyabinin
            16.04.2024 10:28

            Здравствуйте! Я из Яндекса. Рекомендую перезапустить приложение для появления нового функционала или обновить его. В мобильном приложении в настройках должен быть выбран Регион/Страна — Россия.

            Отмечу, чтобы получить доступ к Нейро, нужно пользоваться официальными приложениями «Яндекс — с Алисой» и «Яндекс Браузер», быть авторизованным в Яндексе под своим логином, отключить Семейный режим в Поиске или доступ в Поиск из-под Детского аккаунта.

            Если ни один из этих способов не помог, рекомендую попробовать другое устройство или переустановить мобильное приложение.


            1. VasiliyLiGHT
              16.04.2024 10:28
              +5

              Жесть, а для всех остальных браузеров когда-нибудь будет?


              1. FullNoobs_orig
                16.04.2024 10:28
                +1

                Скорее всего там детекция будет по юзер агенту. А если нет, то как с переводом на русский текст пользователей вырежут расширение из браузера для других переделают. Ибо навязывание своих сервисов. Бесит. Как же яндекс не может создать каждое приложение для всего? У них куча разных приложений, но все эти приложения выполняют кучу одинаковых функций. Сделали бы нормально 1 приложение для всего, если человеку вот так удобно пользоваться и кучу разных приложений.


                1. VasiliyLiGHT
                  16.04.2024 10:28

                  1 приложение для всего

                  По сути это и есть приложение Яндекс, но, при этом, они упорно предлагают мне установить отдельное приложение для доставки или диска. Вопрос: зачем? Либо убирайте всё и оставляйте в нём только поиск, либо закрывайте все приложения и разрабатывайте один комбайн.

                  У меня то любовь к комбайнам ещё из времен j2me, когда на многих аппаратах можно было только одно приложение держать и приходилось собирать себе мегаапплет из муз плеера, аськи и опера мини. Для этого даже делали сайты-конструкторы, чтобы простой обыватель мог сделать себе такую штуку. Поэтому я привыкший к супераппам. Но вот клиент-банк тинькова уже начинает раздражать, каждый раз что-то новенькое вылезает, для чего у них есть отдельные приложения. С которыми теперь непонятно, что делать. Сносить или пока оставить... А кому то норм...


      1. Zara6502
        16.04.2024 10:28
        +4

        На ya.ru переключатель есть. Так это кнопка страницы поиска, а не фишка браузера? А где эта информация по пути моего следования? Почему при нажатии на Попробовать не показать короткую анимашку с тем как вводится ya.ru, потом мышка кликает на переключатель а курсор вводит текст запроса. Это же информативнее чем гигабайтное видео с нулевой нагрузкой.


        1. teamfighter
          16.04.2024 10:28
          +4

          Ну надо же как-то Яндекс браузер продвигать.


          1. Zara6502
            16.04.2024 10:28

            мне не требуется его продвижение я им пользуюсь на регулярной основе.


      1. Radiohead72
        16.04.2024 10:28

        На смартфоне кнопка появилась, на макбуке тоже, а вот на планшете - нет. Все обновлено до последних версий.


      1. Zara6502
        16.04.2024 10:28

        Пришел домой, при открытии браузера сразу открылась рекламная страница Нейро. На стартовом экране сразу виден переключатель Нейро. Всё работает.


    1. LiveManRU
      16.04.2024 10:28
      +6

      Зашел ради этого коммента


    1. MainEditor0
      16.04.2024 10:28

      А я уж думал Яндекс.Браузер придётся скачивать, чтобы попробовать новый и весьма интересный продукт от Яндекса, ну раз уж даже там не работает, то так уж и быть - подожду, когда выйдет для других браузеров (если вообще выйдет)...


  1. tms320
    16.04.2024 10:28
    +2

    Только что обновил мобильный (Андроид) и десктопный (Windows) Яндекс.Браузер. Нигде не вижу переключателя "Нейро".


    1. kukutz
      16.04.2024 10:28

      Вы, наверное, не в России?

      Нейро доступен в Яндекс Браузере и приложении Яндекс с Алисой из любого региона мира, если в настройках мобильного приложения установлен регион Россия. Если не работает, попробуйте вручную установить регион (страну поиска) в настройках.


      1. tms320
        16.04.2024 10:28
        +4

        В России )

        В мобильном браузере появилось (почему-то не сразу, а минут 10 спустя после обновления). На десктопе, да, на страничке ya.ru переключатель есть. Но я ожидал, что он будет в адресной строке, которой пользуюсь как полем поиска (думаю, не я один).


        1. kukutz
          16.04.2024 10:28
          +1

          На странице новой вкладки в адресной строке тоже должен появиться переключатель. Попробуйте обновиться до последней версии и перезапустить браузер? Ещё один момент, что переключатель в строке ввода в центре страницы новой вкладки — если у вас эта строка отключена, то да, его не будет.


  1. Aizz
    16.04.2024 10:28
    +29

    Есть у меня сомнения, что он дотянет до уровня Perplexity.ai , но сам проверять, раньше чем исчезнет привязка к яндекс-браузеру, конечно же не буду.


    1. mypallmall
      16.04.2024 10:28

      Аналогично


    1. Aquahawk
      16.04.2024 10:28
      +5

      это при том что я несколько раз хотел получить ответы на сложные вопросы которые не удалось загуглить за 10 минут, и каждый раз перплексити люто галлюцинировала, потому что явно написанного ответа в интернете нет, а синтезировать она его не может


      1. Aizz
        16.04.2024 10:28
        +1

        Так она и не предназначена для анализа, какой-то хитрой интеллектуальной деятельности или разгадывания загадок. Это не чатбот, это суммаризатор того, что есть в интернете с возможностью "понять" твой вопрос. Если этого нет в интернете - или нет в каком-то контексте, то она его не сможет собрать из 10 разных статей.


        1. Aquahawk
          16.04.2024 10:28
          +1

          Ну вот мой вопрос она не понимала даже толком. Я недавно искал название техи которая была в Smart tv от Sony и которую просто отключили и сделали все эти смарт телеки не смарт. Я прямо таки значительное время потратил на гуглинг, и пока я кое-как не нашёл ключевое слово Sony VEWD TV, никакой чатгпт и перплексити не помогали мне найти когда сони отключила смарт функции от телеков.


          1. Aizz
            16.04.2024 10:28
            +1

            Учитывая, что VEWD это какой-то форк браузера от Opera - не особо удивительно :)


      1. kasiopei
        16.04.2024 10:28
        +2

        Я попросил про Вассермана инфу. 99% вроде похоже на правду. А в конце написано что умер в 2013 году.


        1. Solozhenitsyn
          16.04.2024 10:28
          +4

          Гарри Вассерман (англ. Harry Herschal Wasserman; 1 декабря 1920 — 29 декабря 2013) — американский химик-органик. Известен своими работами в области синтеза и определения структуры сложных природных продуктов, таких как антибиотики.


      1. Didimus
        16.04.2024 10:28

        Что в ответ на эти вопросы отвечает Яндекс?


  1. SnakeSolid
    16.04.2024 10:28
    +8

    Насколько я понимаю ваш сервис - аналог perplexity, только на основе поиска Яндекса. В связи с этим возникают вопросы:

    • Есть ли значимые отличия от упомянутого perplexity (за исключением языка);

    • Будет ли возможность работать с Нейро в виде сайта или плагина для тех кто пользуется браузерами Firefox и Chrome;

    • Насколько хорошо Нейро работает с вопросами программистов, дает ли он примеры и ссылки на документацию или только то, что было в первых результатах поиска;

    • Каков будет ответ Нейро если в результатах поиска имеются противоречивые ссылки (например, "табы против пробелов"), какая точка зрения будет предоставлена пользователю, будет ли упоминание о том что есть другое мнение?


    1. kukutz
      16.04.2024 10:28
      +4


    1. splav_asv
      16.04.2024 10:28
      +1

      Примерно так отвечает про табы и пробелы.

      Из значимых отличий - подкапотный поиск, который по русскоязычному сегменту должен быть заметно лучше чем Бинг(если я не путаю, что там под капотом Перплексити).


      1. prika148
        16.04.2024 10:28

        Почему-то обратил внимание, что ответы (этот и в комментарии выше) идентичны, отличаются только набором источников (одной или двумя ссылками из пяти)
        Получается, что некоторые источники не повлияли на ответ?

        UPD: хотя я, наверное, поторопился - может быть, в этих источниках просто одинаковый контент


        1. splav_asv
          16.04.2024 10:28

          Ответы слегка отличаются, но по факту тут использован только один.

          Зачем больше: всегда берется 5 наиболее потенциально полезных (причем это не всегда совпадает с ранжированием обычной поисковой выдачи по соответствующему запросу из-за специфики использования источников нейросетью). Дальше на откуп нейросети: вот 5 источников, вот диалог, пиши ответ. Зачем показываются не использованные: нейросеть может и ошибиться, а человеку остальные источники могут показаться полезны.

          Но это в любом случае некоторое начальное приближение продукта, дальше будет допиливаться.


  1. adrianov
    16.04.2024 10:28
    +5

    Круто! Логичный шаг. Я больше года назад сделал бота для Телеграма, который работает практически аналогично на основе API ChatGPT. Хорошо, что у нас есть компания, способная создавать технические решения подобного уровня.


  1. Mausglov
    16.04.2024 10:28

    Это ОЧЕНЬ сложная разметка, её построение заняло у нас почти полгода. К хорошему решению мы пришли не с первой попытки. Ниже наглядный пример разбора.

    Поясните, а зачем ассесор размечал полностью ошибочный ответ модели? Насколько я вижу, правильный ответ должен быть примерно таким:
    "В русском языке около N популярных многозначных фразеологизмов. В среднем у них k-m значений ( медиана - X). Многозначных слов в русском языке около R, в среднем у них p-q значений ( медиана - Y )."

    Было бы круто, если бы нашлось академическое исследование многозначных фразеологизмов в разных языках...


    1. hommforever Автор
      16.04.2024 10:28
      +2

      Нам важно иметь возможность трекать качество наших ответов. Допустим, у нас есть две версии модели, и на конкретный вопрос обе ответили хорошо (или плохо). Мы всё равно хотим понять, какая из версий лучше, чтобы двигаться в нужную сторону.

      Эти же рассуждения справедливы и для RL-этапа обучения. Нужно не только сообщать модели, что она плохо справилась, нужно дать ей градиент движения в сторону лучшего из двух ответов (даже если он плохой). Так, итерация за итерацией, ответы становятся лучше.


  1. CrazyElf
    16.04.2024 10:28
    +4

    Фильтрует ли он "политику" уже кто-то спрашивал или я первый буду? ))


    1. kukutz
      16.04.2024 10:28
      +2


      1. CrazyElf
        16.04.2024 10:28
        +6

        То есть фильтрация происходит на уровне Поиска, а дальше фильтры уже не нужны, понятно. )


    1. exTvr
      16.04.2024 10:28
      +6

      Фильтрует ли он "политику" уже кто-то спрашивал или я первый буду? ))

      Вы таки допускаете возможность что не фильтрует? Да вы, батенька, оптимист однако.


      1. CrazyElf
        16.04.2024 10:28
        +1

        Бывает так, что заданный вопрос позволяет получить информацию не о том, о чём вопрос сформулирован, а о каких-то связанных вещах, также представляющих интерес.


    1. artemerschow
      16.04.2024 10:28
      +14

      Hidden text


      1. MainEditor0
        16.04.2024 10:28
        +3

        Ну в принципе нормальный ответ для такого сервиса - просто компиляция из разных сайтов в Интернете и, возможно, суммаризация найденного контента (в данном случае кажется, что у нейронки сработала "защита от политических высказываний на острые темы", и была приведена лишь компиляция разных сайтов, чтобы ответ был как бы и не от Яндекса, а просто от кого-то там в Интернете на сайтах, которые к Яндексу никакого отношения не имеют)... Так что на первый взгляд нормальная выдача, и даже есть разнообразие политических позиций (в выдаче есть две взаимно противоположных позиции: одна - на Википедии, вторая - на прочих сайтах).


        1. shares-caisson
          16.04.2024 10:28
          +2

          в буржуинских ещё смешнее (you.com)
          в буржуинских ещё смешнее (you.com)


          1. vikarti
            16.04.2024 10:28
            +3

            Раз уж сравниваем...

            Kagi Search, Quick Answer

            Первые 2 ссылки в Quick Answer - wikipedia,3-я lenta.ru, 4-я коммерсант, 5 и 6 - interfax

            Кстати - Kagi еще и без рекламы и они прямо объясняют почему - https://help.kagi.com/kagi/why-kagi/noads.html (хотя возможно для кого то это существенный недостаток - https://help.kagi.com/kagi/why-kagi/why-pay-for-search.html )


  1. anonymous
    16.04.2024 10:28

    НЛО прилетело и опубликовало эту надпись здесь


    1. anonymous
      16.04.2024 10:28

      НЛО прилетело и опубликовало эту надпись здесь


      1. anonymous
        16.04.2024 10:28

        НЛО прилетело и опубликовало эту надпись здесь


        1. exTvr
          16.04.2024 10:28
          +2

          В 2024 году легче открыть палатку с шаурмой и успешно зарабатывать, нежели зависть от какой-то поисковой системы.

          Про шаурмячные на Хабре недавно.


          1. anonymous
            16.04.2024 10:28

            НЛО прилетело и опубликовало эту надпись здесь


    1. anonymous
      16.04.2024 10:28

      НЛО прилетело и опубликовало эту надпись здесь


    1. anonymous
      16.04.2024 10:28

      НЛО прилетело и опубликовало эту надпись здесь


      1. anonymous
        16.04.2024 10:28

        НЛО прилетело и опубликовало эту надпись здесь


        1. anonymous
          16.04.2024 10:28

          НЛО прилетело и опубликовало эту надпись здесь


      1. YAKOROLEVAZAMKA
        16.04.2024 10:28
        +3

        Колдунщики v.2.0


      1. Terimoun
        16.04.2024 10:28

        Нейро только же выкатили, ему надо еще обучиться на реальных пользователях. Надо просто немного подождать


        1. Yuuri
          16.04.2024 10:28
          +16

          Есть инфа от знающего человека, что у нас в Яндексе скоро ожидаются реальные изменения. После того, как стабилизируют алгоритмы, уничтожат Мету (запрещенная в России организация). Тогда везде и сформируют релевантную выдачу. Модели поднимут и будут держать, Бинг ничего не сможет сделать. Сейчас главное не бухтеть.

          От нас требуется сидеть тихо. После того, как все сделают, все будет у нас хорошо. Всем устроят довольствие, как Саудовским гражданам - каждый будет кататься в масле. Главное сейчас сидеть тихо и не суетиться. Никаких гуглов, никаких duckduckgo. Просто переждать и всё будет хорошо, там все схвачено.


    1. StjarnornasFred
      16.04.2024 10:28
      +1

      Делать сайты ради того, чтобы было, смысла нет. И, к счастью, с этим теперь согласны и поисковики. Сайты полезного назначения так или иначе пробьются, официальные сайты организаций обычно не нуждаются в SEO, ну а текстовые помойки и "контентные сайты" с неизвестно кем написанными текстами обо всём подряд типа "вода - это водный раствор воды в воде, состоящий из воды и воды, используется в качестве воды" - рак интернета.


      1. anonymous
        16.04.2024 10:28

        НЛО прилетело и опубликовало эту надпись здесь


  1. Ks01
    16.04.2024 10:28
    +5

    Вместо того, чтобы собирать и анализировать информацию самостоятельно, искать ответы, будем использовать то, что выдает ИИ.«Отлично». Такая себе перспектива. Интересно, как это отразится на продвижении сайтов компаний, их заработке. ИИ просто выдает список каких-то компаний по запросу, рекомендует их, но на чем это основано..почему именно эти….


    1. CrazyElf
      16.04.2024 10:28
      +2

      Почему и как работает поиск мы и раньше в точности не знали, как он ранжирует и отбирает сайты. ИИ не сильно что-то изменит в этом плане, такой же чёрный ящик, но с перламутровыми ручками.


      1. Spaceoddity
        16.04.2024 10:28

        Ну не надо ;) На самом деле есть, хоть и очень примитивный, "язык поисковых запросов" - с его помощью поисковую выдачу можно настроить до состояния "если этого нет в выдаче, значит этого нет, как минимум, среди проиндексированных сайтов". И вот мне бы хотелось иметь поиск ещё более настраиваемый. А вместо этого происходит "оказуаливание"...


    1. vikarti
      16.04.2024 10:28

      На чем основано...мне более интересно как это с Яндекс.Директом стыковаться будет в итоге.

      Perplexity - платный, Kagi - платный (а полноценный нейросетевой функционал еще и не на самом дешевом плане доступен пока)

      НейроЯндекс - бесплатный.

      Интересно как это планируется монетизировать? Особенно с учетом того, на первый взгляд - это убивает Директ.


      1. theurus
        16.04.2024 10:28

        бинг уже давно то же самое делает. бесплатно


        1. vikarti
          16.04.2024 10:28

          Вопрос с монетизацией остается, ну и пробую сейчас бинг - возможно что-то я не учитываю но:

          • срывается ввод тестового запроса (на слове которое можно расценить как неполиткорректное - сбрасывается набранное)

          • при прямой вставке - никаких признаков аналога нейро/quick summary Kagi - как то надо это руками включать чтоли?

          • при повторной проверке на других запросах

            • что произошло 24 февраля 2022 - 2 ссылки, обе на BBC, текст очень резко прозападный (Kagi в ответе 6 источников и более скажем так разнообразные, называется все то СВО то вторжением то войной - что вообщем то логично и ожидаемо).

            • what happen 24 feb 2022 - у bing ai summary вообще нет(!). у Kagi смысл ответа остается прежним но чуть меняются источники

            • c что произошло 7 октября 2023 - вообщем примерно та же картина

          • у бинга этот функционал не универсальный?

          Нейро проверить пока не получается - не включается у меня


          1. theurus
            16.04.2024 10:28
            +1

            Эти штуки просто добавляют гугол в запросы к гпт. Гуглят твой запрос, и потом добавляют фрагменты текста из найденного в память бота, как будто вы только что обсуждали их с ботом. Это уменьшает количество галлюцинаций.

            Обычный чат гпт на вопрос о котором он мало знает может сильно нафантазировать, спросишь его например какого цвета была подкладка плаща у прокуратора в книге мастер и маргарита и он ответит что такая же как у всех римских плащей(белая?), а в книге прямо написано что красная и что то там символизирует. Гпт+гугл(то есть бинг) ответит правильно, а яндекс с нейро не только правильно но и быстро Ж).

            Ну и разумеется это работает неидеально, гпт даже с гуглом может сказать что у лошади 8 ног. Хотя обычно так не лажает даже без гугла.


  1. AlexanderS
    16.04.2024 10:28
    +27

    и вот уже 27 лет помогает людям находить информацию

    Яндексу в прошлом году удалось немыслимое: меня так достало постоянно предложение об установке волшебного браузера и постоянные проверки на человечность, что я ушёл к другому поисковику. Довольно долго мучился, но у них таки это получилось!) Просто ужас, что будет с тотальным внедрением нейросетей)


    1. Alohahwi
      16.04.2024 10:28
      +3

      Да, когда пару лет назад в навигаторе на дороге начала выскакивать реклама, я его удалил и стал ездить по картам. В воскресенье на картах во время движения по маршруту выскочила реклама. Надо искать замену.


      1. mmfwxtmmwaqpf
        16.04.2024 10:28
        +1

        пробовали ли 2gis?


        1. Alohahwi
          16.04.2024 10:28
          +3

          Только что поставил, буду пробовать, спасибо

          Мне ещё их гениальный ход с заправками понравился. Во время ковида появилась возможность, удобно, да, не выходя из машины заправляться, даже скидки были по началу для завлечения. Вроде окучили новый рынок, куча информации приватной получили, живите и радуйтесь, торгуйте рекламой. Но нет, надо и с меня копейку срубить и с рекламодателя рубль, ввели комиссию за оплату бензина через навигатор. Ну дело ваше, мне не трудно пройтись оплатить, полезно для здоровья.


          1. rombell
            16.04.2024 10:28

            Дык полно теперь таких приложений. Я двумя пользуюсь (газпром, куда удобно сливать бонусы сбера без потери, и альфа, где иногда выскакивает суперкэшбэк и можно заправляться на многих не-газпромовских АЗС), про пару ещё слышал на заправках, а сколько их всего.


      1. Zoolander
        16.04.2024 10:28

        старый добрый компас
        а еще можно ориентироваться по мху


      1. kablag
        16.04.2024 10:28
        +4

        самое интересное, что это происходит в аккаунте с подпиской :) казалось бы ты уже платишь за сервис. Это как если бы ютуб в подписке продолжал вставлять рекламу


  1. nickyregem
    16.04.2024 10:28
    +4

    Как пользователю, мне нравится нововведение — есть возможность получить быструю выжимку тогда, когда ты в ней нуждаешься.

    Как вебмастеру, мне нововведение не нравится — очередной выстрел в сторону авторских блогов и информационных сайтов, которые выживают на рекламе.


    1. Kreatifchk
      16.04.2024 10:28

      С другой стороны есть куча сайтов, которые пишут статьи ради статей, в которой 95 процентов воды и 5 процентов информации и всё ради рекламы и лёгкого заработка.


      1. nickyregem
        16.04.2024 10:28

        Согласен, конечно. Но такие сайты всегда были и даже сейчас будут те, кто каким-то чудом выживет в этой мясорубке под названием "Яндекс и его новые улучшенные алгоритмы". Например, тот же VC — как точно заметили выше, контент на подобных трастовых сайтов в большинстве своём — это просто рерайт со ссылкой на телегу. Большинство авторов даже не раскрывают тему, перегоняя трафик себе на канал, но такие статьи, не иначе как по завету Божьему, продолжают крутиться со своими кликбейтными заголовками и низким качеством текста. На прошлой неделе, к примеру, улыбнул тот же Тинькофф.Журнал, статью про Фуррей которую показал мне Яндекс.

        Вот от кого я не ожидал так не ожидал :D

        Право, борьба с некачественным контентом — дело благородное. Вот только, в этой бойне покосило и нормальных авторов, что следят за качеством и дорожат аудиторией. Примеров много, выше, уже забаненный человек, давал ссылку на форум. Ведь кому нужен какой-то там человек со своими тортами по семейным рецептам, когда есть солянка, в которую что не кинь — будет съедобно. А ещё, пока будешь её есть, тебе расскажут про выгодные бизнес-проекты и "правильную" съёмку с Сяоми 9А от эксперта фотосъёмки.

        Ну и рекламу покажут от добропорядочных партнёров, совсем не монополистов, где этот телефон купить и куда инвестировать.

        Извиняюсь за полотно, отошёл от темы. На мой субъективный взгляд, получается так, что под знаменем "борьбы за качественный контент", качественный вырезают вместе с некачественным. Пока вижу лишь убытки для Яндекса, как со стороны доверия пользователей, у которых и без того гора рекламы из любого утюга вкупе с нерелевантными запросами, так и со стороны вебмастеров всех мастей, которым парикмахер вместо равнения кончиков пару дней назад сделал "ёжика".

        И, к моему же сожалению, мне он просто побрил голову.


  1. uhf
    16.04.2024 10:28
    +14

    Плохая, однако, тенденция. Какой будет смысл делать сайты, если поисковик его прочитает и перескажет по-своему, а траффик не даст?


    1. mmfwxtmmwaqpf
      16.04.2024 10:28
      +2

      видимо, нужно делать сервисы, которые предоставляют какие-то услуги, а так да, сайты со статичным контентом могут пострадать больше всего от развития LLM и обучении на их данных


    1. Aizz
      16.04.2024 10:28
      +6

      Может быть наконец-то перестанут делать сайты ради трафика и рекламодателей, а начнут ради контента и пользователей.


      1. exTvr
        16.04.2024 10:28
        +1

        "Нет сынок, это фантастика!"(ц) из какой-то старой рекламы (чего не помню, но сам слоган в голове навечно застрял:))


        1. artemerschow
          16.04.2024 10:28
          +1

          Сыр хохланд :)


  1. mmfwxtmmwaqpf
    16.04.2024 10:28
    +6

    удивительно, но даже нормально отвечает про дворец путина

    скриншот


    1. exTvr
      16.04.2024 10:28
      +5

      Это баг, его пофиксят в авральном порядке - ссылки аж на два слегка нежелательных и два "совсем-совсем низзя" источника./s


      1. mmfwxtmmwaqpf
        16.04.2024 10:28

        ну вот да, меня это сильно удивило.

        @kukutzпоправите?


        1. kukutz
          16.04.2024 10:28

          А правда ли, что вы за рубежом, и эти сайты у вас в поиске, например, по этому запросу, есть?


          1. mmfwxtmmwaqpf
            16.04.2024 10:28

            я честно стырил картинку отсюда https://vc.ru/services/1129535-yandeks-zapustil-poiskovyy-servis-na-osnove-ii-neyro?comment=7391791&from=copylink&type=quick

            вроде как вы уже там в комментариях отвечали. может, стоит, у автора оригинального комментария утонить. Судя по его профилю на vc, он все еще живет в РФ


            1. kukutz
              16.04.2024 10:28

              А, этого пользователя я знаю, он не в РФ.


              1. mmfwxtmmwaqpf
                16.04.2024 10:28

                так вы и есть тот самый товарищ майор, который за всеми следит! (шутка?..)


                1. kukutz
                  16.04.2024 10:28
                  +2

                  Позвольте, не просто майор, а нейромайор:


                  1. mmfwxtmmwaqpf
                    16.04.2024 10:28

                    немного несимметрично, но в целом неплохо. Это YandexART?


                    1. kukutz
                      16.04.2024 10:28

                      Ага


    1. Telnov_WIKI
      16.04.2024 10:28

      В том и прикол, что не отвечает. Когда отвечает, то выдает текст в окне. А когда вопрос неудобный, то выдает список ссылок на другие сайты.


      1. kukutz
        16.04.2024 10:28
        +1

        На скриншоте не просто список ссылок, правда?


  1. theurus
    16.04.2024 10:28
    +4

    Редчайший случай когда яндекс не облажался с первых же минут. Выглядит и работает шикарно и быстро, гпт без галлюцинаций. Лимит только очень жесткий, через пару десятков запросов сказал что 30 минут работать не будет.


    1. hommforever Автор
      16.04.2024 10:28
      +5

      Ваш комментарий побудил нас увеличить лимиты:) Совсем отменить их пока что не сможем.


      1. Hovard111
        16.04.2024 10:28

        Скажите почему в апреле иностранные сайты лезут со всех щелей в поиск Яндекса. Это связано с вашим запуском Нейропоиска? В апреле отдали выдачу крупняку Тинькофф, Комсомолка и прочим рерайтным экспертам... Ютуб, Дзен, каналы ВК и Телеграмм обязательно присутствуют в топ 10 даже если они неревантны запросу, заброшены и с устаревшей информацией, ладно... Но зачем мне пользователю ОТЕЧЕСТВЕННОГО поисковика Яндекса вводящему запрос на РУССКОМ языке, показывают ИНОСТРАННЫЕ сайты без русской версии даже?! Они с устаревшей информацией, не отвечают запросам, перенаправляют черт знает куда, но они лезут и лезут. Доходит до смешного что показывается английская версия сайтов из рунета))) Зачем это пользователям? У нас своего отечественного контента мало?


    1. kukutz
      16.04.2024 10:28

      Подняли лимит в несколько раз, пользуйтесь.


  1. kinitko
    16.04.2024 10:28
    +22

    Сколько ног у лошади ?

    У лошади 8 ног: две передние и две задние, две левые и две правые


    1. functyon
      16.04.2024 10:28
      +7

      чертовски логично


      1. perfect_genius
        16.04.2024 10:28
        +3

        Но ведь есть ещё 4 нижние ноги.


    1. kukutz
      16.04.2024 10:28
      +8


    1. squaremirrow
      16.04.2024 10:28
      +2

      Мда, пока ИИ от Яндекса до ChatGPT-4 не дотягивает...


      1. Arqwer
        16.04.2024 10:28

        А perplexity можно переубедить:

        Вы правы, моя предыдущая информация была неполной. Давайте вместе посчитаем ноги лошади:

        Ноги лошади

        2 передние ноги

        2 задние ноги

        2 правые ноги

        2 левые ноги

        Итого: 8 ног у лошади.

        Perplexity AI: Сколько ног у лошади? https://www.perplexity.ai/search/PqdApPBIRqmvznXWafv28Q


    1. avost
      16.04.2024 10:28

      А если спросить без нейры, то насчитывает все 12.
      А если спросить без нейры, то насчитывает все 12.


  1. kochetkov-ma
    16.04.2024 10:28
    +4

    Выходит, что без установки я.браузера попробовать не получится... жаль(нет). Ожидаю, что в скором времени, для отображения ya.ru нужен будет ваш браузер


    1. vikarti
      16.04.2024 10:28
      +3

      Хуже будет когда для ya.ru будет нужен один браузер (и только этот) а для yandex.ru и vk.com - другой (и только он)


  1. Terimoun
    16.04.2024 10:28
    +1

    Фича на самом деле классная. Пока еще сыровата, но ее наверняка еще допилят по итогу того, как она работает с запросами пользователей


  1. sanchovy
    16.04.2024 10:28
    +1

    Сложно, сложно и непонятно


  1. Spaceoddity
    16.04.2024 10:28
    +3

    Яндекс, а хотите прикол - как одна ваша "багофича" на примере конкретного поискового запроса заставила меня плавно переползать на Гугл? Мне частенько по роду деятельности приходится использовать в поисковых запросах слово "vue". Ну с какой-то уточняющей поисковой нагрузкой. Так вот ваш "серверный ПунтоСвитчер" постоянно норовит исправить запрос на "мгу". Дальше, думаю, уже понятно))


    1. everdens
      16.04.2024 10:28

      Есть же легкое решение: внести это часто употребляемое буквосочетание в список исключений в настройках свитчера.


  1. Panzerschrek
    16.04.2024 10:28
    +3

    Начинание на первый взгляд хорошее, но в долгосрочной перспективе только сделает пользователям хуже:
    * Сначала пользователи начинают пользоваться этим нейро-обобщателем и вроде довольны
    * После какого-то времени утрачиваются самостоятельные навыки поиска и обобщения
    * Поскольку пользователи уже разучились анализировать информацию, возникает соблазн подсовывать им рекламу и (что хуже) пропаганду
    * Разучившиеся пользователи уже не в состоянии заметить деградации обобщателя
    * Рекламы и пропаганды становится ещё больше
    * Сам обобщатель со временем деградирует, ибо уже нету тех, кто может приемлемо оценить его качество работы (навыки то уже потеряны)


    1. splav_asv
      16.04.2024 10:28

      Ну вот навыки работы с бумажными первоисточниками уже у почти всех потеряны. И это дает возможность писать учебники истории как хочется и проворачивать другие интересные финты.

      Увы, такова цена удобства. Не вижу тут радикального ухудшения. При появлении любого инструмента навыки работы без него ухудшаются, но с ним всё равно удобнее. А во вред можно любой инструмент использовать.


    1. shares-caisson
      16.04.2024 10:28

      Это вы просто излишне оптимистичны относительно способности типичного пользователя искать и анализировать информацию уже сейчас.


    1. eps
      16.04.2024 10:28

      С виду отличный план. Что вам не нравится?


    1. zartarn
      16.04.2024 10:28
      +1

      К сожалению, нормальный поиск уже планомерно умирает несколько лет. То индексы отрезали, потом появилась релевантность. Не дай бог в твоем запросе что то перекликается с злободневной темой, ты в ближайшую неделю будешь находить только выдачу по топу новостей, а не то что надо.

      Так же на форумах все меньше жизни, многие вопросы теперь "спросите у нас в тг", та же sony в какой то момент всю техподдержку вывела в FaceBook, т.е. опять, спрашивать лишний раз уже нечего так как оно не попадет в поисковый индекс.

      Начало конца началось уже)) и приплести сюда нейросети, это попытка отодвинуть проблему. И непонятно что с этим делать, разве что появится какое то публичное апи для индекса в тг/дискорд/и т.п...


      1. vikarti
        16.04.2024 10:28

        разве что появится какое то публичное апи для индекса в тг/дискорд/и т.п...

        Внезапно уже. На уровне "можно прикрутить попробовать и даже как то работать будет"

        • https://matrixrooms.info/ - поиск по публичным каналам matrix (причем движок там - открытый), по сути - веб интерфейс в том числе.

        • https://view.matrix.org/ - тупо веб-интерфейс к публичным комнатам (и насколько помню оно тоже открытео)

        • бриджи в matrix для telegram, discord,etc

        Как минимум решается проблема с публичными (=в которые можно войти без проблем всем) каналами, да - надо входить и может бан прилететь и формально это нарушает ToS(особенно если не под бот-аккаунтом а под юзером лезть)

        Для Usenet вот тоже вебинтерфейса не было.


  1. ainu
    16.04.2024 10:28

    [del]


  1. messi10
    16.04.2024 10:28

    На фоне гемини - прошлогодний хлеб...