
Вот недавно я сидел и пытался разобраться в одной теме. Всё закончилось на открытии десяти вкладок и погоней за новостями и отчётами. Вроде информации достаточно, но целостной картины нет. И тут я вспомнил, как один товарищ советовал мне Perplexity AI для поиска разной инфы. Я попробовал...
Честно, первая реакция была скептичной. Очередной чат-бот, который обещает золотые горы, а на деле выдаёт бессвязный текст. Но я ввёл первый запрос и удивился. Сервис ответил со ссылками и короткими выдержками. В какой-то момент стало понятно, что это похоже на поиск нового поколения и было бы интересно познакомиться с ним подробнее.
Сегодня у нас обзор Perplexity AI, приятного прочтения!
Что за Perplexity?

Perplexity это гибрид умного поиска и ассистента. Вы формулируете вопрос, система идёт по открытым источникам, собирает материалы, сопоставляет факты, отбрасывает шум и возвращает сводку с цитатами и активными ссылками на первоисточники. При необходимости ответ можно нарастить уточняющими вопросами, и Perplexity подтащит дополнительные данные.
Помимо веба сервис понимает файлы и изображения: PDF, DOCX, длинные статьи и инфографику можно просить пересказать, выписать ключевые идеи, собрать таблицу KPI с номерами страниц. Источники поиска настраиваются под задачу. Если нужен общий фон, выбирайте Web, для научной повестки Academic, для отчётности и показателей Finance, для трендов и обсуждений Social.

Под капотом доступны разные модели. В бесплатной версии выбор делается автоматически, в платных планах можно указывать движок руками, включая собственную Sonar, Claude и GPT. Форматы выдачи гибкие: короткие списки, табличные сводки, чек-листы, тезисы, а для длинных материалов есть генерация полноформатных текстов с картинками и форматированием.
Как это устроено изнутри?

Режим Search отвечает быстро и даёт выбрать тип источников. Это основной режим для справок, оперативных уточнений и коротких ответов с кликабельными ссылками. Если нужен глубокий разбор с большим покрытием, включайте Research. Он отправляет десятки подзапросов, просматривает сотни страниц и собирает подробный отчёт. Ответ готовится дольше, иногда несколько минут, но результат содержит больше фактов, диаграмм и перекрёстных ссылок.

Для задач в формате проекта есть Labs. Что-то вроде конвейера: вы задаёте цель и входные данные, а на выходе получаете дашборд, таблицу, мини-инструмент, графики и даже изображения. Когда требуется готовый длинный текст, пригодится Pages. Он находит актуальную информацию, упорядочивает её и собирает статью или гайд в выбранном тоне, может подбирать изображения и делать перечень источников.
Если хочется держать руку на пульсе, включайте Discover и настройте тематики. Для командной дисциплины и многоразовых процессов есть Spaces. Там задаются инструкции для ИИ в духе редакционных правил, подключаются файлы и общие источники, настраивается доступ для коллег.
Ограничения по файлам зависят от тарифа, но о них позже, для рабочих пространств удобно, что можно подтягивать документы из облаков вроде Google Drive, OneDrive или SharePoint.

А если нужен плотный серфинг и разработка в одном окне, пригодится Comet - собственный браузер с ИИ, который умеет анализировать страницу на лету, собирать заметки и автоматизировать рутинные шаги.
Плюсы работы с Perplexity

Самое заметное преимущество Perplexity - экономия времени на первичный сбор данных. Вместо того чтобы держать открытыми десяток-другой вкладок со статьями, новостями и исследованиями, вы делаете один запрос и получаете сводку по теме. Сервис сам ищет, фильтрует и агрегирует материалы - круто!
Perplexity выручает, когда нужно оперативно разобрать большой текст. Если у вас на руках PDF, длинная статья или отчёт, можно попросить пересказ, выделение ключевых идей, план или тезисы. В результате вы не тонете в деталях, а сразу видите структуру и главное.
В ряде независимых оценок Perplexity показывал хорошие результаты по достоверности источников и обоснованности ответов, об этом тоже позже, и негативные моменты также затронем.
По доступности всё просто. Есть базовая бесплатная версия. Её хватает для простых запросов и общей справочной информации. На повседневные задачи этого более чем достаточно, если не нужна глубокая проработка темы или академическая точность.
Минусы работы с Perplexity

За удобством скрываются и ограничения. Они важны, если от результата зависят решения. Во-первых, несмотря на наличие ссылок, Perplexity иногда выдаёт неточные или сомнительные ответы, особенно в узких и сложных темах.
Во-вторых, качество источников не всегда одинаково высокое. Даже когда ссылки есть, в выдачу могут попадать медийные сайты, блоги и устаревшие страницы. Методологические работы об этом прямо говорят. Я читал о случаях, когда ответ опирается на не самые надёжные ресурсы, а система придаёт им слишком большой вес. Это легко пропустить, если не открывать первоисточники.
В-третьих, длинные и многошаговые запросы даются не идеально. Контекст может рассыпаться после пары-тройки уточнений. Ответы становятся фрагментарными, как набор карточек, и связь между ними теряется. Пользователи отмечали, что при одновременной проверке нескольких URL сервис мог забыть часть ссылок. Для длинной работы это, конечно, минус.
Есть и вопросы к прозрачности в целом. Из-за массового краулинга контента сервис критиковали за методы сбора данных. Среди источников изредка может оказаться материал с нарушенными правами или сомнительным контекстом. Но это редкие случаи, но их стоит иметь в виду и фильтровать выдачу.
Как формулировать запросы?
Лучше всего работает принцип одна цель на один запрос. Если задача звучит как всё и сразу, ответ будет расплывчатым. Полезно придерживаться схемы контекст-цель-критерии-формат-источники-ограничения-проверка-экспорт.
Контекст фиксирует регион, период и предметную область.
Цель формулируется конкретно: что нужно на выходе - обзор, таблица, чек-лист, список рисков.
Критерии задают ожидания по глубине и охвату: сколько пунктов, какие метрики, какие пороговые даты.
Формат определяет структуру вывода, например, таблица из шести колонок.
Источники полезно ограничить типами: Academic и Finance для аккуратности, Web для широты, Social для среза обсуждений.
Ограничения скажут, чего не надо: исключи блоги без авторов и материалы старше 2021 года, отдай приоритет отчётам регуляторов и рецензируемым публикациям.
Проверка - это просьба указать слабые места данных и альтернативные трактовки, чтобы сразу видеть, где грунт, так скажем, зыбкий.
Экспорт - это финальный шаг: попросите сохранить итог в нужном формате или сгенерировать ссылку для коллег.
Интересные исследования о Perplexity
В 2025 году вышло исследование под названием Assessing Web Search Credibility and Response Groundedness in Chat Assistants. Оно оценивает поведение чат-ассистентов с веб-поиском по достоверности источников на 100 утверждениях из тем, склонных к дезинформации (здоровье, климат, политика).

Perplexity лидирует по credibility rate (86.3%) и минимальному использованию низкодостоверных источников (0.69%), показывая стабильную groundedness с низким уровнем non-credible groundedness.
С другой стороны, в исследовании Assessing the performance of 8 AI chatbots in bibliographic reference retrieval, посвящённом проверке способности сервисов формировать академические библиографические ссылки, Perplexity оказался одним из худших по части фабрикации ссылок.

Анализ 8 чатботов выявил, что только 26.5% ссылок полностью верны, 39.8% - ошибочны или сфабрикованы. Perplexity входит в группу с высокими показателями "hallucination" (фабрикация ссылок), уступая Grok и DeepSeek.
В работе DeepTRACE: Auditing Deep Research AI Systems for Tracking Reliability Across Citations and Evidence, где анализировали надёжность deep‑research систем вроде Perplexity на более фундаментальном уровне, подчеркнута тенденция к чрезмерной уверенности и возможной манипуляции фактами.

Perplexity демонстрирует сниженную overconfidence в deep-режиме, но сохраняет one-sided ответы и 40–80% точность цитирования с большим числом неподтвержденных утверждений.
Давайте посмотрим реальные возможности на тестах!
Тестируем!
Ну а тестировать мы будем в агрегаторе нейросетей BotHub. Это отечественная платформа, которая объединяет в себе всё: от генерации текстов и картинок до работы с видео, документами и кодом. Здесь не нужно ставить VPN, искать обходы или регистрироваться в десяти разных местах. Всё раб��тает в одном интерфейсе!
А для работы с текстом тут доступно 11 нейросетей, включая наш Perplexity!
При регистрации по этой ссылке Bothub дарит 100 000 капсов — забирайте бонус и начинайте творить бесплатно!
Многоэтапный анализ научной статьи
Загрузи и проанализируй полную статью 'DeepTRACE: Auditing Deep Research AI Systems' (arxiv.org/abs/2509.04499): выдели методологию, ключевые метрики оценки Perplexity, сравни с baseline-моделями в таблице, выяви слабые места в цитировании и предложи улучшения для deep-research.
Ответ

2. Комплексный анализ данных с визуализацией
Возьми данные из двух исследований ('Assessing Web Search Credibility' arxiv.org/abs/2510.13749 и 'Bibliographic Reference Retrieval' arxiv.org/abs/2505.18059): объедини метрики Perplexity (credibility rate, hallucination %), нормализуй по шкале 0-100, создай сравнительную таблицу с Grok/Claude/Gemini, построй heatmap корреляций и график radar для сильных/слабых сторон. Выводи код Python и интерпретацию.
Ответ

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from math import pi
# Данные из исследований
data = {
'Система': ['Grok', 'DeepSeek', 'Perplexity', 'Gemini', 'Claude', 'ChatGPT', 'Copilot', 'Qwen'],
'Credibility': [92, 88, 87.5, 82, 75, 70, 68, 65],
'Accuracy': [100, 100, 60.2, 65, 50, 55, 48, 58],
'Hallucination': [0, 0, 39.8, 35, 50, 45, 52, 42],
'Citation_Grounding': [95, 92, 58, 68, 55, 52, 45, 60],
'Reference_Quality': [100, 100, 61, 70, 48, 50, 42, 55]
}
df = pd.DataFrame(data)
# 1. HEATMAP корреляций
fig, axes = plt.subplots(2, 2, figsize=(16, 14))
# Подготовка данных для heatmap
metrics_df = df[['Credibility', 'Accuracy', 'Hallucination', 'Citation_Grounding', 'Reference_Quality']]
correlation_matrix = metrics_df.corr()
# Heatmap 1: Корреляции между метриками
sns.heatmap(correlation_matrix, annot=True, fmt='.2f', cmap='RdYlGn',
center=0, cbar_kws={'label': 'Корреляция'}, ax=axes[0, 0],
vmin=-1, vmax=1, square=True, linewidths=1)
axes[0, 0].set_title('Корреляционная матрица метрик оценки', fontsize=12, fontweight='bold')
# Heatmap 2: Производительность систем по метрикам
systems_metrics = df.set_index('Система')[['Credibility', 'Accuracy', 'Citation_Grounding', 'Reference_Quality']]
sns.heatmap(systems_metrics.T, annot=True, fmt='.1f', cmap='YlOrRd',
cbar_kws={'label': 'Оценка (%)'}, ax=axes[0, 1], linewidths=1)
axes[0, 1].set_title('Производительность систем по метрикам', fontsize=12, fontweight='bold')
axes[0, 1].set_xlabel('Система')
axes[0, 1].set_ylabel('Метрика')
# 2. RADAR диаграмма сильных/слабых сторон (для топ-3 систем)
top_systems = ['Grok', 'DeepSeek', 'Perplexity']
categories = ['Credibility', 'Accuracy', 'Citation_Grounding', 'Reference_Quality', 'Hallucination']
N = len(categories)
angles = [n / float(N) * 2 * pi for n in range(N)]
angles += angles[:1]
ax = plt.subplot(2, 2, 3, projection='polar')
colors = ['#FF6B6B', '#4ECDC4', '#45B7D1']
for idx, system in enumerate(top_systems):
values = [
df[df['Система'] == system]['Credibility'].values,
df[df['Система'] == system]['Accuracy'].values,
df[df['Система'] == system]['Citation_Grounding'].values,
df[df['Система'] == system]['Reference_Quality'].values,
100 - df[df['Система'] == system]['Hallucination'].values # Инвертированное значение
]
values += values[:1]
ax.plot(angles, values, 'o-', linewidth=2, label=system, color=colors[idx])
ax.fill(angles, values, alpha=0.25, color=colors[idx])
ax.set_xticks(angles[:-1])
ax.set_xticklabels(categories, size=10)
ax.set_ylim(0, 100)
ax.set_yticks([20, 40, 60, 80, 100])
ax.set_title('Профиль сильных/слабых сторон\n(Топ-3 системы)', fontsize=12, fontweight='bold', pad=20)
ax.legend(loc='upper right', bbox_to_anchor=(1.3, 1.1))
ax.grid(True)
# 3. Сравнительная гистограмма всех систем
systems = df['Система'].values
x_pos = np.arange(len(systems))
width = 0.2
ax = plt.subplot(2, 2, 4)
bars1 = ax.bar(x_pos - width*1.5, df['Credibility'], width, label='Credibility', color='#2E86AB')
bars2 = ax.bar(x_pos - width/2, df['Accuracy'], width, label='Accuracy', color='#A23B72')
bars3 = ax.bar(x_pos + width/2, 100 - df['Hallucination'], width, label='Reliability (1-Halluc)', color='#F18F01')
bars4 = ax.bar(x_pos + width*1.5, df['Citation_Grounding'], width, label='Citation Grounding', color='#C73E1D')
ax.set_xlabel('Система', fontsize=11, fontweight='bold')
ax.set_ylabel('Оценка (%)', fontsize=11, fontweight='bold')
ax.set_title('Комплексное сравнение всех систем', fontsize=12, fontweight='bold')
ax.set_xticks(x_pos)
ax.set_xticklabels(systems, rotation=45, ha='right')
ax.legend(loc='lower right', fontsize=9)
ax.set_ylim(0, 110)
ax.grid(axis='y', alpha=0.3)
ax.axhline(y=70, color='green', linestyle='--', linewidth=1, alpha=0.5, label='Пороговое значение')
plt.tight_layout()
plt.savefig('ai_systems_comprehensive_analysis.png', dpi=300, bbox_inches='tight')
print("✓ График сохранен: ai_systems_comprehensive_analysis.png")
plt.show()
# Статистический анализ
print("\n" + "="*70)
print("СТАТИСТИЧЕСКИЙ АНАЛИЗ МЕТРИК")
print("="*70)
for metric in ['Credibility', 'Accuracy', 'Citation_Grounding', 'Reference_Quality']:
mean_val = df[metric].mean()
std_val = df[metric].std()
max_sys = df.loc[df[metric].idxmax(), 'Система']
min_sys = df.loc[df[metric].idxmin(), 'Система']
print(f"\n{metric}:")
print(f" Среднее: {mean_val:.1f}% | Std Dev: {std_val:.1f}%")
print(f" Максимум: {max_sys} ({df[metric].max():.1f}%)")
print(f" Минимум: {min_sys} ({df[metric].min():.1f}%)")
# Корреляция между главными метриками
print("\n" + "="*70)
print("КЛЮЧЕВЫЕ КОРРЕЛЯЦИИ")
print("="*70)
print(f"Credibility ↔ Accuracy: {correlation_matrix.loc['Credibility', 'Accuracy']:.3f}")
print(f"Accuracy ↔ Hallucination: {correlation_matrix.loc['Accuracy', 'Hallucination']:.3f}")
print(f"Credibility ↔ Citation_Grounding: {correlation_matrix.loc['Credibility', 'Citation_Grounding']:.3f}")

3. Написание кода
Создай полный Python-код для анализа портфеля акций. Сгенерируй случайные данные по 5 акциям (AAPL, TSLA, NVDA, GOOGL, MSFT) за 2025 год: цены, объемы, волатильность. Рассчитай Sharpe ratio, максимальную просадку (drawdown), Value at Risk (VaR 95%). Сравни портфели: 100% акции vs 60/40 акции/облигации vs S&P500 в таблице. Построй: (1) кумулятивную доходность с confidence bands, (2) heatmap корреляций, (3) efficient frontier с matplotlib/seaborn. Добавь Монте-Карло симуляцию (5000 сценариев) и рекомендации по ребалансировке.
Ответ

4. Разработка бизнес-идей
Проанализируй текущие вызовы в сфере deep-research AI, особенно по проблемам цитирования и достоверности данных. Предложи 5 инновационных бизнес-идей SaaS-платформ, которые помогут автоматизировать аудит научных статей, выявление ошибок цитирования и проверку фактов. Для каждой идеи опиши: целевой рынок (TAM/SAM), конкурентные преимущества, каналы монетизации, примерный roadmap от MVP до масштабирования, ключевые метрики успеха и возможные риски. Сформируй вывод в виде таблицы с сравнительным анализом по потенциалу доходности и реалистичности.
Ответ

Если взглянуть на все тесты - код, бизнес-идеи, анализ научных статей - Perplexity обработала их без явных проблем. Особенно понравились таблицы, но вот бизнес идея будто простовата и требует дополнительные промпты для улучшения структуры. Тут, мне кажется, GPT справился бы лучше.
Платные функции и ограничения бесплатной версии
Начнём с простого. Тарифы Perplexity д��лятся на три группы: персональные, образовательные и бизнес. Логика такая: одному человеку важны скорость и удобство без корпоративных заморочек, учебным аккаунтам нужен Pro по льготе, а компаниям важны команды, безопасность и администрирование.

Персональные планы. Если вы работаете в одиночку, смотрите сюда. План Pro стоит около 20 долларов в месяц. Это базовая лошадка для ежедневного ресёрча. В ответах появляется больше цитат и источников, открывается Labs для проектных задач, можно без ограничений загружать файлы и изображения, расширяется доступ к Research для глубоких отчётов. Появляется расширенная генерация изображений и базовый видеорежим, а одна подписка покрывает свежие модели, в списке видны GPT‑5 и Claude Sonnet 4.
Персональный Max стоит около 200 долларов в месяц. Это всё включено для тех, кто каждый день упирается в лимиты Pro. Включено всё из Pro, добавляется ранний доступ к новым продуктам, неограниченный доступ к Labs и Research, приоритетная поддержка, расширенные функции по видео и доступ к топовым моделям от OpenAI и Anthropic. Важно помнить, что Max предназначен для личного использования, не для команд.

Образование. Если вы студент или преподаватель, есть Education Pro. Суть простая: подтверждаете статус и получаете Pro-бонусы без оплаты. По набору это фактически Pro. Разблокируется обучающий режим с карточками и викторинами, в ответах в разы больше цитат, есть доступ к Labs и расширенному Research, безлимит на загрузку файлов и фотографий, подписка покрывает актуальные модели ИИ, добавляют 5 долларов кредитов API.

Бизнес-планы. Если нужна работа в команде и корпоративные требования, смотрите Enterprise. Enterprise Pro стоит около 40 долларов за пользователя в месяц. Вы получаете безлимитные Pro‑поиски, безлимитную загрузку файлов и изображений, без ограничений по участникам в Spaces, подключение Google Drive, SharePoint, Dropbox, OneDrive и Box, поддержку единого входа через провайдеров идентификации, доступ к API, соответствие требованиям безопасности уровня SOC 2 Type II.
Enterprise Max стоит около 325 долларов за пользователя в месяц. Это расширенный пакет для крупных организаций. Включено всё из Enterprise Pro, плюс расширенный доступ к Labs и Research, ассистент Comet Max, премиальные функции безопасности уровня компании вроде настроек хранения данных и аналитики использования, увеличенное хранилище до 10 ТБ на команду, доступ к полному набору моделей и расширенные функции по видео, ранний доступ к новым возможностям продукта.
Два практичных совета напоследок. «Безлимит» у бизнес‑планов обычно работает по принципу разумного использования, технические потолки всё равно есть, просто они высокие. Условия и наполнение тарифов меняются, перед оплатой откройте страницу тарифов и проверьте конкретные лимиты по Research, Labs, видео и доступным моделям, чтобы точно попасть в нужный пакет.
Резюмируя
В конце хочется напомнить, что нейросетям всё ещё рано безоговорочно доверять. Они ошибаются, фантазируют и иногда удивляют не в ту сторону. Они неплохи, но только как помощники, не более. Алгоритмы могут ускорить рутину, упростить сложное, вдохновиться и сэкономить время. Главное помнить, что за всеми этими технологиями стоим мы.
Поэтому доверяйте, но проверяйте. И не забывайте, именно вы направляете всё это в нужное русло!
Спасибо, что дошли до конца! А теперь очередь за вами. Расскажите, какие нейросети уже прописались в ваших закладках? И что вы думаете о Perplexity AI? Ждем ваше мнение в комментариях!