Тест-драйв локального искусственного интеллекта, который работает даже в авиарежиме. И умеет распознавать списки покупок.

Google тихонько выкатил AI Edge Gallery — экспериментальное Android-приложение, которое позволяет запускать ИИ-модели прямо на смартфоне, без интернета и всяких VPN. Всё крутится локально, на вашем устройстве. Модели подтягиваются с Hugging Face (например, Gemma от Google - "младшая сестра" Gemini) и работают либо на CPU, либо на GPU — в зависимости от того, насколько сильно вы готовы разогревать свой телефон.

Зачем оно вообще, если есть ChatGPT?

Да, моделей сейчас как блогеров . Но Edge Gallery не про "вау-ответы". У неё другие плюсы:

  1. Полная приватность
    Данные не уходят в облако — подходит для всего конфиденциального: от кипрской налоговый отчётности до рецепта бабушкиного печенья, которой вы поклялись никому их не выдавать.

  2. Работает вообще без интернета
    Летите в самолете без wi-fi и параллельно пишете этот пост - пожалуйста, ИИ все еще работает. Едете к той же бабушке, чтоб поделиться, что усовершенствовали ее рецепт, но интернет туда не заглядывал - и вот, пожалуйста, магия вне Хогвартса.

  3. Не боится блокировок и VPN
    Не требует VPN, прокси, хитрых плясок с DNS или настройки Tor на телефоне Вам не нужно шаманить с DNS, VPN или строить туннели через Tor. Можно использовать ИИ даже в тех странах и сетях, где ChatGPT не доступен.

  4. Бесплатная ИИ-песочница
    Разработчики могут экспериментировать с моделями, а простые смертные — поиграться с текстами, картинками (пока только на чтение) и получить ответы без подписок.

⚙️ Как это работает?

Установка:

  • Скачиваете APK с GitHub (в Google Play пока не нет).

  • Требуется Android 8+ и включение установки из «неизвестных источников».

  • На iOS ещё не доступен.

Загрузка моделей:

  • Подключаете аккаунт Hugging Face.

  • Выбираете модель (например, Gemma-3n-E4B-it-int4),размером от 500 МБ до 4+ ГБ.

  • Модель скачивается и живёт прямо в памяти устройства.

Как работает в реальности?

  1. Модель: Gemma-3n-E2B-it-int4 (3.1 ГБ)

  • Скорость ответа: ~1 минута на экран текста.

  • Качество: на уровне deepseek R1 или OpenAI 4o, но без облака. Неплохо.

  • История: увы, все, что вы получили, доступно вам только здесь и сейчас. Поддержки истории предыдущих диалогов пока не предусмотрено. Есть кнопка «Input history», но это история именно для input (а не диалога) причем только текстового. Отправляли картинку и промт для нее, вели диалог 10 минут с интеллектом — пожалуйста, ваш исходный промт, но уже без картинки, сохранен — остальное заруинено. Закрыли приложение, случайно нажали кнопку назад — вам нужно начинать диалог заново. Не самая удобная фича

2. Попытка с Gemma-3n-E4B-it-int4 (4.4 ГБ):

 Поскольку интерфейс общий, то сложности с историей сохранились. Но возникла ещё одна проблемка - оказалось, что настройки телефона позволяют загружать в ОЗУ только файлы менее 4 Гб. Что автоматически привело к фиаско: приложение вылетает при попытке обращения к модели 

Ну и конечно пример конфиденциального характера

Была у меня одна записка, которую я не мог допустить, чтобы попала в плохие руки корпораций...

Список покупок: молоко, конфеты, сосисы и греча
Список покупок: молоко, конфеты, сосисы и греча

Что выдал AI Edge:

Список покупок: молоко, конфеты, сосисы и хлеб
Список покупок: молоко, конфеты, сосисы и хлеб

И вроде все по делу, бытовой челлендж решен. Одни углеводы правда заменились другими. Погрешности? Да. Но для конфиденциальных данных можно потерпеть.

Но конечно, даже у ИИ бывает температура (она то и отвечает за фантазию) и важно проверить, что все как у Блока - повторится всё, как встарь. Поэтому - новый чат, старый запрос

О чудо, теперь мы отказались от сладкого. А наш список теперь "Базовый", и соответствует необходимым в жизни.

Вывод

Google AI Edge Gallery — это как швейцарский нож с ИИ: умеет много, но чтобы открыть штопор, нужно немного попотеть.

Для приватных задач — ?
Для переписки с ИИ в самолёте — ?
Для динамичных задач — пока нет, GPT всё ещё удобнее

Но если вам хочется, то Edge Gallery вполне может стать вашим ИИ-другом в полевых условиях.

Комментарии (19)


  1. Oeaoo
    14.06.2025 20:27

    Ждем выпадающей плашки перед выполнением запроса "подключите павербанк".


    1. Areso
      14.06.2025 20:27

      Или охладите ваш телефон... Особенно с Google Pixel'ями актуально...


      1. 65536
        14.06.2025 20:27

        Охладите ваше запрашиванье


  1. dyadyaSerezha
    14.06.2025 20:27

    которое позволяет запускать ИИ-модели прямо на смартфоне, без интернета 

    Так Apple ещё год назад свой такой выкатиа. Кривенький, но выкатиа. Гугл тут лишь догоняет.

    Ну и главное, почему нет сосулей в списке покупок?

    Сосисы, сосули, греча.


    1. Waldemarrr
      14.06.2025 20:27

      Вы бы лучше на свой список покупок посмотрели. А то таблетки, кажется, забыли.


      1. dyadyaSerezha
        14.06.2025 20:27

        Переход на личности - главный признак того, что аргументов нет. За такое модераторов зовут, чтобы забанили, но я не буду.


    1. alpatovdanila
      14.06.2025 20:27

      У гугла гемма на пикселях уже давненько, и 2 гига оперы всегда зарезервировано под это.


      1. TypicalNick Автор
        14.06.2025 20:27

        Да, но теперь эта возможность стала ещё на шажок ближе к людям


        1. alpatovdanila
          14.06.2025 20:27

          Угу, это само собой, я чисто на попытку съяблоничать ответил )


  1. holgw
    14.06.2025 20:27

    Модель: Gemma-3n-E2B-it-int4 (3.1 ГБ)

    Качество: на уровне deepseek R1 или OpenAI 4o, но без облака. Неплохо.

    Нууу, я бы не стал так смело заявлять, что дистиллированная модель на 2B параметров выдает результат сравнимый с OpenAI 4o.


    1. TypicalNick Автор
      14.06.2025 20:27

      Справедливо! Это, скорее, “неплохо для телефона”, чем “разрыв всего”. Но для вечерней болтовни с ИИ где-нибудь на природе с палатками или чтобы поупражняться с иностранными языками, когда нет интернета — самое оно


  1. kekusprod
    14.06.2025 20:27

    Модель: Gemma-3n-E2B-it-int4 (3.1 ГБ)

    Качество: на уровне deepseek R1 или OpenAI 4o, но без облака. Неплохо.

    Не смешите. На уровне с gpt3.5-turbo ещё может быть с натяжкой, но никак не R1, а тем более 4о

    upd. Да и о полной приватности я бы заявлять не стал. То что вы запускаете модель локально, ещё не говорит о том, что ваши данные, например, не уходят Гуглу через это самое приложение

    p. s.

    Пользуясь сервисами Google, Вы доверяете нам свою личную информацию


    1. TypicalNick Автор
      14.06.2025 20:27

      Да, локальный запуск ≠ полная изоляция. К сожалению, всё что попадает в наш телефон когда-нибудь может быть использовано против нас


  1. Markscheider
    14.06.2025 20:27

    Не взлетела Gemma-3n-E2B-it-int4 на смартфоне с Helio G85 (2x2.0 GHz Cortex-A75 & 6x1.8 GHz Cortex-A55) и Mali-G52 MC2 1.0 GHz. Объем оперативной памяти: 4 Gb.

    Закидываю фотку в Ask image, прошу рассказать, что на ней. Пыжится, вешает смарт, думает, но ничего не выдает. Пробовал обсчитывать как на CPU, так и на GPU

    UPD: удалось добиться хоть какого-то шевеления в AI chat, с CPU. Но речь не об "экране текста в минуту", а об "одном слове в 10-15 секунд". Видно, это для топового железа забава...


  1. maciento
    14.06.2025 20:27

    Даааа, для меня это главное открытие года и одно из двух трёх наверное за всю жизнь, наравне с возможностью эмулировать Винду и спокойно запускать даже киберпанк на смартфонах! Узнал из поста розеткед в телеге. Но, есть ещё оказывается Pocket Pal, там и моделек больше, и история чатов есть, безумие! Но интерфейс не такой красивый канеш) Так что лайк за пост, я хз почему все не орут чайкой, повторюсь но способность локально запустить в кармане - один из величайших восторгов эвар для меня, каждый день пока пребываю в шоке!