Всё самое интересное из мира кибербезопасности /** с моими комментариями.


1) Сэм Альтман (OpenAI) в недавнем интервью поделился своими мыслями про будущее человечества и ИИ.

Сэм дал некоторые прогнозы, касательно влияния ИИ на информационную безопасность:

  • Злоумышленники получат доступ к сверхинтеллекту. Сверхинтеллект может быть использован для взлома критической инфраструктуры, такой как энергосистемы или финансовые системы, что приведёт к хаосу;

  • Альтман прогнозирует, что в ближайшем будущем появятся видеозвонки с дипфейками, которые будут неотличимы от реальности, что создаст огромные риски. Ожидается рост мошенничества;

  • Альтман считает безумием, что финансовые учреждения до сих пор используют голосовую идентификацию, так как ИИ уже сейчас может идеально подделать любой голос;

  • ИИ может быть использован для разработки новых, более опасных зловредов. Альтман предположил, что задача по написанию приложения, стоившая $100,000 в 2020 году, к 2030 году может стоить всего 10 центов.

Альтман считает, что ИИ-технологии несут в себе огромные блага, но и создают серьезные риски. Они настолько велики, что требуют глобального сотрудничества и регулирования.

/** Альтман, Маск, Цукерберг, Лян Вэньфэн (DeepSeek) и ещё несколько человек - это те люди, кто сегодня определяет будущее развития ИИ. Да, их полезно слушать. Именно в этом интервью меня порадовало только одно - ни одного нового риска, о котором я не слышал ранее, я не услышал. Маск, кстати, мой фаворит в части прогнозирования рисков ИИ. Он очень глубоко в эту тему погружен и его очень интересно слушать.


2) Система поиска уязвимостей с ИИ Google Big Sleep обнаружила 20 багов в open source проектах.

Вице-президент Google по безопасности Хизер Эдкинс объявила, что инструмент Big Sleep, разработанный отделом искусственного интеллекта компании DeepMind и командой хакеров Project Zero, сообщил о первых уязвимостях, в основном в программах с открытым исходным кодом, включая аудио- и видеобиблиотеку FFmpeg и пакет для редактирования изображений ImageMagick.

Учитывая, что баги ещё не устранены, компания не даёт подробной информации об их влиянии или серьёзности.

«Чтобы гарантировать высокое качество и практическую ценность отчётов, перед их составлением к нам подключается эксперт-человек, но каждая уязвимость была обнаружена и воспроизведена ИИ-агентом без человеческого вмешательства», — рассказала представитель Google Кимберли Самра.

Ройал Хансен, вице-президент Google по инжинирингу, написал в X, что результаты демонстрируют «новый рубеж в автоматизированном обнаружении уязвимостей».

/** С каждым годом подобные инструменты будут становиться на 2-3 порядка эффективнее. У меня только есть сомнения, что google и др. крупные игроки будут (или смогут) сообщать обо всех найденных уязвимостях. Вангую, что со временем, если не уже, все найденные уязвимости будут проходить фильтр АНБ и публиковаться будут только те, которые разрешили опубликовать.


3) XBOW раскрывает скрытую хакерскую мощь GPT-5.

OpenAI в своей системной карте скромно пишет: на киберполигоне GPT-5 показывает уровень примерно как и у прежних моделей, «не достигая порога высокого киберриска».

Но вот что вышло у экспертов XBOW, когда они «посадили» GPT-5 в автономного пентест-агента — дали инструменты, координацию и автоматическую проверку находок.

Итог:

  • почти вдвое больше взломанных уникальных целей за то же время;

  • рост успешности с 55% до 79%;

  • путь к эксплойту короче (медиана 17 шагов vs 24);

  • по классу file-read — 0% ложных тревог против 18% раньше.

/** Источник. Получается, что сама по себе модель - это уже не сильный показатель. Показатель - это модель + промты + инструменты для атаки + оркестратор. Когда это всё вместе позволяет модели раскрыться, вот там и начинаются чудеса.


4) LameHug: «примитивный» испытательный полигон для будущих атак с использованием ИИ.

Впервые о LameHug около месяца назад сообщил украинский CERT, со средней степенью уверенности связав его с группировкой APT28. Ключевая особенность, которая привлекла к нему внимание исследователей, — это применение LLM для генерации команд по текстовому запросу. Вредонос получает от оператора инструкции на естественном языке (вроде: «Напиши список команд для создания папки и сбора информации о компьютере»), направляет их в модель Qwen 2.5-Coder-32B-Instruct через Hugging Face API, полученные команды выполняет через командую строку.

ИИ-инженеры MITRE Марисса Доттер и Джанпаоло Руссо обсудили LameHug в презентации на полях Black Hat. По их мнению, использование атакующими LLM было «достаточно примитивным», но позволяло избежать обнаружения с помощью традиционных техник.

«Если бы вы сканировали эти двоичные файлы, вы бы не обнаружили никаких вредоносных данных, внедрений процессов, логики exfil и т. д. Вместо этого вредоносная программа обращалась бы к поставщику логического вывода, в данном случае к Hugging Face, и LLM преобразовывал бы задачи на естественном языке в код, который он мог бы выполнить. Затем она получала бы эти динамические команды для выполнения», — сказал Руссо.

Вредонос они охарактеризовали как тестирование потенциала ИИ для проведения кибератак — прежде такая возможность обсуждалась как гипотетическая, а примеров реальных атак не встречалось. По мнению экспертов, в будущем на ИИ будет перекладываться ещё больше задач, а оператор-человек будет управлять операциями на стратегическом уровне.

/** Данный вектор атак не новый. MITRE даже уже разработала методологию для оценки использования моделей ИИ для наступательных киберопераций. Она получила название OCCULT — Offensive Cyber Capability Unified LLM Testing. В целом - механика интересная, что по сути, без LLM, ничего вредоносного и нет. Надо всегда контролировать какие API-вызовы, куда и от кого исходят.


5) Злоумышленники используют символ Unicode «ん», чтобы фишинговые ссылки выглядели как легитимные.

Атака использует японский символ хираганы ん (Unicode U+3093), который в некоторых системах может отображаться как косая черта, что делает фишинговую ссылку похожей на настоящую.

Кампанию обнаружил специалист по информационной безопасности JAMESWT. При беглом взгляде на некоторые шрифты символ очень похож на последовательность латинских букв «/n» или «/~». Это визуальное сходство позволяет мошенникам создавать URL-адреса, которые выглядят как реальные, но перенаправляют пользователей на вредоносный сайт.

Адрес в письме выглядит как «https://admin.booking.com/hotel/hoteladmin/...», но гиперссылка ведёт на «https://account.booking.comんdetailんrestric-access.www-account-booking.com/en/». На самом деле зарегистрированный домен — «www-account-booking[.]com».

Жертвы, перешедшие по ссылке, в конечном итоге перенаправляются на «www-account-booking[.]com/c.php?a=0».

/** Все ссылки надо проверять, а лучше это конечно автоматизировать на уровне браузеров. Надо подумать, какое расширение использовать, чтобы из всех ссылок вырезать ん, потому что я не вижу для этого знака другого применения, кроме фишинга. Если у вас есть идеи, как защититься, напишите в комментарии.


6) Новости одной строкой:

  • После двух лет разработки состоялся релиз Debian 13 "Trixie". Поддержка этой версии будет продолжаться 5 лет. В комплекте: ядро Linux 6.12 LTS, GNOME 48 по умолчанию, компилятор GCC 14.2, а также множество обновлений пакетов, включая OpenJDK Java 21, Python 3.13 и др;

  • В августовском Patch Tuesday Microsoft выпустила пакет обновлений безопасности, устраняющий 107 уязвимостей в своих продуктах. Среди них — одна уязвимость нулевого дня, уже раскрытая публично: CVE-2025-53779, позволяющая повысить привилегии через уязвимость в Windows Kerberos. Кроме того, в числе закрытых багов — 13 критических, включая RCE, утечки данных и повышение привилегий;

  • Голосовой трафик операторов РФ вырос до 25% после блокировки звонков в Telegram и WhatsApp*.

    *принадлежит Meta, которая признана в РФ экстремистской.


Безопасной вам недели!

Больше новостей в моём Telegram. Подписывайтесь!

Предыдущая неделя <-- weekSecNews

Комментарии (0)