Привет, %username%! Ты наверняка давно знаешь, почему в UEFI нужно предпочесть AHCI, в чём подвох Secure Boot и почему MBR намного хуже, чем GPT. Если нет — самое время разобраться в вопросе, как выжать максимум скорости и стабильности из накопителя программными средствами.



Обратная совместимость технологий в ПК — безусловное благо. С её помощью пожилой процессор можно заставить работать в паре с оперативной памятью из «далёкого будущего», а новый накопитель без проблем приживается в древнем компьютере и делает его значительно быстрее даже с использованием старых версий интерфейса SATA.

И, если к legacy-коду можно относиться по-разному, то устаревшие протоколы и интерфейсы практически всегда уступают новым разработкам. Только вы об этом не узнаете, потому что новое железо в новом компьютере по умолчанию будет замедлено установками в пользу максимальной совместимости. Выясняем, какие настройки следует предпочесть, чтобы хорошему танцору новому накопителю не мешали устаревшие стандарты, и зачем в новых компьютерах «путаются под ногами» опции для устаревшего оборудования.

UEFI — не «альтернативно одарённый BIOS», а лучший метод инициализации оборудования


На «железном» уровне новшества во взаимодействии платформы ПК с накопителями предельно понятны: жёсткие диски наращивали плотность записи и увеличили количество пластин в 3,5-дюймовом форм-факторе и наполнили особо ёмкие модели гелием, чтобы диски стали работать стабильнее. Будущее HDD отныне зависит от темпов внедрения технологии черепичной магнитной записи или более радикальным изменениям (рывку в объёме накопителей) с термоассистируемой магнитной записью.

SSD? Сменили несколько типов памяти, перестали быть роскошью в домашних компьютерах, нарастили объём до сотен гигабайт. Выжали все соки из SATA-III, заполучили скорости PCI-E и наконец заимели компактный форм-фактор.


Накопитель Kingston DCP-1000 — до 1 100 000 IOPS на чтение и 200 000 IOPS на запись, например

Но быстродействие накопителей зависит не только от «железа», но и программной составляющей. И здесь самое время вспомнить о BIOS, который задержался на сцене, словно закостеневшие на старости лет эстрадные кумиры.

Сегодня в сознании трудящихся UEFI — это такая красочная альтернатива «биосу», с градиентами, красивыми меню, поддержкой мыши и, иногда, русифицированным интерфейсов. Тем удивительнее, что пёстрый EFI (Extensible Firmware Interface, тогда ещё без Unified в аббревиатуре) изначальном варианте был разработан Intel ещё в далёком 2003 году. И изначально его предлагали для серверных Itanium как более гибкий и быстрый интерфейс для загрузки ОС и инициализации/диагностики комплектующих. Уж больно много слабых мест было в древнем 16-битном BIOS с 1 Мбайт адресуемой памяти, поэтому замена напрашивалась сама собой. Как это обычно бывает в соревновании слоев абстракции и производительности железа, UEFI стал «тяжелее» и превратился в мини-операционную систему с драйверами и службами, но быстродействие и стабильность того стоили.

В массовые компьютеры UEFI пришёл в 2012-2013 гг., а вместе с ним в «предзагрузочном» интерфейсе появились приятные и не очень, нововведения. Начнём с функции-«защитницы» Windows 8, Secure Boot.

Secure Boot — многострадальная защита от «посредников» между ОС и UEFI


В инициативе по внедрению функции Secure Boot в UEFI версии 2.2 и выше разработчики руководствовалась благими намерениями, если вы понимаете, о чём мы. То, что первыми на вооружение эту функцию взяли Microsoft (чтобы обезопасить запуск Windows 8 и «придушить» активиторы-бутлоадеры) — другой разговор.

Некоторое время только Windows 8 и умела загружаться в режиме Secure Boot, а пользователям всех других ОС приходилось отключать функцию в BIOS UEFI, потому что интерфейс отказывался исполнять неподписанные файлы не подготовленных соответствующим образом систем.


Принцип работы Secure Boot

«Мякотка» заключалась в том, что все новые компьютеры по требованию Microsoft поставлялись с включенным Secure Boot, поэтому о новой функции (в не очень приятных обстоятельствах «падающей» системы) вскоре узнали все любители отличных от Win 8 операционных систем. А в некоторых случаях обновление Microsoft просто «по приколу» активировало Secure Boot в UEFI даже в Windows 7, которая после такой имплантации благополучно «падала» при следующей загрузке. Это ещё одна разновидность «романтических» обстоятельств знакомства с новой функцией в былые годы.


«Я те покажу, что такое безопасная загрузка!», — как бы говорит нам обновление KB3133977 и включает неподдерживаемый на Windows 7 Secure Boot в материнских платах ASUS

Справедливости ради, стоит отметить, что современные дистрибутивы GNU/Linux (Ubuntu, Fedora, Red Hat и openSUSE в числе первых) достаточно быстро обзавелись подписью для загрузки в Secure Boot, но в 2016 году с подачи Microsoft индустрии этот стандарт дважды, скажем так, аукнулся.

Первый раз — когда редмондцы «потеряли» мастер-ключ от Secure Boot и скомпрометировали защиту, за внедрение которой так активно выступали. Не штатный ключ, а именно мастер-ключ, с которым во всех выпущенных устройствах при активном Secure Boot загрузчик становится «голым и беззащитным», а злоумышленники могут легко и просто подменить операционную систему на этапе первоначальной загрузки. Нет повести печальнее на свете, чем повесть о «золотых ключах» и дебагерских инструментах в широком доступе.

А второй раз Microsoft наделала шума, когда упомянутый выше бэкдор начали было применять во благо как средство «джейлбрейка» планшетов под управлением Windows RT. Дело в том, что эксперимент Microsoft с ARM-системами закончился провалом, а крутые и дорогие (когда-то) планшеты Surface не получили даже поддержки UWP-приложений. То есть, неплохие с конструктивной точки зрения устройства стали заложниками «мёртвой» операционной системы. А другой операционной системы в планшете быть не могло, ведь Secure Boot на планшетах, по требованию Microsoft, был неотключаемым. После того, как упомянутый выше бэкдор оказался общественным достоянием, пользователи ARM-версий Surface получили на некоторое время возможность запустить неавторизованный загрузчик и установить альтернативную ОС. Но патч-латка за авторством Microsoft подоспел до того, как «еретики» успели что-то предпринять.


У Microsoft Surface RT был шанс заполучить альтернативную ОС. К сожалению, не сбылось...

Словом, Secure Boot уже подводила производителей и пользователей ПК, и, есть риск, что это произойдёт снова, поэтому тех, кто сомневается в её полезности, можно понять. Использовать ли «защищённую загрузку» или нет — вопрос открытый, как и в случае с подходом «паранойя vs установленный антивирус», если речь идёт о Windows. По умолчанию в старых матплатах не-брендовых ПК эта опция отключена, однако слабая защита всё же лучше, чем никакая.

P.S. в рамках инициативы по «улучшению качества жизни» Microsoft добилась того, что Secure Boot может стать неотключаемым даже в десктопных ПК, выбор остаётся на совести производителя оборудования. Подписка пользовательских бинарных файлов обойдётся в $99.

Но бог с ними, с фичами безопасности, мы ведь здесь собрались ради настроек, которые ликвидируют «костыли» в работе накопителя? К ним и перейдём.

Устаревший и более медленный интерфейс по соображениям «кабы чего не вышло»


В списке устаревших технологий, которые гнездятся в новых матплатах ради совместимости со стандартами былых лет, неизменно фигурирует IDE (Integrated Drive Electronics) — режим контроллера накопителей, который не «ампутировали» из новых чипсетов только ради совместимости со старыми накопителями и ПО. В таком режиме накопители SATA 3.0 работают с быстродействием уровня своих PATA-предшественников.

А режим расширенного хост-контроллера (AHCI) даже в самых современных чипсетах отключен «до востребования». И напрасно, потому что только он сможет раскрыть потенциал современных накопителей при высокой нагрузке.

В былые времена загвоздка с использованием режим AHCI заключалась в том, что в операционных системах (Windows XP и Vista, по большей части) попросту не было драйверов для большинства AHCI-контроллеров в новых чипсетах, поэтому системы «падали в BSOD» сразу же после установки. Сегодня кулибины внедряют поддержку AHCI даже в эти две устаревшие системы, а уж Windows 7/8 и 10 поддерживают расширенный хост-контроллер в полной мере.


Накопитель в режиме последовательного чтения (IDE). Накопитель — Kingston SSD Now V+


Накопитель в режиме последовательного чтения (AHCI) (источник: dobreprogramy.pl)

От режима IDE AHCI отличает поддержка горячей замены накопителя (малополезно в домашнем ПК) и, что гораздо важнее, NQC. Native Command Queuing или «аппаратную установку очерёдности команд» часто считают новой разработкой для повышения быстродействия SSD, хотя на самом деле её разрабатывали ещё с учётом потенциала механических накопителей.


Поддержка NQC в режиме AHCI минимизирует движение головки в механических накопителях

NCQ «сортирует» команды при обращении к накопителю таким образом, чтобы минимизировать движения головки в HDD и как можно эффективнее использовать ячейки NAND в твердотельных накопителях. В случае с SSD режим AHCI важен ещё и для корректной работы TRIM и быстродействии на предельных для SATA-III скоростях (а в «потолок» SATA упираются даже недорогие накопители. Такие как Kingston UV400, например).


Режим AHCI жизненно важен для новых SATA-накопителей

Переключать режим работы контроллера желательно до установки операционной системы. Можно и после, но тогда придётся «заводить» AHCI с помощью нетрадиционной, понимаете ли, медицины. В любом случае, убедитесь, что ваши накопители используют для передачи данных современный интерфейс. Ведь гарантия того, что, например, Windows 98 сможет взаимодействовать с накопителем гораздо менее полезна, чем более высокое быстродействие в современных ОС и программах каждый день.

NTLDR is missing, если не используешь разметку GPT


Поддержка разметки GPT — ещё одна фича, которая стала повсеместно использоваться с приходом UEFI. Важная составляющая современных накопителей, и вот почему.

До прихода GUID Partition Table пользователям ПК приходилось довольствоваться архаичным методом размещения таблиц разделов — MBR или master boot record (главная загрузочная запись), стандарт образца 1983 года, ровесник DOS 2.0.

MBR — это такой сектор с загрузчиком операционной системы и информацией о логических дисках. Поддерживает работу с дисками объёмом до 2 Тбайт и только до четырёх основных разделов. Если 2-терабайтные HDD стали «бутылочным горлышком» в домашних ПК только недавно, то второй фактор породил трюки наподобие «расширенных разделов» ещё со стародавних времён.

GPT работает гораздо более гибко и присваивает каждому разделу глобальный идентификатор, поэтому разделов может быть неограниченное количество, а проблема взаимодействия с ёмкими накопителями перестаёт быть актуальной.


Загрузчик — всё

А главное — GPT гораздо более отказоустойчив, потому что загрузчик и информация о разделах больше не хранятся «в одной корзине». Если MBR повреждён — ваш накопитель впадает в «беспамятство», а информацию с него придётся восстанавливать долго и нудно. GPT хранит копии этой информации в разных секторах диска и восстанавливает информацию, если она повреждена.

В ёмких HDD разметка GPT стала суровой необходимостью, а новые операционные системы используют её даже для накопителей ёмкостью много меньше 2 Тбайт. Разумный принцип организации и надёжность GPT однозначно перевешивают её недостатки, да и с поддержкой проблем нет ещё со времён Windows 8 (GNU/Linux тоже не обделены поддержкой), поэтому конвертировать диски из формата MBR в его последователя будет не лишним.

Файловые системы: вы уже готовы к ReFS, а она к вам — нет


Не форматируйте системный диск под Windows XP в FAT32! Если в ОС GNU/Linux файловые системы «цветут и пахнут» и внедряются без особой бюрократии, то монополии NTFS в накопителях под управлением Windows ничего не грозит. Но за прошедшие годы (без малого четверть века, если брать за отсчёт первую версию ФС) недостатки NTFS успели «набить оскомину» даже самой Microsoft, поэтому редмондцы разработали и, частично, внедрили преемника своего детища — ReFS (Resilient File System).

Файловая структура в ReFS


Дебютная версия «отказоустойчивой файловой системы» вышла в свет в бета-версиях Windows 8 и её серверных аналогах. Её будущее в домашних ПК пока туманно, тем более, в роли системного раздела, но ключевые наработки Microsoft в этом направлении известны уже сегодня. Среди них:

Поддержка длинных имен. До 32768 символов в пути вместо 255, как это было в NTFS
Устойчивость к перебоям в питании устройства. Данные и результаты изменений не будут повреждены, потому что файловая система оперирует метаданными и восстанавливает информацию в случае их повреждения. При любых операциях файловая система сначала создаёт новую копию метаданных в свободном пространстве, и только потом, в случае успеха, переводит ссылку со старой области метаданных на новую. Вот вам и сохранность файлов без журналирования.
Избыточность хранения данных для большего ресурса накопителя.
Более высокая скорость работы за счёт пониженной фрагментации.

ReFS ещё недостаточно отполирована для повсеместного внедрения, но если откуда-то и стоит ждать новшеств в методе хранения и оперирования файлами в Windows, то только отсюда.

Новое — значит лучшее?


Рекомендация выбирать самые новые протоколы и технологии из доступных была бы слишком наивной — всегда стоит взвешивать за и против, прежде чем расставлять галочки в UEFI или операционной системе. Но всё же стоит помнить о том, что в апгрейд старого компьютера — дело рук самих владельцев этого компьютера. ПК с многолетней выдержкой очень редко способен сконфигурировать новое железо правильным образом. А это значит, что после модернизации будет не лишним проверить, в каком режиме работает новая «железка» — хотя бы среди тех вариантов, о которых мы говорили сегодня. Заставляйте ваши SSD работать «на все деньги» при любом удобном случае!


Всякую новую вещь нужно уметь правильно использовать

Правильная конфигурация BIOS/UEFI и операционной системы — это хорошо, а когда она управляет новым быстрым железом — ещё лучше! Для всех любителей совмещать программную прокачку комплектующих с непосредственно апгрейдом мы дарим скидку 10% на SSD HyperX и память DDR4 в магазинах DNS и 10% скидки на накопители HyperX Fury и память DDR3 в Ситилинк! Акция действует с 21 марта по 4 апреля, это отличная возможность сделать свой компьютер быстрее и сэкономить.

А ещё мы рады сообщить, что вскоре обладателем нашей новейшей флагманской гарнитуры с объёмным звуком станет подписчик Kingston. Поэтому, если вы ещё не подписаны, нужно скорее исправлять ситуацию. :) Мы выберем победителя случайным образом и огласим имя никнейм счастливчика 7 апреля. Не упустите шанс заполучить звучание кинематографического уровня для своего компьютера!



Подписывайтесь и оставайтесь с нами — будет интересно!

Для получения дополнительной информации о продукции Kingston и HyperX обращайтесь на официальный сайт компании. В выборе своего комплекта HyperX поможет страничка с наглядным пособием.
Поделиться с друзьями
-->

Комментарии (46)


  1. GennPen
    28.03.2017 19:33
    +4

    Так почему новый быстрый накопитель даёт сбой и «не едет» после апгрейда? Может быть брак?


  1. CodeRush
    28.03.2017 20:28
    +20

    Ребят, у вас весь рассказ про EFI получился из серии «слышал звон, нагуглил новостей, теперь мнение имею»:
    — никакой мастер-ключ у МС не утекал, иначе его давно уже заменили бы (утек подписаный кусок загрузчика, который позволял загрузить по цепочке что угодно только на ARM, и был затем успешно забанен добавлением хешей в переменную dbx).
    — проблемы с Windows 7 у ASUS возникли потому, что ASUS до сих пор грубо нарушает спецификацию, позволяя включать SecureBoot вместе с CSM, что не имеет никакого смысла.
    — чтобы бы там в MS не говорили, пока жив CSM, на десктопных системах всегда будет возможность отключения SecureBoot, потому что иначе CSM нормально не реализовать.

    Если вам интересно, как работал SecureBoot во времена UEFI 2.4 - вот моя практическая статья о нем. С тех пор внесли немного изменений, добавив режим аудита для того, чтобы не мучатся с подписыванием ОРОМов доверенных устройств, но суть осталась та же.

    В этой же статье вот это «введение в EFI» не нужно совершенно, потому что режим AHCI (вместо устаревшего native IDE и еще более древнего legacy IDE) появился раньше UEFI и не имеет к нему отношения, а GPT для EFI не является обязательным типом разметки. Написали бы лучше про необходимость драйвера NvmExpressDxe для загрузки с NVMe-накопителей и про опыт добавления этого драйвера в прошивку / загрузки его с ESP в случае, если прошивка старая и об NVMe еще ничего не знает.


  1. silico
    28.03.2017 20:37

    насколько мне помнится, был косяк с разметкой дисков под mbr.и gpt. они не бились в один сектор на 512б. через это контроллер лог запись 4к читал дважды в 2секторах. вендоры делали утилиты, к выравнивали разделы (начало раздела) на на физический 4к. как то так, навскидку).
    я с 2009 г пользуюсь symon (разраб называет его монитор ос, как по мне, так точнее было бы монитор разделов) так вот он позволяет под mbr бить диск в скока) хошь разделов (primary)и грузица с них на выбор в любом сочетании, это первое, и второе — физически правильно бить разделы на 64/255/0 сек, дорожка, цилиндр.


    1. CaptainFlint
      28.03.2017 20:48
      +1

      насколько мне помнится, был косяк с разметкой дисков под mbr.и gpt. они не бились в один сектор на 512б. через это контроллер лог запись 4к читал дважды в 2секторах.
      Это вы перепутали с дисками в Advanced Format. К MBR/GPT отношения не имеет. Просто физический сектор у современных дисков 4 Кб, а программы за долгое время успели завязаться на сектор в 512 б, плюс древняя схема выравнивания разделов по цилиндрам (давно не актуальная, но соблюдающаяся «по привычке»), плюс то, что число цилиндров не является степенью двойки. В итоге выравнивание раздела по цилиндру приводило к тому, что он не был выровнен по физическим секторам.


      1. silico
        28.03.2017 21:35

        вот старые диски, не af, и не бились в 512б под gpt, когда первый раздел начинается с lba 34, т.е перед ним 33


        1. CaptainFlint
          28.03.2017 22:55

          Сама GPT занимает 34 сектора (точнее, 1 сектор — protective MBR + 33 сектора на GPT), поэтому перед первым разделом не может быть менее 34 секторов. А за этими пределами создавать можно что угодно и как угодно, формат GPT просто содержит LBA-номер сектора (512-байтного). Можно создать по границе 4-килобайтного блока, а можно создать со смещением. Всё точно так же, как и в MBR (при использовании LBA-адресации). Это уже вопрос не к формату таблицы разделов, а к конкретным инструментам разбиения диска. Ну и к тому пользователю, который это разбиение выполняет, разумеется.


          1. silico
            28.03.2017 23:31

            еще раз — первый раздел начинается на lba34
            https://ru.m.wikipedia.org/wiki/%D0%A2%D0%B0%D0%B1%D0%BB%D0%B8%D1%86%D0%B0_%D1%80%D0%B0%D0%B7%D0%B4%D0%B5%D0%BB%D0%BE%D0%B2_GUID


            1. CaptainFlint
              28.03.2017 23:56
              +3

              Нумерация с нуля. LBA 34 означает, что перед этим сектором находятся не 33, а 34 сектора (с номерами от 0 до 33).

              И никто не заставляет создавать первый раздел прямо вот строго сразу за таблицей разделов. Современные разбивальщики вообще выравнивают по мегабайтам, что даёт почти мегабайтную дыру перед первым разделом, и ничего. Так что выровнять раздел просто, было бы желание.


              1. silico
                29.03.2017 08:34

                уупс


      1. silico
        28.03.2017 21:40

        «не бились», это в смысле не попадали в кратно 8х512


  1. CaptainFlint
    28.03.2017 20:41
    +2

    GPT работает гораздо более гибко и присваивает каждому разделу глобальный идентификатор, поэтому разделов может быть неограниченное количество…
    Использование глобального идентификатора никак не связано с неограниченностью числа разделов. MBR тоже спокойно может хранить бесконечное число логических разделов без всяких там идентификаторов — тупой односвязный список, с чего бы ему ограничиваться. Но во многих программах зашит лимит на 128 разделов (что для MBR, что для GPT), поэтому, несмотря на неограниченность по спецификации, я бы не рекомендовал превышать этот лимит. Впрочем, большинству пользователей так много и не нужно.

    GPT хранит множество копий этой информации в разных секторах диска и восстанавливает информацию, если она повреждена.
    Вообще-то, не «множество», а две. Одна в начале диска, одна в конце.


    1. sumanai
      28.03.2017 21:05

      Как с языка сняли.


  1. Shapeshifter
    28.03.2017 21:14
    +3

    Устаревший и более медленный интерфейс по соображениям «кабы чего не вышло»
    не очень удачный пример: на картинках в данном паттерне разница скорости IDE vs ACHI менее 10%…


    1. VBKesha
      28.03.2017 23:12

      Могу сейчас ляпнуть чушь, но насколько мне известно сами диски про AHCI ничего как не знали так и не знают. У них своя система команд. А AHCI уже реализовано на отдельном контроллере/материнской плате и является прослойкой между командами диску и OS. И эти 10% он и добавляет благодаря всяким ускоряющим аппаратным штукам.


      1. h31
        29.03.2017 08:45

        Да, всё так и есть. Если быть чуточку точнее, режим IDE эти «штучки» просто не позволяет использовать, а AHCI наоборот, раскрывает. Как в программах — есть устаревший ограниченный API, с которым нужно поддерживать совместимость, и более полный современный интерфейс, хотя в обоих случаях по сути выполняется один и тот же код.
        А тесты на картинке просто неправильно сделаны. Если бы взяли тесты на IOPS-ы, сразу бы стало видно, кто есть кто. У меня есть диски, которые подключены по USB 2.0, и там тоже не поддерживается очередь команд. Стоит хотя бы к двум файлам одновременно обратиться, и начинаются дикие тормоза :(


  1. RaymanOne
    28.03.2017 21:16

    Скидки на 16гб DDR4 нет, ждал именно на них…


    1. NLO
      28.03.2017 21:47

      НЛО прилетело и опубликовало эту надпись здесь


  1. MagicEx
    28.03.2017 21:16
    +2

    32768 символов в пути NTFS прекрасно поддерживает, ограничение на стороне Windows (уже можно отключить в Win10\Server2016). Впрочем можно обратиться к таким файлам через \?\\.
    Про скорость накопителя ровно один абзац, относящийся к IDE\AHCI.
    Остальное — про безопасность и надежность.
    Так почему накопитель не едет то? )


    1. sumanai
      28.03.2017 22:01

      32768 символов в пути

      А ограничение — в длине имени файла.


  1. Dee3
    28.03.2017 21:37
    +1

    Избыточность хранения данных для большего ресурса накопителя.

    Ой ли?

    Также не раскрыт вопрос драйверов msahci vs intel RST, и на каких драйверах интересно тестирует сам производитель и что рекомендует?


  1. GennPen
    28.03.2017 21:51

    А режим расширенного хост-контроллера (AHCI) даже в самых современных чипсетах отключен «до востребования».
    Не знаю какого года у вас «современные», но все последние материнские платы которые видел — у всех по умолчанию AHCI включен.


    1. Wernisag
      29.03.2017 13:12

      Если чипсет H61 можно считать современным, то матери от Gigabyte идут с включенным по умолчанию с IDE


  1. Taciturn
    28.03.2017 22:52

    В таком режиме накопители SATA 3.0 работают с быстродействием уровня своих PATA-предшественников.

    И скриншот из которого видно что разница всего 13.5 мегабайт. Что конечно не 0, и на более новых носителях может быть больше, но крайне далеко от ваших страшилок.

    GPT хранит копии этой информации в разных секторах диска и восстанавливает информацию, если она повреждена.

    А это где-то действительно так работает? Прямо сейчас попробовал на W10 — стёр копию GTP в начале диска и всё, диск пустой, никакого автовосстановления.
    Вручную восстановить конечно можно, несколько легче чем с MBR. Но и с MBR совсем не сложно.
    Не то чтобы GPT плох, но и смысла конвертировать из MBR уже имеющийся диск никакого.


    1. VBKesha
      28.03.2017 23:19

      И скриншот из которого видно что разница всего 13.5 мегабайт. Что конечно не 0, и на более новых носителях может быть больше, но крайне далеко от ваших страшилок.

      Я не так давно замерял на SSD скорость в
      AHCI:
      root@xubuntu:/home/xubuntu# dd if=/dev/sdb of=/dev/zero bs=1M count=11024
      11024+0 records in
      11024+0 records out
      11559501824 bytes (12 GB, 11 GiB) copied, 32.311 s, 358 MB/s
      root@xubuntu:/home/xubuntu# dd if=/dev/sdb of=/dev/zero bs=1M count=11024
      11024+0 records in
      11024+0 records out
      11559501824 bytes (12 GB, 11 GiB) copied, 32.3014 s, 358 MB/s
      root@xubuntu:/home/xubuntu# dd if=/dev/sdb of=/dev/zero bs=1M count=11024
      11024+0 records in
      11024+0 records out
      11559501824 bytes (12 GB, 11 GiB) copied, 32.3107 s, 358 MB/

      IDE:
      root@xubuntu:/home/xubuntu# dd if=/dev/sdb of=/dev/zero bs=1M count=11024
      11024+0 records in
      11024+0 records out
      11559501824 bytes (12 GB, 11 GiB) copied, 33.3194 s, 347 MB/s
      root@xubuntu:/home/xubuntu# dd if=/dev/sdb of=/dev/zero bs=1M count=11024
      11024+0 records in
      11024+0 records out
      11559501824 bytes (12 GB, 11 GiB) copied, 33.3228 s, 347 MB/s
      root@xubuntu:/home/xubuntu# dd if=/dev/sdb of=/dev/zero bs=1M count=11024
      11024+0 records in
      11024+0 records out
      11559501824 bytes (12 GB, 11 GiB) copied, 33.3727 s, 346 MB/s

      В общем то с увлечением скорости диска видимо не сильно меняется разница между ACHI и IDE тебе 11-12 мегабайт.


      1. DistortNeo
        29.03.2017 01:28

        Ну с 1-мегабайтным блоком любой сможет. Было бы интересно посмотреть на скорость при работе с блоками меньшего размера, а лучше вообще со случайным доступом.


        dd if=/dev/sdb of=/dev/zero bs=512 count=11024
        dd if=/dev/zero of=/dev/zero bs=512 count=11024


        1. Gendalph
          29.03.2017 03:48

        1. VBKesha
          29.03.2017 10:33

          По скорости разницы никакой.


          1. Gendalph
            29.03.2017 14:24

            Должна быть разница не в скорости, а в latency и IOPS.


            1. Taciturn
              29.03.2017 15:06

              Вполне вероятно что разница будет. Но в статье про это ни слова, только абстрактные страшилки и скриншоты демонстрирующие отсутствие заметной на глаз разницы.


              1. Gendalph
                30.03.2017 02:07

                @Kingston_Technology, прошу выслать мне на тест один из ваших дисков — обещаю сесть и непредвзято рассмотреть его производительность в зависимости от настроек. /полушутка


      1. alexws54tk
        29.03.2017 11:33

        # dd … of=/dev/zero …
        Это как? Вести запись в устройство, которое только и умеет, что отдавать на выход нули.
        Может имелось в виду dd … of=/dev/null …
        % dd if=/dev/zero bs=512 count=22M of=/dev/null
        23068672+0 записей получено
        23068672+0 записей отправлено
        11811160064 байт (12 GB, 11 GiB) скопирован, 6,22619 s, 1,9 GB/s
        # Конечно не SSD, но AHCI включен
        % dd if=/dev/sda bs=512 count=22M of=/dev/null
        23068672+0 записей получено
        23068672+0 записей отправлено
        11811160064 байт (12 GB, 11 GiB) скопирован, 133,262 s, 88,6 MB/s
        


        1. VBKesha
          29.03.2017 11:50

          Ну при записи в /dev/zero ничего не происходит, также как и при записи в /dev/null
          Хотя правильней наверно всё же будет /dev/null но на практике отсутствие разницы.
          в данном примере тоже обычный HDD:
          dd if=/dev/sda of=/dev/null bs=512 count=20000000
          20000000+0 records in
          20000000+0 records out
          10240000000 bytes (10 GB) copied, 46,0533 s, 222 MB/s

          dd if=/dev/sda of=/dev/zero bs=512 count=20000000
          20000000+0 records in
          20000000+0 records out
          10240000000 bytes (10 GB) copied, 45,8982 s, 223 MB/s


  1. alcr
    29.03.2017 11:05
    +1

    Поддержка длинных имен. До 32768 символов в пути вместо 255, как это было в NTFS

    NTFS поддерживает длинные имена если не с рождения, то очень-очень давно, как минимум со времён NT4sp6. Ограничение на 255 символов — это ограничение древнего винапи, которое обходится либо использованием новых функций и интерфейсов, либо костылём "\\?\C:\путь_любой_длины".


    1. CaptainFlint
      29.03.2017 12:14

      1. alcr
        29.03.2017 12:27

        Хм, действительно.
        Но это, имхо, полная фигня. Делать имя файла такой длины — очень сомнительная затея. А вот старое ограничение в MAX_PATH символов на полный путь с именем файла — вот это истинный маразм, который до сих пор живее всех живых.


        1. CaptainFlint
          29.03.2017 12:49

          Проблема-то не в системе, а в программах. Если убрать ограничение в API, то куча программ порушатся из-за того, что используют фиксированный буфер и не проверяют длину полученной строки.
          Впрочем, в десятке что-то там такое, вроде, собирались уже делать в этом направлении. Ключом реестра что ли включается…


          1. DistortNeo
            29.03.2017 13:03

            А если ограничение не убрать, то программисты так и будут лепить фиксированный буфер.


            Кстати, раньше программы работали только с именами в формате 8.3, но это не помешало ввести длинные имена, сделав временный костыль (короткий алиас для длинных имён).


            1. CaptainFlint
              29.03.2017 14:05

              Короткие имена — это всё же наследие 16-битной эры. Первая 32-битная винда (95) шла уже с длинными именами, так что всё, что под неё писалось, должно было это учитывать. Сейчас такого крупного архитектурного изменения не планируется, чтобы туда можно было под шумок MAX_PATH=32768 пропихнуть. Вместо этого сделали манифестом — что ж, посмотрим, к чему это приведёт.


            1. sumanai
              29.03.2017 16:37

              сделав временный костыль (короткий алиас для длинных имён).

              Код этого «временного» костыля жив и в десятке, ни байта не изменили со времён XP, в XP отличия от Win2000 только в одном сраврении, а у Win2000 отличия от NT4 только в порядке следования функций в исходном коде.
              Да, я проверял.


  1. Insane11
    29.03.2017 19:28

    IDE (Integrated Development Environment)

    Наверное, должно быть так — IDE (англ. Integrated Drive Electronics — «электроника, встроенная в привод»)


  1. NaHCO3
    30.03.2017 09:11
    -3

    Как-то у вас всё поверхностно описано, хотя темы сложные и неоднозначные. А вы их только с одного угла рассматриваете, да и то половина предмета в кадр не попадает.

    BIOS и UEFI. Вы говорите UEFI лучше, но забыли сказать чем. Вообще, всё новое лучше старого, иначе его бы не придумывали — это само собой подразумевается. Но интересно в чём точно заключается преимущество. UEFI решает одну проблемку в загрузке компьютера — двойную инициализацию. Сначала биос загружался и инициализировал железо (в режиме совместимости), потом передавал управления операционной системе, и она начала инициализировало всё железо наново (уже в безопасном режиме — с разнесением полномочий ring0-ring3 и т.п.)

    В теории ускорение загрузки, упомянутое вами, достигается за счёт отказа от двойной инициализации. UEFI передаёт железо готовой к использованию в ОС. На практике, это работает только если UEFI заточен для работы с этой ОС. Догадайтесь для какой именно ОС заточен UEFI? Кто протащил его через монопольный сговор? Так вот — для линукса быстрее загружаться через традиционный BIOS, просто потому что он проще и быстрее стартует сам по себе, а двойной инициализации не избежать. Для линукса есть свой UEFI, называется coreboot, но совместимого с ним железа очень мало, и оно дико устаревшее. Так что для линуксоидов от UEFI один вред, и они ваших восторгов не разделяют.

    По поводу Secure Boot — у меня он никогда не заведётся, потому что я использую gentoo, систему собираю сам, и мне никто не подпишет. Линукс, конечно, гибкая система — никто не мешает мне загрузить подписанное ядро и сделать из него kexec — но зачем мне такой геморрой? Если бы производитель железа действительно заботился о пользователе, он бы дал ему возможность подписывать образа для своей системы. А он заботится только о том, чтобы ярмо покрепче нацепить на покупателя.

    NCQ — полезная примочка, но не обязательная. Все средства для разметки дисков как раз для этого и задают архитектуру — бьют диски на сектора и дорожки вместо цельной адресации, чтобы операционная система могла сама оптимально упорядочивать запросы к диску. Но с тех пор как появились жёсткие диски, которые и не диски вовсе, а штабеля флеш памяти, разложенные каждым производителем в свой уникальный пасьянс, NCQ стал более актуален.

    Преимущества GPT перед MBR очевидны, но в некоторых ситуациях достаточно и MBR, и нечего лишнюю память занимать. Если 4 разделов и 2х терабайтов вам за глаза — возьмите MBR, она работает, подтверждено годами. Восстановить данные можно, если вы помните размер разделов. А ещё можно и по характерным заголовкам файловых систем поискать. Надёжно от битых дисков спасает только бекап — всё прочее относительно.

    А если вы ещё сами не знаете, сколько разделов вам понадобится — то тут и GPT не поможет. Надо сразу ставить LVM или какую-нибудь BTRFS, которая в себя включает функциональность управления разделами, в виде сабвольюмов. Прям поверх диска, без MBR или GPT — они уже морально устарели, если вам действительно нужна гибкая работа с разделами.


    1. NaHCO3
      30.03.2017 09:17

      Да, забыл сказать. GPT и MBR могут работать одновременно. Это не рекомендуется, но никто не мешает с помощью небольшого извращения создать диск, который будет размечен одновременно и MBR и GPT. Очень помогало в начальный этап внедрения GPT, когда его поддерживала только половина софта, а вторая ничего про него не слышала.


    1. CodeRush
      30.03.2017 10:08
      +1

      Отличный пост, почти все мифы об UEFI, в которые верят апологеты Linux, точно также начитавшиеся новостей, как и автор этой статьи.

      Давайте по порядку: UEFI не решает проблему двойной инициализации ни на одной платформе, потому что создан был вовсе не для этого. EFI, вообще говоря — это просто интерфейс между прошивкой и ОС, и он не имеет никакого отношения к инициализации оборудования вообще, а пришел на смену интерфейса BIOS interrupt call, потому что для той платформы, для которой EFI изначально разрабатывался Intel с 1998 года (назывался он тогда Intel Boot Initiative) — IA64/Itanium совместимость с legacy BIOS реализовывать не стали из за отсутсвия поддержки 16-битного режима исполнения.
      Еще раз: UEFI — это всего лишь интерфейс между ОС и прошивкой, избавленый от костылей вроде ресета через IO-порт клавиатуры и управления адресной линией A20.

      То, что вы называете UEFI на деле представляет из себя комбинацию из двух относительно независимых компонентов: кода инициализации оборудования и кода, реализующего интерфейс с ОС. На большинстве современных ПК инициализацией оборудования теперь занимается либо Intel PI, либо AMD AGESA, либо вышеупомянутый coreboot, а на ARMах — uboot.
      Еще раз: coreboot занимается только инициализацией оборудования, а для предоставления интерфейса с ОС ему нужен т.н. payload, который может реализовать как старый интерфейс BIOS int (SeaBIOS), так и более новый интерфейс UEFI (TianoCore), а может вообще никакого не реализовавывать и запускать ядро Linux напрямую.

      Для какой ОС заточен UEFI — ни для какой, активно используется MacOS и Windows. Кто протащил его через монопольный сговор — Intel, начав предоставлять MRC в виде 32-битного блоба (который с 16-битным BIOS нужно было женить через жертвоприношения и танцы с бубном и барабанами), а потом вынудив IBV перейти на UEFI с релизом Sandy Bridge. Apple же использует EFI с 2007 года, потому что на момент перехода на x86 никаких альтернатив EFI на x86 не было уже тогда.

      Про SecureBoot — вы можете подписывать все свое своими собственными ключами, и никто вам не мешает этой возможностью пользоваться, а не рассказывать очередной раз про ярмо, которое на пользователя якобы кто-то нацепил.

      Линуксоиды, если вы хотите хоть немного разобраться прежде чем начинать в очередной раз обвинять производителей железа и ОС во всех смертных грехах, прочтите Beyond BIOS, авторы которой этот самый UEFI придумали и поддерживают уже почти 20 лет.


      1. NaHCO3
        30.03.2017 19:39

        Я действительно не сильно разбирался в технологии, зачем читать документацию, если ты всё равно не собираешься ей пользоваться. Всё что я знаю — это сумма статей вендоров, в которых они объясняют, зачем мне надо поставить себе UEFI и быть довольным.

        Вот например, в этой статье сказано, что UEFI ускоряет загрузку. А вы утверждаете, что UEFI вовсе этого не делает. Что всё его предназначение — это замена специальных вызовов биоса, которым современные ОС всё равно никогда не пользовались, предпочитая отдавать работу с железом своим собственным драйверам.

        За ссылку на SecureBoot спасибо — добавил себе в закладки. До сих пор думал, что без джейлбрейка ты не заставишь его кушать другие ключи.


  1. trojan218
    30.03.2017 09:33
    -1

    Уважаемые при всё уважение, у вас акции очень короткие и попадают в промежуток между получками(ЗП), у вас менеджеры этот вариант рассматривали при рассмотрение рамок продаж, по моему ( частное мнение), актуальные даты это 5-15 и 20-30 числа. А так же хорошая практика предупреждать о грядущих акциях, может у кого-то другие временные рамки получки ( те кто работают сами на себя или выполняют работу на заказ)


    1. sumanai
      30.03.2017 17:01
      +1

      Жить от зарплаты до зарплаты в любом случае плохо.