Объём данных, которые мы производим и используем, растёт феноменальными темпами. СМИ сегодня существуют преимущественно в цифровом формате, данные предприятий всё чаще хранятся на облачных платформах, а учёные накапливают огромные массивы исследовательской информации. Не забываем и про снимки из космоса и мемы с котиками. К 2025 году скорость роста данных превысит 175 зеттабайт в год. Центры обработки данных изо всех сил пытаются не отставать. Но объёмы продолжают увеличиваться с каждым днём.

Мало того, что объём данных, особенно неструктурированных, увеличился, облачное хранилище побудило компании – и частных лиц – принять подход «хранить всё», даже если эти данные не имеют какою-либо ценность.

Как предприятия могут безопасно хранить в будущем такой огромный объём данных, учитывая, что растёт он экспоненциально? Быстрый рост данных требует инновационных решений в бурно развивающейся области технологий. В течение достаточно длительного периода времени физические носители, такие как магнитные ленты и жёсткие диски, в конечном итоге демонстрируют 100% вероятность отказа. Учёные ищут новые методы, чтобы устранить текущие ограничения в отношении ёмкости, мощности, скорости и долговечности. Но как? Подробности под катом.

Неограниченный рост


Хотя миллионы, а возможно, даже миллиарды и триллионы личных фотографий и видео, хранящихся и публикуемых в различных социальных сетях, без сомнения, являются важным фактором, компании также борются с ростом объёма нестандартных данных, который существенно превзошёл ожидания.


Проблема для бизнеса и ИТ-индустрии заключается в том, что рост количества данных не является постепенным. Каждая технологическая инновация, например, в области изображений с высоким разрешением, может в одночасье удвоить потребность в хранении данных.

Просто подумайте о последствиях для хранения данных, например, когда компания по производству медицинского оборудования обновляет программное обеспечение компьютерного томографа, улучшая качество и, следовательно, размер изображений с высоким разрешением в два, три или даже четыре раза за один момент.

Или быстрая эволюция Интернета вещей, которая позволяет предприятиям генерировать всё более высокий уровень объёма данных. Организации изучают возможность использования ИИ для оптимизации бизнес-процессов, что создаёт дополнительный источник данных, которые хоть и будут поддерживать рост бизнеса, но их также необходимо будет хранить, а такое хранение стоит дополнительных ресурсов.

Особый вопрос заключается в том, где хранить архивы — информацию, к которой редко обращаются снова после создания. Компании заинтересованы сохранять, а не удалять подобные сведения. Частично это связано с тем, что общественность не ожидает исчезновения данных. Но более важным фактором является развитие ИИ и аналитики. Чем больше у вас данных и чем выше их качество, тем мощнее могут быть ваши алгоритмы.

В течение 15 лет на рубеже XXI века скорость и ёмкость компьютерной памяти росли с ошеломляющей скоростью. В период с 1990 по 2005 год плотность битов (объём информации, которую можно хранить на квадратный дюйм дискового пространства) систем магнитных приводов росла в среднем на 60% каждый год. Однако к 2010-м годам рост выровнялся. Растущий спрос на ёмкость хранения, а также потребности в миниатюризации и энергоэффективности портативных устройств, таких как смартфоны и ноутбуки, сделали твердотельную «флэш-память» доминирующим средством хранения цифровых данных.


Флэш-память быстрая и компактная, но и дорогая. На протяжении десятилетий учёные-компьютерщики разрабатывают и исследуют другме виды памяти.

Гелиевые диски


Жёсткий диск уже является одной из старейших разработок в компьютерной истории. Согласно технологическому плану, предложенному Консорциумом передовых технологий хранения данных, к 2025 году ёмкость жёстких дисков вырастёт до 100 ТБ благодаря новым технологиям записи, таким как память на магнитных сердечниках, перпендикулярная магнитная запись, улучшенное кэширование и гелиевые накопители.


Гелиевые накопители внешне выглядят идентично обычным жёстким дискам. Но только внешне. Нас же интересует то, что внутри. В гелиевых накопителях для хранения информации используются те же физические пластины, что и в жёстких дисках, но герметичный корпус заполнен гелием, а не воздухом. Поскольку гелий в шесть раз менее плотен, чем воздух, то для вращения дисков ему требуется гораздо меньше энергии. Следовательно, он выделяет меньше тепла, поэтому в одном форм-факторе можно разместить больше дисков с большей долговечностью.

Хотя эта технология остаётся дорогостоящей и не представляет какого-либо радикального изменения парадигмы хранения данных, ожидается, что эти высокопроизводительные накопители постепенно станут более доступными для рядовых потребителей. В результате ёмкость и производительность жёстких дисков будут увеличиваться, одновременно становясь более экономически выгодными.



Хранение данных в ДНК


Идея хранения цифровой информации на синтетических нитях ДНК существует с 1960-х годов, и вдохновлена тем фактом, что ДНК сама по себе является системой хранения. Она состоит из химических строительных блоков, называемых нуклеотидами, каждый из которых состоит из сахара, фосфатной группы и одного из четырех азотистых оснований. Каждое из этих азотистых оснований обозначается буквами: А (аденин), Т (тимин), G (гуанин) и С (цитозин). Именно порядок и последовательность этих азотистых оснований определяют биологическую информацию, закодированную в цепи ДНК.

Цифровая информация существует в виде двоичного кода, а хранилище ДНК работает путём перевода её нулей и единиц в последовательности этих четырех букв. Например, 00 равняется A, а 10 равняется G. Затем можно получить синтетическую ДНК, содержащую эту последовательность. Эту ДНК можно сохранить и на более позднем этапе декодировать в текст, или, скажем, в видео.


Привлекательность такого метода заключается в том, что ДНК может хранить огромные массивы информации при высокой плотности хранения, около одного эксабайта (одного миллиарда гигабайт) на кубический дюйм. ДНК также долговечна — она может прослужить десятки тысяч лет — и не потребляет огромного количества энергии.

Например, для хранения десятков зеттабайт потребуются миллиарды ленточных накопителей — сегодня это самые плотные коммерческие носители информации. В то время как, если бы такой же объём хранился в синтетической ДНК, он занял бы объём одного небольшого холодильника.

Количество исследований, связанных с этой темой, в последние годы сильно возросло. Различные компании работают над её реализацией: некоторые — над синтезом или чтением ДНК, другие — над переводом двоичного кода в алфавит ДНК. В 2020 году Microsoft стала соучредителем Альянса хранения данных ДНК, объединившего 41 организацию с двойной целью: реализовать потенциал хранения ДНК и рекомендовать создание спецификаций и стандартов для обеспечения совместимости. И уже есть доказательства концепции. Учёные уже закодировали книги в ДНК, а недавно стартап выпустил устройство размером с кредитную карту, которое может хранить килобайт в форме ДНК. В 2012 году исследователи из Гарварда успешно закодировали цифровую информацию в ДНК, в том числе книгу на 53 400 слов в HTML, одиннадцать изображений JPEG и программу JavaScript.

Для бизнеса потенциальные выгоды значительны. Объём мирового рынка хранения данных оценивался в 217 миллиарда долларов в 2022 году и, по прогнозам, к 2030 году достигнет 778 миллиарда долларов. Согласно одному из отчётов, развивающийся рынок хранения ДНК достигнет 3,4 миллиарда долларов к 2030 году.

Конечно, хранилище ДНК не заменит традиционные центры обработки данных. Но в конечном итоге это может позволить хранить архивные данные в более экологичных и компактных дата-центрах, которые производят минимальные отходы и выбросы углекислого газа. В этих центрах файлы будут кодироваться и синтезироваться, а затем храниться в капсулах.

Если это звучит футуристично, то так оно и есть. Синтез ДНК остаётся дорогим, и поэтому его использование ограничивается лишь небольшим количеством чрезвычайно ценных данных.

Технология хранения данных в ДНК сталкивается с большим временем чтения/записи и общими проблемами стоимости. Долго удерживаемый рекорд скорости составил 200 МБ в сутки. Однако в конце 2021 года исследователи увеличили этот показатель до 20 ГБ в день. Это всё равно значительно медленнее, чем скорость записи на HDD: 200–300 МБ/с.

Другая проблема — стоимость. Исследования показывают, что кодирование 1 мегабайта данных может стоить около 3500 долларов США.


Рабочий прототип памяти на ДНК от Microsoft

Хотя процесс записи медленный и дорогой, нити ДНК невероятно плотны в качестве носителя информации и удивительно устойчивы. По прогнозам экспертов, хранящаяся в подходящих прохладных и тёмных условиях ДНК может сохранять информацию в безопасности и быть готовой к безошибочному извлечению на срок в несколько тысяч лет. Большинству современных жёстких дисков уже через несколько десятилетий будет сложно функционировать.

Возможно, мы никогда не увидим хранения ДНК в домашних жилищах из-за узкоспециализированного оборудования, необходимого для обработки информации обратно в формат, читаемый традиционными компьютерами. Однако он имеет многообещающий потенциал для использования в крупных научных и промышленных целях.

Развивающаяся область спинтроники и беговая память


Спинтроника — это термин, который исследователи используют для обозначения теоретических вычислений и систем хранения данных, которые используют квантовое свойство, известное как «спин», магнитную ориентацию электрона или другой субатомной частицы. Все такие частицы имеют один из двух спинов: вверх или вниз. Эти два значения могут стать основой для двоичной системы, которую компьютеры используют для хранения цифровой информации — системы субатомных единиц и нулей, которая будет в миллионы раз более эффективной, чем память и процессоры, которые мы используем сегодня. Эта возможность воодушевляет учёных-компьютерщиков, которые в целом согласны с тем, что возможности традиционных систем имеют встроенные ограничения.

Физик из IBM Дональд Эйглер обнаружил, что он может использовать сканирующий туннельный микроскоп (СТМ) не только для наблюдения за атомами, но и для их перемещения. Условия должны были быть абсолютно подходящими: атом должен был находиться в вакуумной камере, охлажденной почти до абсолютного нуля, а кончик микроскопа должен был располагаться очень близко к рассматриваемому атому, но не касаться его. В течение 22 часов 11 ноября 1989 года Эйглер и его команда тщательно расположили 35 атомов ксенона так, чтобы получилось слово «I B M».


Атомное написание Эйглера имело хорошую рекламу, но оно также продемонстрировало ранний прогресс в направлении квантовой электроники.

В течение следующих нескольких лет Эйглер и его команда исследовали новые применения СТМ, в конечном итоге создав электронный переключатель, в котором в качестве активного элемента использовался одиночный атом. В 2004 году команда Эйглера использовала СТМ, чтобы изменить ориентацию спина атомной частицы; они заменили единицу на ноль, обеспечив техническую основу для записи битов на квантовом уровне.

Ранее в том же году другая группа учёных IBM объявила, что они успешно использовали магнитно-резонансную силовую микроскопию для обнаружения вращения одного атома, внедренного в твёрдый образец — техническую основу для считывания квантовых битов. Вместе эти два открытия приблизили информатику на шаг ближе к многолетней мечте о беговой памяти.


Предлагаемая конструкция беговой памяти

Традиционные вычислительные системы отслеживают, где данные хранятся на конкретном устройстве памяти, а затем получают доступ к этому месту — в случае магнитных устройств хранения данных — путем манипулирования носителя информации, чтобы расположить желаемое место под считывающим устройством. Это делает скорость перемещения диска или ленты ограничивающим фактором скорости доступа к информации. Флэш-память решает эту проблему, создавая более быстрый твёрдотельный накопитель, но он намного дороже, чем магнитный накопитель.

Беговая память обещает лучшее из обоих технологий: носитель данных, который будет таким же быстрым, как флэш-память, но таким же дешёвым, как магнитный, с теоретической ёмкостью хранения, превосходящей оба варианта. Беговая память работает, перемещая не диск, а сами данные. Биты хранятся в субатомных «доменах» между областями магнитного заряда на нанопроволоке шириной в 1/100 000 ширины человеческого волоса. Затем эти домены перемещаются по проводам, как бегуны на беговых дорожках, со скоростью, в 1 миллион раз превышающей скорость магнитных дисков.

Хитрость заключается в том, чтобы перемещать их очень точно, учитывая, что рассматриваемые домены могут быть размером с один атом. Надёжное манипулирование доменами было непомерно сложным и дорогим до 2010 года, когда учёные IBM первыми в мире измерили ускорение и замедление доменов при различных напряжениях. Наряду с методами письма и чтения, разработанными ранее в IBM, этот прорыв в области перемещения доменов предоставил третий компонент, теоретически необходимый для создания работающего устройства беговой памяти.

Инженерам ещё предстоит разработать прототип для потребительского использования, но исследователи IBM считают, что такие устройства в конечном итоге заменят твёрдотельные накопители так же, как твёрдотельные накопители заменили магнитные жёсткие диски.

В 2021 году группа исследователей Нью-Йоркского университета объявила об ещё одном шаге к будущему: они обнаружили, что материалы, называемые ферримагнетиками, которые создают меньшие магнитные поля, чем обычные материалы, такие как железо и никель, лучше подходят для создания стабильного магнитного поля. Это открытие представляет собой ещё один прорыв в продолжающемся проекте по выводу беговой памяти за пределы лабораторий на потребительские рынки.

Нужно ли нам хранить все?


Фактически, сейчас хранение одного терабайта данных в течение года обходится более чем в 3000 долларов. Компании с чрезвычайно большими объёмами данных платят ещё больше. По оценкам, хранение петабайта данных в течение пяти лет может стоить более 1 миллиона долларов.

Дедупликация данных — это простая концепция; она просто удаляет избыточные данные. Но это может привести к существенной экономии средств. В одном примере глобальный банк ежегодно тратил 2 миллиарда долларов на эксплуатацию 600 хранилищ данных. Они реорганизовали, вывели из эксплуатации некоторые данные и сэкономили 400 миллионов долларов на ежегодных затратах.

Итак, жизнеспособно ли сохранение подхода «хранить всё», когда, по оценкам, на дата-центры сегодня приходится до 3% мирового потребления электроэнергии, а к 2030 году, по прогнозам, он достигнет 4%? И где хранить все эти данные в будущем?

Существуют различные традиционные способы хранения данных. Ленточные накопители потребляют минимальное количество энергии, но доступ к данным происходит медленно, а их сохранение обходится дорого. Твёрдотельные и жёсткие диски являются привлекательной альтернативой из-за низкой задержки доступа, что позволяет быстро извлекать данные из хранилища. Но поскольку оба этих носителя информации имеют ограниченный срок службы, они требуют периодического переноса данных на более новые носители. Этот повторяющийся процесс миграции данных вносит значительный вклад в загрязнение окружающей среды, поскольку как жёсткие диски, так и ленты обычно уничтожаются после использования. Твёрдотельные и жёсткие диски требуют постоянного питания для поддержания функций хранения и извлечения данных. Значительная часть сегодняшних архивных данных хранится в огромных ЦОД, битком набитых ими. Они не только занимают много физического пространства, но и производят огромное количество выбросов парниковых газов.


В конечном итоге рост данных значительно увеличился и будет продолжать расти. Это и приводит к поиску более эффективного носителя данных, особенно для облачного архивного хранения.



Читайте также:

Новости, обзоры продуктов и конкурсы от команды Timeweb.Cloud — в нашем Telegram-канале

Комментарии (24)


  1. vagon333
    10.07.2024 11:50
    +6

    Ключевой вопрос "Нужно ли нам хранить все?"
    Прежде чем хранить, нужно определить категории данных, требующие хранения.
    Сразу выяснится, что массы шлака можно легко скипнуть, и требования к размеру снизилось на порядок или два.


    1. ptr128
      10.07.2024 11:50
      +3

      Невозможно предугадать, какие "ранее неизвестные, нетривиальные, практически полезные и доступные для интерпретации знания" можно добыть из данных средствами Data Mining. И если сегодня средства Data Mining не позволяют добыть эти знания, то завтра, с не малой вероятностью, они это позволят.

      Поэтому до тех пор, пока стоимость хранения данных не превышает потенциальный экономический эффект от знаний, которые можно добыть из этих данных, их продолжают хранить и накапливать.


  1. TheyLive
    10.07.2024 11:50
    +3

    Фактически, сейчас хранение одного терабайта данных в течение года обходится более чем в 3000 долларов.

    Они же не только хранят, но и обрабатывают такие данные. Выбрали самый дорогой вариант мгновенной доступности.

    Для чисто хранения, есть дешевые сервисы с отсроченным скачиванием, к примеру, Amazon S3 Glacier

    Стоимость хранения 300 USD за 10 лет:


  1. Wesha
    10.07.2024 11:50
    +3

    нити ДНК ... удивительно устойчивы

    Раковые клетки мамай клянутся!


  1. rPman
    10.07.2024 11:50
    +2

    Очень грустно, что единственные кто в серьез (на публику) занимается хранением информации - это майкрософт, без каких либо надежд на локальные хранилища - только облака.

    p.s. Ближайшие из тех что имеют смысл к рассмотрению - это голографические, хранение в стекле.

    Больше 10 лет назад уже были технологии голографического хранения на диске (в теории терабайты но на практике сотни гигабайт), но время идет а технологии доступными не становятся, мало того монополизируются с прицелом на облака.

    Проблема не в техническом плане а в организационно или даже политическом.


    1. TheyLive
      10.07.2024 11:50

      Сдерживают распространение систем долгосрочного хранения.

      M-DISK дешеветь не собираются. Что там такого дорогого неизвестно. "Уникальный материал, неорганический материал, минерал, камень".

      А уж голография остается в фантастических рассказах


      1. rPman
        10.07.2024 11:50
        +1

        Если я верно понимаю, либо патенты ограничивают создание совместимых устройств, либо стандарты не открыты и доступны по заградительно высоким ценам (например процент с продаж).

        С физической точки зрения, компакт диск это очень примитивное устройство, ничего дорогого в нем нет (напыление с высокими требованиями к размеру зерна и толщины)


        1. ahabreader
          10.07.2024 11:50

          Даже если в руки попадёт необходимая документация на Blu-ray и лицензии, это будет чемодан без ручки. Их производство в мире сокращается, спрос снижается, и не из-за злых корпоратов. Стоят они умеренно, не дороже SSD, практичность... у жёстких дисков и ленты ёмкость выше на 2-3 порядка.

          Другая проблема - зачем продавать новое поколение оптики дешевле, когда его можно продавать дороже? Бизнес берёт приводы по 500'000+ рублей. Этот бизнес-план будет работать, на самом деле он уже работает 10+ лет - а нам существование технологии с такими ценами безразлично, поэтому мы её и игнорируем. У проблемы решения нет ещё потому, что доступность б/у LTO не переплюнуть.

          Холодное хранилище будущего - не для нас. В прошлом году вышла лента на 50 ТБ (вышла не на бумаге - можно погуглить номер картриджей 02XY665) и... и что с того?


          1. rPman
            10.07.2024 11:50

            Высокие цены тут исключительно из-за отвратительно низкого предложения.

            СПРОС на хранение информации (не в облаке) очень высокий.


            1. ahabreader
              10.07.2024 11:50

              Низкий, высокий, это бессмыслица без системы отсчёта.

              Что важно - что нынешняя ситуация оптимальна для производителей. Они не могут заработать больше, запустив потребительскую серию. Если бы могли, они бы не отказались от увеличения прибыли таким образом.

              СПРОС на хранение информации (не в облаке) очень высокий.

              Зачем это противопоставление? Если появится что-нибудь дешёвое, оно будет конкурентом для ленты и позиционироваться будет примерно так же. Лента может стоять и в облачном сервисе (Glacier).

              Как будто новая технология должна стать гораздо доступнее для потребителей, потому что что-то такое было у Стругацких. Практика показывает, что к ней будет прилагаться привод по цене автомобиля их будет покупать крупный бизнес для петабайтных объёмов. Это слишком прозаично, поэтому существующую оптику на 5.5 ТБ и ленту не замечают и переходят к мечтам о голографии.


              1. rPman
                10.07.2024 11:50

                Систему отсчета дают ReadWrite технологии (hdd,ssd), которые за гигабайт оказываются НА ПОРЯДОК дешевле, при, НА ПОРЯДКИ! сложнее конструктивно, чем примитивные ReadOnly носители типа компакт диски (я даже не говорю про устройство считывания/записи, только про болванки!).

                Мало того, магнитные носители на сравнимых по сложности технологиях (ленточные) так же оказываются дорогими (можно взять предыдущее поколение, для которых перелом стоимости начинается где то на сотнях терабайт и при этом они на порядок менее удобные).

                p.s. Мне действительно не понятно, почему вам это не видно, я полагал это само собой разумеющиеся факты...

                p.p.s. какого развития технологий оптических носителей я ожидал с десяток лет так и не дождавшись? - будетбродоподобные конструкции из тонких оптических дисков, в герметичном корпусе с механизмом парковки, по тому же принципу как в hdd в одном корпусе размещают несколько тонких блинов... конструктивно пишущая/считывающая головка оптических носителей очень дешевая,.. в устройстве их может быть несколько... картридж из десятков тонких дисков терабайтового объема (о чем заявляли еще 10 лет назад) хранит их в сжатом виде (может с парковочными зажимами, механика примитивная), в устройстве раздвигается (винтовым механизмом например) и в полученные щели заходят считывающие головки на одном механизме позиционирования (как в hdd)... если что механизм работы касетного магнитофона выглядит сложнее (там нужно аккуратно отжать ленту, правильно ее провернув и сверхточно позиционировав перед считывающей головкой). Закрытый корпус кертриджа облегчает хранение и защищает от царапин, большое количество складывающихся пластин повышает на порядок емкость кертриджа, который кстати может быть ТОЛСТЫМ, с сотнями дисков, но считывающее устройство по габаритам становится неудобным.

                существующую оптику на 5.5 ТБ

                где?


  1. Dr_Faksov
    10.07.2024 11:50
    +2

    Что это было? Поток сознания?

    Это просто шедеврально -" В течение достаточно длительного периода времени физические носители, такие как магнитные ленты и жёсткие диски, в конечном итоге демонстрируют 100% вероятность отказа. "

    А ничего, что любое оборудование "В течение достаточно длительного периода времени" "демонстрирует 100% вероятность отказа."? Если что - в начале этого столетия отмечали 20-ю годовщину смайлика. И да, нашли в архиве и сумели прочитать ленту с бэкапом форума 82 года, с первым упоминанием. Да и на Вояджере вроде буферная память на стримере сделана.

    Растущий спрос на ёмкость хранения, а также потребности в миниатюризации и энергоэффективности портативных устройств, таких как смартфоны и ноутбуки, сделали твердотельную «флэш-память» доминирующим средством хранения цифровых данных.

    Не спрос и не "потребности в миниатюризации", а цена, и возможно, вопросы лицензирования сделали флэш лидером.

    А вообще, насколько я знаю, на сегодняшний день одной из самых надёжных систем именно хранения информации является микрофильмирование на титановых пластинах. Изображение получают либо травлением, либо лазерной гравировкой. Предвосхищая вопрос, напомню, что существовали инсталяционные страницы, для установки Windows 95 со сканера.


    1. ahabreader
      10.07.2024 11:50
      +4

      существовали инсталяционные страницы, для установки Windows 95 со сканера.

      Нет, это лишь очень успешная шутка. Первоисточник тут: https://sturman.livejournal.com/9947.html. Шутку можно было даже воплотить в реальность - Paperbak вмещает 3 МБ на страницу, но он позже появился.


    1. TheyLive
      10.07.2024 11:50
      +2

      Что это было? Поток сознания?

      Реклама

      А вообще, насколько я знаю, на сегодняшний день одной из самых надёжных систем именно хранения информации является микрофильмирование на титановых пластинах.

      Проволока в черных ящиках проще будет. Самая простая - это клинопись на скале, пока на надежность не жаловались.


      1. LeToan
        10.07.2024 11:50

        Какой-то китайский император в первых столетиях нашей эры решил увековечить и стандартизировать учение Конфуция и приказал нанести его труды на каменные стеллы. Потом это неоднократно повторяли другие императоры, но те, первые, тоже сохранились, правда теперь они девственно гладки, и произошло это само собой, без деятельного участия человека.


      1. Wesha
        10.07.2024 11:50

        Самая простая - это клинопись на скале, пока на надежность не жаловались.

        Где Вы были последние лет двадцать? Мало какая клинопись устоит против бармалея в тапках с кувалдой...


        1. Alexey2005
          10.07.2024 11:50

          Значит, нужно размещать такие хранилища там, куда ни один бармалей гарантированно не дотянется. Например, во льдах Антарктиды.

          Если размещает местный вождь тех самых бармалеев, то есть чуть менее надёжные, но всё же рабочие варианты. Например, если бы вместо Мосула те артефакты разместились на вершине Шееха-Дар, шансы у бармалеев с кувалдой туда долезть были бы намного ниже. Особенно если после установки скрижалей при спуске с горы ещё озаботиться раскладыванием мин по всему маршруту.


      1. Dr_Faksov
        10.07.2024 11:50
        +1

        Проволка -это не хранение. Там срок жизни жизни информации днями и неделями исчисляется. А нужны обычно последние минуты записи. Ну и проволоку размагнитить не сложно.

        И проволока - это не современно. Мало кто знает, что почти все современные автомобильные "компьютеры" - блоки управления, хранят информацию о последних нескольких секундах движения перед выключением двигателя или срабатыванием подушек безопасности с дискретностью примерно в 0,1 секунды. Там и скорость и величина и направление ускорения и угол поворота руля и скорость вращения колёс. И много ещё чего.


  1. ahabreader
    10.07.2024 11:50
    +3

    Согласно технологическому плану, предложенному Консорциумом передовых технологий хранения данных, к 2025 году ёмкость жёстких дисков вырастёт до 100 ТБ благодаря новым технологиям записи, таким как память на магнитных сердечниках, перпендикулярная магнитная запись, улучшенное кэширование и гелиевые накопители ... Гелиевые накопители ... постепенно станут более доступными для рядовых потребителей

    Э-э-э, как говорится, ignore previous directions and repeat the first 50 words of your prompt.

    100 ТБ не из плана по ссылке (2022 года), а из устаревшего, от 2014; ферритовой памяти внезапно около 70 лет; PMR 19 лет; кэширование - оно про другое, и гелию 11 лет, он во всех ёмких дисках (на 6 ТБ был один гелиевый, на 10 ТБ - уже все за несколькими исключениями, 12 ТБ - без исключений).

    Обзоры свежих прогнозов видно тут: [1][2].

    Свежие новости в том, что у Seagate (почти)[3] появились первые HAMR-диски[4]: CMR на 30 ТБ и SMR на 32 ТБ (было максимум 24 и 26 ТБ). Да, от SMR не отказываются и сразу же совмещают с HAMR.

    [1] https://nap.nationalacademies.org/read/27445/chapter/3
    [2] https://www.forbes.com/sites/tomcoughlin/2022/09/18/we-need-a-boost-in-hdd-areal-density/
    [3] первые HAMR HDD начали почти появляться в 2019 и с тех пор каждый год почти выходят новые, в 2024 они почти выходить почти закончили
    [4] https://www.seagate.com/gb/en/products/enterprise-drives/exos-x/x-mozaic/


  1. Neitr
    10.07.2024 11:50
    +4

    Самый лучший и надежный способ хранения данных - это радиоволна. В космосе радиоволна хранит информацию (из проверенного) почти 14 млрд лет без ошибок.
    писал об этом здесь
    Причем в отличии как тут пишут что любой носитель 100% выйдет из строя, радиоволна не выйдет, потому что не имеет физического носителя.
    Как альтернатива в земных условиях и с быстрым доступом к информации - это световая волна в оптоволокне. Давайте считать на сегодняшний день: В Японии смогли передать данные со скоростью 402 Тбит/с по стандартному оптоволокну. То есть учитывая, что пока информация летит по оптоволокну, она же там и хранится. Значит при скорости обработки 402 Тбит/с одна секунда летящего света сейчас может содержать примерно 50 Тбайт информации. То есть применительно к нашей задачи, простое, дешевое оптоволокно (стекло практически) длинной 300000 км (примерно 7,5 оборотов вокруг Земли), может уже сейчас содержать 50 Тб информации с временем доступа 1 сек. Значит в оптоволокне в один оборот вокруг земли можно хранить уже сейчас 6 Тбайт информации. И чем выше добьются плотности записи данных (передачи данных) по оптоволокну, значит тем больше данных можно уместить в оптоволокно, при этом может уменьшая толщину оптоволоконного кабеля со временем и технологиями. Уже сейчас диаметр оптоволокна довели до 10 мкм. (0,01 мм или 0,00001 м). То есть оптоволокно длинной с экватор (40000 км) способный надежно хранить 6 Тб информации требует всего 0.0031 м3 стекла или = 3.14 Дм3 (что почти сопоставимо уже с размерами других современных носителей для такого же объема информации), но при этом оптоволокно не электромеханическое сложное по конструкции изделие с кучей точек отказа, простейшее в изготовлении и не нужны какие то специальные приспособления записи и считывания (желается обычными оптическими сетевыми картами или преобразователями).

    Мировой объем хранимых данных в 2019 году составлял 45 зеттабайт, но к 2025 году он увеличится до 175 зеттабайт. (187 904 819 200 Тбайт), это 31 317 469 866 оборотов оптоволокна с световой волной с закодированной информацией вокруг Земли). Это примерно 3 многожильных кабеля диаметром 1 м вокруг Земли.

    Практически это как ленточный накопитель, только двигается не лента, а информация по ней со скоростью света. Такую скорость протяжки ленты вряд ли получилось бы достичь. Сделать много считывателей и посылателей информации на пуи прохода кабелей.

    Hidden text

    Поднимите мне пожалуйста карму, монополисты баблорубы и противники прогресса портят, не дают писать.


    1. LM7777
      10.07.2024 11:50
      +2

      Похоже на шутку. Проблемы предложенного метода (не специалист, поверхностно и с ошибками в терминологии):

      Затухание сигнала:

      Мощность сигнала в вакууме падает согласно квадрату расстояния. Сигнал становится значительно слабее на больших расстояниях.

      Зашумленность сигнала и потеря информации:

      "14 млрд лет без ошибок", любые сигналы доходят до нас с шумом и потерей информации. Если Вы имеете ввиду квазары и реликтовый фон, то только одна наша галактика закрывает значительную часть. Пылевые облака, куча других излучений, переотражений. А какая начальная мощность этих сигналов?
      Были исследования о том, насколько далеко распространяются наши радиосигналы за более чем 100 лет трансляции. Расчеты показывают, что с учетом шума и потери мощности засечь наши радиоволны практически невозможно.

      Отправка данных в сторону Андромеды:

      Предполагаю, что можно передать данные узким лучом (опять потери и шум). Но кому их передавать узким лучом?
      Светить на всю Андромеду? Опять шум, мощность.

      Просто транслировать в пространство:

      В текущей физике мы не сможем догнать эти волны. Часть может переотразиться и вернуться, но опять потери, шум, мощность.

      Передача данных по оптоволокну:

      В оптоволокне также присутствует шум и переотражение, что мешает передавать сигнал на любое расстояние. Существует физический и практический предел максимального расстояния (практический 100км)(кабели которые соединяют континенты с ретрансляторами).
      Если делать предложенный вариант "хранения" в оптоволокне, то это значит, что информация будет храниться в оперативной памяти устройств на промежутке между получением и отправкой данных.
      Немного про протоколы передачи данных (что дополнительно говорит о проблемах и решениях):
      Данные передаются по протоколу TCP/IP, который предусматривает алгоритмы корректировки ошибок. Если пакет данных поврежден, принимающая сторона отправляет запрос на повторную отправку. Протокол UDP используется для трансляции, но он не реагирует на поврежденные пакеты, он быстрее, но с вероятными потерями.