Тест ssd надежности: результаты ресурсных испытаний [обновлено 16.12.19] / Накопители – результаты ресурсных испытаний [обновлено 16.12.19] / Накопители

Содержание

3dnews vs JEDEC vs здравый смысл. Где правда, брат? / RUVDS.com corporate blog / Habr

Всем известно легендарное тестирование SSD на надёжность от 3dnews (публикация от 2018.01), по результатам которого некоторые бюджетные накопители превзошли заявленный производителем ресурс в десятки раз.

После этого исследования в народе появилась конспирологическая теория, что производители занижают ресурс у бюджетных SSD, а также распространилось убеждение, что практически все SSD умеют делать и качественно выполняют выравнивание износа.

Исследование от 3dnews.ru было проведено по мотивам тестирования Techreport.com (публикация от 2013.08.20).

Методика для измерения износостойкости также была использована одинаковая.

Методика Techreport:

We can push SSD endurance limits much faster with synthetic benchmarks. There are myriad options, but the best one is Anvil’s imaginatively named Storage Utilities.

Developed by a frequenter of the XtremeSystems forums, this handy little app includes a dedicated endurance test that fills drives with files of varying sizes before deleting them and starting the process anew. We can tweak the payload of each loop to write the same amount of data to each drive. There’s an integrated MD5 hash check that verifies data integrity, and the write speed is more than an order of magnitude faster than DriveBench 2.0’s effective write rate.

Anvil’s endurance test writes files sequentially, so it’s not an ideal real-world simulation. However, it’s the best tool we have, and it allows us to load drives with a portion of static data to challenge wear-leveling routines. We’re using 10GB of static data, including a copy of the Windows 7 installation folder, a handful of application files, and a few movies.


Методика 3dnews.ru:
Поэтому в нашем тесте выносливости мы используем отформатированные с файловой системой NTFS накопители, на которых непрерывно и попеременно создаются файлы двух типов: мелкие – со случайным размером от 1 до 128 Кбайт и крупные – со случайным размером от 128 Кбайт до 10 Мбайт. В процессе теста эти файлы со случайным заполнением множатся, пока на накопителе остаётся более 12 Гбайт свободного места, по достижении же этого порога все созданные файлы удаляются, делается небольшая пауза и процесс повторяется вновь. Помимо этого, на испытуемых накопителях одновременно присутствует и третий тип файлов – постоянный. Такие файлы общим объёмом 16 Гбайт в процессе стирания-перезаписи не участвуют, но используются для проверки правильной работоспособности накопителей и стабильной читаемости хранимой информации: каждый цикл заполнения SSD мы проверяем контрольную сумму этих файлов и сверяем её с эталонным, заранее рассчитанным значением.

В обоих случаях использовалась утилита Anvil’s Storage Utilities.

1. А что не так с методикой?


Проблема заключается в том, что заполнение диска происходит последовательно. Что не соответствует ни реальным сценариям использования, ни процедуре измерения износостойкости, рекомендованной JEDEC (комитет инженерной стандартизации полупроводниковой продукции, иначе называемый Solid State Technology Association, куда входят все крупнейшие производители флэш-памяти).

И ОС, и контроллер (если у него есть небольшой DRAM-кеш) группируют последовательные блоки идущие на запись и записывают большими нативными блоками, свойственными конкретному устройству. При этом практически отсутствует усиление записи и практически нет необходимости в алгоритмах выравнивания износа.

В реальных условиях, как фактор мультипликации, так и качественная реализация алгоритма выравнивания износа имеют сильное влияние на ресурс накопителя.

Проблема 1. При последовательной записи файлов WAF ≈ 1


Тест, построенный так, что в нём фактор мультипликации записи (WAF) стремится к единице, будет предсказуемо давать завышенные результаты по ресурсу. У большинства дисков проанализированных 3dnews (из которых можно было извлечь WAF), коэффициент усиления записи был ≈1-1.11. Специалисты 3dnews объясняли это эффективными алгоритмами контроллеров. Лишь буквально у одного экземпляра WAF был 3, чтобы было объяснено неэффективным контроллером.

Однако, по моему мнению, всё дело в методике теста, который генерировал последовательную запись (при которой WAF → 1), что и дало завышение ресурса SSD-накопителей.
Далее я оценю во сколько раз.

Проблема 2. Не тестируется качество алгоритма выравнивания износа


При последовательном заполнении диска и последующем стирании плохо тестируется механизм выравнивания износа. Если производитель догадался сделать первые несколько ГБ диска (где находится битовая карта диска, FAT и прочие метаданные) работающими в режиме SLC (или кеширует их в буфере RAM), то алгоритм выравнивания износа может полностью отсутствовать в прошивке и всё равно при последовательной записи будeт достигнуты отличные показатели ресурса.

Проблема 3. Не тестируется срок хранения данных после исчерпания ресурса


Если вы уезжаете в путешествие на несколько месяцев, то непонятно можно ли доверять диску, который выработал свой паспортный ресурс.

Проблема 4. Последовательное заполнение диска, с последующим практически полным стиранием, не является реальным пользовательским шаблоном поведения


Поскольку SSD — это ещё довольно дорогой ресурс, то люди обычно стараются его использовать максимально полно и оставляют минимум свободного места.

Идеальный тест, на мой взгляд, это чтобы во время тестирования SSD оставался забитым на 80-90%, при этом в случайном порядке старые файлы должны удаляться, а новые добавляться.

2. Факторы мультипликации записи


2.1. Фрагментация файловой системы


Так как в Windows у SSD отключена дефрагментация, а размер кластера NTFS по умолчанию составляет 4КБ, то в реальной жизни диск сильно фрагментируется. В этом случае даже последовательная запись превращается по скорости практически в случайную.

Контроллеру, чтобы записать 1 изменённый кластер приходится вначале считать всю аппаратную страницу NAND (которая может достигать сотен килобайт в размере), изменить 4КБ, а потом всю её записать. Если размер полезной ёмкости страницы NAND составляет 64КБ, то мы имеем усиление записи в 16 раз.

Реальные размеры страниц в NAND
Из комментария:

Реальные размеры страниц в NAND микросхемах обычно все же не сотни килобайт, а 528, 2112, 4224, 4320, 8576, 8640, 8832, 8896, 9216, 17664, 18048, 18336 и т.д. Малые размеры справедливы для старых SLC микросхем, для TLC и QLC размеры поболее. Такие странные размеры потому, что кроме пользовательских данных необходимо хранить служебные данные (ECC, флаги, номера блоков, счетчики записей и т. п.).


2.2. Алгоритм выравнивания износа


Такой алгоритм может быть реализован в виде отдельного процесса внутри контроллера. Он будет работать примерно так:

Чтобы переместить статические данные в область с более высоким износом, требуется осуществить запись, равную по размеру перемещаемым данным, при условии, что есть освобождённый TRIM блок. А при малом количестве свободных блоков придётся совершить 2 записи, чтобы поменять данные местами.

RAM = a
a = b
b = RAM

При малом или отсутствующем DRAM-буфере потребуется три записи.
temp = a
a = b
b = temp

Эти операции в идеальном алгоритме выравнивания износа будут выполняться крайне редко, так как имеет смысл перемещать только статические данные, чтобы задействовать в оборот страницы с низким износом, поэтому мы пренебрежём влиянием алгоритма выравнивания износа на мультипликацию записи. Хотя, конечно, нет никаких гарантий, что в реальных SSD используются идеальные алгоритмы.

2.3. Типичная запись на SSD является случайной, блоком 4-8КБ


Обычная природа записей на SSD представляет из себя в основном случайную запись 8КБ. Даже при отсутствии фрагментации размер типичного блока записи будет меньше размера страницы NAND и будет вызывать мультипликацию записи.

2.4. Алгоритм сборки мусора


Вот тут кроются самые большие подводные камни. Размер блока в NAND памяти достигает нескольких мегабайт. Блок состоит из нескольких страниц.

Страницы могут быть прочтены и записаны по отдельности, а блок может быть стёрт только полностью.

Со временем многие страницы в блоке помечаются как недействительные, так как данные которые были в них были изменены и записаны в другое место или из-за вызова TRIM. И рано или поздно сборщик мусора должен взять несколько частично заполненных блоков и скомпоновать из них полностью записанные и свободные.

Пока есть свободное место, то скорее всего, он даже не будет запускаться, поэтому со временем в блоках образуются многочисленные дыры.

Чем меньше места на диске, тем быстрее возрастает WAF (коэффициент мультипликации записи, Write Amplification Factor).

Для иллюстрации увеличения WAF приведу следующую картинку:

На картинке показаны блоки NAND памяти с данными, заполненные на 87.5%, разбитые на страницы. Для того чтобы освободить место для записи происходит перекомпоновка, при которой перезаписывается 7 блоков и стирается 1. Итого WAF получается = 8!

Конечно, нужно ещё учесть, что у большинства SSD есть резервная область, в которую также происходит перераспределение записи. Но, как правило, она невелика.

Типичный размер скрытой области для потребительских дисков составляет 7.37%, т.к. производители указывают размер в миллиардах байт, а микросхемы имеют ёмкость в гигабайтах. 1 гигабайт = 1 073 741 824 байт).

В случае заполненности диска на 90% и наличии скрытой области размером в 7.37%, WAF будет равен 6.18!

WAF может оценён по этой формуле:

Kзаполненность диска — от 0 до 1, где 1 — 100% заполнение диска.
Kрезервной области — от 1, где 1 — 0% резервная область, 1.1 — 10% резервной области, и так далее.

Приблизительный график зависимости WA от процента свободного места на диске.

Из графика видно, что WA катастрофически нарастает по мере заполнения диска, приближаясь к 15 при полном заполнении диска с резервной областью 7.37% (типичное число для потребительских дисков, т.к. производители указывают размер в миллиардах байт, а микросхемы имеют ёмкость в гигабайтах. 1 гигабайт = 1 073 741 824 байт).

Вы, наверное, сами замечали как сильно начинает тормозить телефон, если там оказываются считанные единицы процентов свободного места. Ведь в нём тоже используется флэш-память. Забивать память под 100% не только ужасно медленно, но и сильно тратит ресурс накопителя.

Отдельная статья по теме.

2.5. Общий WAF от всех факторов


WAF, вносимые малосвязанными факторами, перемножаются.

3. Методика измерения ресурса от JEDEC для пользовательских SSD

В стандарте JEDEC «Solid-State Drive (SSD) Endurance Workloads» от сентября 2010 года, ревизия JESD219A есть описание методики для тестирования SSD.

В двух словах: инженеры JEDEC записали логи записей, TRIM и flush (команда сброса буферов на диск) некоторого пользователя ноутбука за 7 месяцев, работающего в основном с офисными программами. Предположительно на ноутбуке была установлена Windows 7 (поддерживает TRIM c 2009 года) на файловой системе NTFS с размером кластера 4КБ.

Детали о эталонном пользовательском компьютере и общая статистикаPlatform and Workload
Collected on standard laptop PC, 2 GB RAM, 128 GB SATA SSD, operating system supporting trim
Main use: office productivity
Secondary use: storage of photos, music, and apps

Trace Characteristics

Writes/Trims/Flushes captured in a file with a CSV format: $command offset size
49 GB footprint (total data touched)
128 GB spanned (range of LBA’s accessed)

Average amount of Trimmed space = 13 GB (average across duration of trace)

Other Trace Characteristics



Я распарсил этот лог, чтобы понять какие активности там записаны.

При тестировании предлагается повторять записи по этому логу (Master Trace), пока не наберётся нужное число записанных терабайт (TBW), после чего нужно проверить в течении какого времени ячейки хранят заряд (retention time). Для пользовательского SSD это время должно быть около 2 лет при температуре хранения 25℃, если рабочая температура была 40℃. Поскольку 2 года никто ждать не будет, то повышают температуру хранения, что ведёт к более высокой утечке электронов, и по специальным таблицам (построенным по уравнению Аррениуса) вычисляют время хранения данных при нормальной температуре.

Интересные факты:

Как известно, NAND-память разбиты на страницы, которые объединяются в блоки. Запись и чтение происходит постранично, а стирание только блоками.

Когда нужно что-то переписать, идеальная прошивка работает примерно так: она записывает страницы с изменёнными данными в блок, где ещё есть незаписанные страницы и устанавливает новое соответствие LBA→страница в FTL (Flash Translation Layer), а старую страницу помечает недействительной. Если же таких блоков нет, то запускается сборщик мусора, который компонует данные из полузаполненных блоков в заполненные с освобождением блоков.

Это идеальный вариант. Не все пользовательские SSD имеют хорошие алгоритмы выравнивания износа. Что видно по драматически отличающимся результатам тестирования 3dnews.

Типичный размер страницы составляет 8KB и выше, а размер блока 2MB и выше. В тестировании JEDEC диск никогда не заполнялся более 38%, поэтому там всегда, как я подозреваю, были свободные блоки и поэтому не было активной работы сборщика мусора, который тоже тратит ресурс SSD. Но был WAF (Write Multiplication Factor) из-за того, что данные иногда записывались неполными страницами, а иногда одна запись проходила по границе NAND-страниц.

Я написал скрипт для вычисления WAF в зависимости от размера страницы в тестировании JEDEC. Вот WAF в зависимости от размера страницы NAND:


В тестировании 3dnews WAF примерно равен 1, так как файлы записываются последовательно, а Windows имеет кеширование записи, в ходе которого сектора записываются упорядоченно.

В типичном сценарии, когда страница равна 8К (Samsung 840 EVO) WAF всего 1.11 (погрешность на 11% от данных от 3dnews), что вроде бы можно простить. Но если мы учтём ещё WAF, который вносит алгоритм сборки мусора, то простить нельзя.

4. Методика JEDEC для тестирования корпоративных дисков на износостойкость


Она описана значительно более формализовано и условия более жёсткие. Задаётся чёткий процентаж записей различной длины. Записи размером до 4096 байт могут быть случайно смещены, а длиной от 4КБ должны быть выравнены по 4КБ смещениям.

Расчёт WAF в зависимости от размера страницы.

5. Расчёт поправок к результатам тестирования 3dnews


Нам нужны поправочные коэффициенты для того, чтобы износостойкость по методике 3dnews преобразовывать в износостойкость по методике Jedec.

Для начала мы уменьшим достигнутый результат в 2 раза, так как в тестировании не проверялось долговечность хранения. Никто не хочет обнаружить, что после отпуска, накопитель в его компьютере перестал работать или покрылся бэдами. Цифра 2 взята с потолка.

По методике JEDEC диск заполнен всего на 38%, что даём нам увеличение WAF из-за сборки мусора в 1.55 раза (по формуле выше). Этот коэффициент будет в знаменателе.

Далее мы учтём фактор мультипликации записи в зависимости от размера страницы NAND (полученный при анализе тестирования пользовательских SSD по методике JEDEC) и перемножим на WAF, который имеем от сборщика мусора.


Поправочные коэффициенты для дисков с избыточной областью в 7.37%.

Поправочные коэффициенты для дисков с избыточной областью в 10%.
Поправочные коэффициенты для дисков с избыточной областью в 20%.
Поправочные коэффициенты для дисков с избыточной областью в 30%.

6. Поправки к результатам тестирования 3dnews для использования пользовательских SSD в серверах


Сразу скажу, что это плохая идея. Но многие так делают. Поэтому попробуем рассчитать поправочные коэффициенты для определения ресурса пользовательских дисков в качестве серверных. Мы берём износостойкость из тестирования 3dnews и делим её на нужный коэффициент, чтобы получить ожидаемый ресурс (методика JEDEC) при корпоративном применении.
В серверах не требуется такое долговременное хранение в отключенном состоянии, как в пользовательских SSD. Вот соответствующая таблица:

При типичной температуре 50℃ эксплуатации под нагрузкой накопитель должен обеспечивать 58 недель ≈ 1 год хранения данных в отключенном состоянии при 25℃.

Для пользовательского применения (где требуется сохранность данных в течении 2-х лет в отключенном состоянии) мы уменьшили ресурс в 2 раза. Для корпоративного применения не нужен такой большой срок хранения, поэтому мы возьмём меньшее число, например, 1.3.

После этого умножим на WAF, характерный для корпоративной нагрузке, а потом учтём работу сборщика мусора и получим следующие таблицы коэффициентов. Результат полученный 3dnews нужно разделить на это число.

Есть проблема с тем, что в стандарте не описывается размер резервной области или свободного места для корпоративных дисков. Поэтому мы не можем точно оценить WAFкорпоративного теста JEDEC, поэтому возьмём это число (1.55) из теста пользовательских SSD JEDEC.

Поправочные коэффициенты для дисков с избыточной областью в 7.37%.


Поправочные коэффициенты для дисков с избыточной областью в 10%.
Поправочные коэффициенты для дисков с избыточной областью в 20%.
Поправочные коэффициенты для дисков с избыточной областью в 30%.

8. Выводы


Если вы никогда не выключаете свой компьютер на несколько месяцев, размер страницы NAND не более 16КБ, и диск заполнен примерно наполовину, то показатели ресурса достигнутые 3dnews нужно разделить на 3.

Для типового сценария (занятость диска 90%, размер страницы 8КБ), чтобы получить ресурс по стандартам JEDEC, делим на 9 ресурс, полученный 3dnews.

Если вы иногда отправляетесь в реально длительные путешествия, а накопитель в это время не используется, то советую оставаться в рамках паспортного ресурса, по истечении которого менять накопитель.

Для редких случаев, когда размер страницы NAND больше 16КБ, а диск довольно плотно заполнен, то чтобы вычислить реальный ресурс накопителя, его нужно уменьшать в десятки, а иногда в сотни раз.

А если вы засовываете бюджетный накопитель в сервер, то озаботьтесь и рейдом, и бэкапом. У вас не будет стабильного времени отклика и скоростей, защиты по питанию и других плюшек корпоративных накопителей, но ресурс вы можете вычислить с помощью поправочных делителей из соответствующей таблицы статьи. В типовом случае делим на 11.

Ссылки

→ Optimizing Linux with cheap flash drives
→ Как определяем размер страницы и блока флэш-памяти

P.S. Замеченные ошибки направляйте в личку. Повышаю за это карму.

За изображение спасибо TripletConcept.



Вы можете заказать виртуальную машину с SSD у RUVDS по купону ниже.

База результатов тестов накопителей SSD

Содержание


Небольшое стандартное предисловие

Рынок твердотельных накопителей на флеш-памяти (SSD) находится под воздействием ценовой конкуренции. В результате этого компании вынуждены постоянно изыскивать способы снижения себестоимости производства.

Производители первого эшелона и «приближённые», имеющие особые контракты (Crucial-Micron, Intel, LiteON, Plextor, Samsung, SanDisk, Toshiba, Transcend и т.д.), как правило, более-менее соблюдают изначальные спецификации выпускаемой модели, маневрируя в ценовой политике за счёт более высокой наценки, а также масштабов производства. Хотя и они тоже могут преподносить сюрпризы.

Компании, работающие по схеме заказа готовой продукции у ODM/OEM-производителей с нанесением собственных торговых марок (ADATA, PQI, PNY, Silicon Power, SmartBuy и т.д.), зачастую лишены такой возможности. Поэтому они применяют политику удешевления за счёт выбора дешёвых аппаратных конфигураций (неоригинальная флеш-память, асинхронная флеш-память вместо синхронной, упрощённый контроллер и т.д.). При этом формальное наименование модели того или иного накопителя при его аппаратной «модернизации» чаще всего остаётся прежним.

Поэтому, при ознакомлении с обзором, также следует в соответствующем разделе статей проверить наличие более новых материалов по данной модели (не обязательно именно этого же объёма) — по мере возможностей, мы стараемся отслеживать изменение аппаратных платформ. По накопителям на контроллерах Phison существует отдельный раздел — об этом разработчике разговор особый (к примеру, GoodRAM C100, SmartBuy Ignition 2 и Silicon Power V55/S55 одно время были одним тем же накопителем просто с разной этикеткой и упаковкой).

А обзор того или иного накопителя в определённый момент превращается в историческую справку для продвинутых читателей и тех, кто волею судеб стал обладателем старой конфигурации, что зачастую не менее ценно, чем отражение текущего состояния дел на рынке твердотельных накопителей. Это нормально в виду бурного роста и развития последнего.


Вступление

Отдельные обзоры накопителей – это, конечно, хорошо. Однако не всегда выбор автора в пользу тех или иных продуктов является подходящим для любого читателя, нацеленного на покупку SSD и внимательно изучающего обзоры на данную тему. Всегда будут ситуации, когда из всех взятых для сравнения с тестируемыми в конкретном обзоре накопителями часть просто отсутствует в окрестных магазинах. Поэтому кому-то будет неинтересно читать сравнение, например, и по сей день довольно редкого в продаже Samsung 840 Pro с более распространённым Plextor M5 Pro. Есть и категория людей, которым нужен максимальный охват всех показателей. И только охват. Они читают обзоры, сравнивают графики, и их интересуют только цифры. Им интересно конкретное сравнение максимального числа накопителей в одинаковых условиях по одной и той же методике. И обе эти группы читателей, и их пожелания вполне достойны внимания – по-своему они правы.

Идя навстречу пожеланиям читателей, в рамках данного материала, мы попытаемся объединить все полученные данные по производительности накопителей. Думается, уже многие обратили внимание на то, что в рамках сотрудничества Лаборатории overclockers.ru, компании Регард, а также ряда производителей и их российских дистрибьюторов ведётся весьма массовое тестирование SSD-накопителей различного формата, объёмов и ценовых категорий. Безусловно, охватить весь ассортимент рынка навряд ли получится. Но что сможем, мы протестируем.

В этом материале нет ни таблиц технических характеристик накопителей, ни поведения оных под непрерывной нагрузкой (вспоминаем широко известную особенность микропрограмм ряда накопителей OCZ и особо яркий пример – Vertex 4, или, например, менее известную продукцию Toshiba, обладающую таким же характером), ни фотографий внешнего вида, ни описания комплектации, ни всего прочего, только голые цифры. Всё остальное, впрочем, всегда доступно по ссылкам на соответствующие обзоры из алфавитного указателя ниже.

Понятное дело, что в итоге мы получили просто огромные графики, ведь на текущий момент опубликована дюжина обзоров и суммарно протестировано полсотни моделей накопителей – число впечатляющее. И дальше, ориентируясь на интерес читателей, велик ли будет он, мы будет думать над иной формой подачи данных.

Также мы постараемся сделать так, чтобы это не был «одноразовый» текст из серии «опубликовали и забыли». Данный материал должен обновляться по мере выхода новых обзоров и всегда будет доступен по неизменной ссылке.

Разумеется, методика не стоит на месте, добавляются новые тесты, поэтому получится так, что в некоторых графиках напротив тех или иных накопителей будет пустота – это значит, что на тот момент накопитель не был протестирован в данном тесте. Но этих пробелов очень немного и постепенно, по мере возможности, мы будем восполнять их, проводя дополнительные тестирования.

Комментарии к графикам мы будем давать только в случае крайней необходимости, основной приоритет – цифры и только цифры.

Who is who?

Наверное, будет разумным для начала немного рассказать о контроллерах и их производителях, наиболее часто встречающихся на сегодняшний день на рынке. Знание особенностей контроллеров позволит более адекватно интерпретировать результаты тестов.

137x56  4 KB

Компания LSI приобрела в 2011 году оказавшийся весьма успешным молодой стартап под маркой SandForce. Ныне контроллеры марки SandForce – это самые распространённые контроллеры на розничном рынке. Кто только не выпускал накопители на их основе: A-DATA, Corsair, Kingmax, OCZ, QUMO, SmartBuy, Silicon Power, Transcend, Verbatim… список этот можно продолжать очень долго. Причина такого многообразия проста до неприличия: SandForce не только разрабатывает сами контроллеры, при желании любой производитель может получить и полный комплект технической поддержки – микропрограмма контроллера, готовый дизайн платы накопителя, а также программное обеспечение для его обслуживания.

Таким образом, для выпуска накопителя на базе контроллера SandForce не требуется никаких собственных инженерных ресурсов и вообще опыта в производстве SSD. Можно и самим производством не обладать, заказывая его на стороне. А то даже и на это не заморачиваться, заказывая уже готовые накопители у безвестного ODM (OEM) производителя и наклеивая свои наклейки. Все перечисленное позволяет обойтись минимальными вложениями на начальном этапе. Именно с этого начинали, например, Corsair и OCZ. А, скажем, накопители SmartBuy серии Adrenaline вовсе не просто так определяются как Kingmax.

Особняком стоит компания Intel. Эта компания фактически последней запустила производство накопителей на контроллерах SandForce. Причина проста: первые версии микропрограмм контроллеров SandForce страдали так называемыми «детскими болезнями»: различные ошибки и сбои, вплоть до выпадения BSOD операционной системы. И как раз к выходу накопителей Intel эти проблемы в большей своей части были решены (к чему приложил руку в том числе и сама Intel). Причём в своих накопителях Intel использует самостоятельно модифицированную версию микропрограммы LSI. Помимо этого, их продукты снабжаются фирменным программным комплексом Intel SSD Toolbox, позволяющим выполнять самые разнообразные операции с накопителем.

Ныне встречаются два микроконтроллера SandForce: SF-2281 и SF-2241. Различия между ними минимальны, и даже сам производитель их особенно не разделяет. Но при этом SF-2241 стоит несколько дешевле, да и энергопотребление у него пониже. Поэтому помимо бюджетных SSD (например, Kingmax SMP35) он в связке со специальной микросхемой-мостом SATA3-USB3.0 производства Genesys также встречается в флеш-накопителях USB 3.0 среднего и высшего ценовых сегментов (например, Kingston DataTraveler Workspace).

Что касается технических характеристик, то для накопителей на базе контроллеров SandForce на данный момент заявляются самые высокие скорости операций чтения и записи на рынке. Но не всё так просто, как кажется. Суть в том, что в контроллерах SandForce реализованы алгоритмы компрессии данных, которые работают фактически как обычные программы-архиваторы типа WinRAR, 7Zip и т.д. В ход идут самые разнообразные ухищрения: простое сжатие данных «на лету», использование перекрёстных ссылок на одинаковые блоки данных и прочее. В итоге численные значения скоростных показателей действительно впечатляют: до 550 Мбайт в секунду на линейных операциях, даже если в накопителе используется дешевая медленная асинхронная память с интерфейсом ONFi 1.x. Заодно несколько экономится ресурс флэш-памяти.

Но есть и обратная сторона медали. Хорошо сжимаемые данные в реальной жизни встречаются не так часто (хотя, например, системная папка Windows жмётся неплохо), а вот мультимедиа (видео, аудио, фотографии), как правило, уже и так неплохо сжаты, и здесь SandForce сильно сдаёт позиции. Особенно в случаях с асинхронной памятью, которая из-за своей дешевизны чаще всего используется как раз в бюджетных накопителях. Внутренние перекрёстные ссылки на одинаковые блоки – также головная боль для этих контроллеров, т.к. сильно затрудняется работа алгоритмов сборки мусора, и в результате накопители на SandForce в состоянии «немного поэксплуатировали» выдают уже совсем иные скоростные показатели. Причём зачастую их не помогает восстановить не только TRIM (в том числе и полное удаление всех разделов с накопителя), но и выполнение Secure Erase. На каких-то накопителях эта проблема проявляется в полной мере, на каких-то она менее заметна. Ещё один важный момент: всё высвобожденное в результате компрессии место не будет доступно пользователю – оно будет отправлено в скрытый резерв накопителя.

В конечном итоге в компании с SandForce можно заполучить что угодно: от хорошей скоростной памяти и до тихого ужаса (особенно касаемо бюджетных накопителей малоизвестной марки).

125x60  8 KB

Контроллеры Marvell – вторые по распространённости на розничном рынке. Сейчас наиболее часто встречаются:

  • Marvell 88SS9174 и его мобильная версия Marvell 88SS9175. В основе лежит два процессорных ядра ARM Cortex (ARM9), работающих на частоте 225 МГц. Поддерживаются 8 каналов памяти с 16-ти кратным чередованием (Marvell 88SS9175 – 4 канала памяти).
  • Marvell 88SS9187. Незначительная модернизация 88SS9174, в частности, выросла частота ARM-ядер до 400 МГц.

В остальном – полная противоположность контроллерам SandForce: контроллеры не снабжаются готовой для розницы микропрограммой (производитель SSD должен сам разрабатывать свою микропрограмму), нет штатного программного обеспечения (аналогично), отсутствует так называемый готовый референс-дизайн платы (аналогично), нет поддержки компрессии данных, в результате чего скоростные характеристики немного слабее, но зато стабильны и не зависят от типа обрабатываемых данных. Также данные контроллеры нуждаются в установке на плату накопителя дополнительной микросхемы буферной памяти (обычно устанавливается от 128 до 512 Мбайт DDR3, но, как показала практика, больше 256 Мбайт не требуется).

Всё это привело к тому, что накопители на этих контроллерах выпускают только те производители, которые обладают мощной инженерной базой (Plextor), а то и собственным производством собственно самой флеш-памяти (Crucial-Micron, Intel, SanDisk, Toshiba). И сами накопители в целом имеют более высокую розничную цену. Зато в плюсах – стабильные скоростные характеристики, накопитель не теряет в производительности по мере его заполнения за счёт хорошей отработки коман

результаты эксперимента продолжительностью в полтора года / Habr

Современные SSD-накопители достаточно надежные, а с учетом того, что цена за 1 ГБ (в долларах) постепенно падает, то использовать SSD во многих случаях даже более рационально, чем работа с HDD. Но какой SSD выбрать?

Полтора года назад журналист Tech Report решил провести эксперимент по выявлению наиболее надежных SSD. Он взял шесть моделей накопителей: Corsair Neutron GTX, Intel 335 Series, Kingston HyperX 3K, Samsung 840, Samsung 840 Pro, и поставил все шесть на цикличный процесс чтения/записи. Объем памяти каждого накопителя составлял 240-256 ГБ, в зависимости от модели.

Сразу стоит сказать, что все шесть моделей успешно выдержали заявленную производителем нагрузку. Более того, большинство моделей выдержало больше циклов чтения-записи, чем это заявлено разработчиками.

Тем не менее, 4 из 6 моделей сдались перед достижением объема в 1 ПБ «прокачанной» через диск информации. Зато 2 модели из тех, что участвовали в этом аттракционе «железной смерти» (Kingston и Samsung 840 Pro) выдержали даже 2 ПБ, и только потом отказали. Конечно, выборка из 6 SSD не может служить показателем работы для всех SSD без исключения, но определенная репрезентативность у этой выборки все же есть. Процедура цикличного чтения-записи тоже не идеальный показатель, ведь накопители могут выходить из строя по самым разным причинам. Но результаты теста очень интересны.

Один из выводов: производители достаточно деликатно подходят к вопросу выбора лимита работы своих накопителей — как уже говорилось выше, все SSD выдержали положенный лимит объема записанной информации.

Что касается самих моделей, то первым вышел из строя Intel 335 Series. У SSD этой модели есть одна особенность — они прекращают работу, как только появляются сбойные сектора. Сразу после этого накопитель входит в режим чтения, а затем и вовсе превращается в «кирпич». Если бы не инструкция «остановись при сбое», возможно, SSD проработал бы и дольше. Проблемы начались с диском уже после прохождения отметки в 700 ТБ. Информация на диске оставалась читаемой до момента перезагрузки, после чего диск превратился в кусок железа.

Samsung 840 Series успешно дошел до отметки в 800 ТБ, но начал показывать большое количество ошибок, начиная с 900 ТБ, и отказал без всяких предупреждений, не дойдя до петабайта.

Следующим отказал Kingston HyperX 3K — у модели тоже есть инструкция прекращать работу при появлении ряда сбойных секторов. К концу работы устройство начало выдавать уведомления о проблемах, позволяя понять, что конец близко. После отметки в 728 ТБ накопитель перешел в режим чтения, и после перезагрузки перестал отвечать.

Corsair Neutron GTX стал следующей жертвой, пройдя отметку в 1.1 ПБ. Но у накопителя уже насчитывались тысячи сбойных секторов, устройство начало выдавать большое количество предупреждений о проблемах. Даже спустя ещее 100 ТБ диск позволят записывать данные. Но после очередного ребута устройство перестало даже определяться системой.

Осталось всего две модели Kingston и Samsung 840 Pro, которые героически продолжали работать, достигнув отметки даже в 2 ПБ.

Kingston Hyper X использует сжатие данных по возможности, но тестировщик стал записывать несжимаемые данные для чистоты теста. Для этого использовалась программа Anvil’s Storage Utilities, служащая для выполнения тестов по чтению-записи данных.

Диск показал хорошие результаты, хотя на промежутке между 900 ТБ и 1 ПБ уже возникли неисправимые ошибки, плюс поврежденные сектора. Ошибок было всего две, но это все равно проблема. После того, как диск отказал на 2.1 ПБ, он перестал определяться системой после ребута.

Последним павшим железным солдатом в этой битве стал Samsung 840 Pro

Накопитель прошел отметку в 2,1 ПБ и отказал.

Что же, хеппи-энда нет, все умерли, к сожалению. Но иного и быть не могло — в том и смысл теста, дождаться отказа всех участвовавших в нем моделей SSD.

Производительность

Тестировщик провел ряд тестов по определению производительности моделей, участвовавших в тесте. Вот результаты:

Как видим, проведена огромная работа, которая позволяет судить о надежности и стабильности работы современных накопителей. Стоит повторить, что ни выборка, ни проведенный тест не являются максимально репрезентативными, но определенные выводы сделать можно.

Накопители / Твердотельные накопители / Сравнительные тестирования

После многомесячного падения цен настал отличный момент для модернизации дисковой подсистемы и перехода на новые модели SSD с повышенной ёмкостью и прогрессивным интерфейсом NVMe. Мы провели практическое сравнение представленных на рынке вариантов и готовы дать конкретный ответ на вопрос, что нужно и что не нужно покупать

Самый главный результат 2018 года на рынке твердотельных накопителей — возобновившееся падение цен. Причём его темпы оказались столь значительны, что не почувствовать эту позитивную тенденцию было невозможно. В отчётном материале мы попытались подробно разобраться в причинах и следствиях этого явления

Действительно ли NVMe SSD намного лучше SATA-накопителей? Правда ли, что Samsung 960 EVO – оптимальный NVMe-накопитель сегодняшнего дня? Сможет ли Intel SSD 760p стать новым лидером? А как на счёт Kingston KC1000? Стоит ли экономить при выборе NVMe SSD? Есть ли достойные варианты на Aliexpress?.. Отвечаем на эти и другие вопросы очередным эпическим тестированием

Какой из современных потребительских SSD надёжнее? Мы решили попробовать ответить на этот вопрос и некоторое время назад занялись практическими испытаниями выносливости твердотельных накопителей. Экспериментального материала к настоящему моменту набралось уже немало, поэтому мы обобщили и проанализировали все накопленные данные

Вместе с Ryzen 3000 компания AMD ввела в обиход шину PCI Express 4.0. Значит ли это, что теперь владельцам производительных Socket AM4-систем лучше покупать не Samsung 970 EVO Plus, а Corsair MP600, Gigabyte Aorus NVMe Gen4, Patriot Viper VP4100 и им подобные NVMe SSD на контроллере Phison PS5016-E16 с поддержкой PCIe 4.0?

Твердотельный накопитель на 480-512 Гбайт – популярный вариант для производительного и многофункционального десктопа. Однако какой из SSD стоит предпочесть? Лаборатория 3DNews вновь даёт свой ответ: мы провели ещё один эпический тест всех распространённых SATA SSD такой ёмкости

240-256 Гбайт – один из самых популярных объёмов SSD. Однако какой конкретно продукт лучше выбрать? Наша лаборатория готова дать аргументированный ответ: мы столкнули в едином тестировании все распространённые на данный момент модели SATA SSD такой ёмкости. Итак, все, что вы хотели знать об SSD объёмом четверть терабайта, — в нашей статье

В 2015 году на рынок пришло несколько моделей высокопроизводительных PCIe NVMe SSD, которые подняли планку производительности флагманских решений. Однако массовые SATA SSD за прошедший год заметно лучше в общем-то не стали. Почему так получилось и что теперь будет с рынком потребительских SSD, мы расскажем в очередном итоговом материале

Наша лаборатория совершила невозможное: мы собрали вместе и сравнили на практике все популярные модели твердотельных накопителей объёмом 120 и 128 Гбайт. Благодаря проведённому тестированию теперь мы с лёгкостью можем ответить на вопрос, какой из современных SSD заслуживает покупки

Пришло время обратить внимание на одно из последних веяний в мире твердотельных накопителей — форм-фактор M.2. SSD в таком формате постепенно заполняют прилавки магазинов, а соответствующий слот уже можно обнаружить не только в мобильных системах, но и на многих современных материнских платах. Для того чтобы понять все плюсы и минусы нового формата, мы протестировали несколько доступных в продаже накопителей

Как потратить своё время и ресурс SSD впустую? Легко и просто

«Тестировать нельзя диагностировать» – куда бы вы поставили запятую в данном предложении? Надеемся, что после прочтения данного материала вы без проблем можете чётко дать ответ на этот вопрос. Многие пользователи когда-либо сталкивались с потерей данных по той или иной причине, будь то программная или аппаратная проблема самого накопителя или же нестандартное физическое воздействие на него, если вы понимаете, о чём мы. Но именно о физических повреждениях сегодня речь и не пойдёт. Поговорим мы как раз о том, что от наших рук не зависит. Стоит ли тестировать SSD каждый день/неделю/месяц или это пустая трата его ресурса? А чем их вообще тестировать? Получая определённые результаты, вы правильно их понимаете? И как можно просто и быстро убедиться, что диск в порядке или ваши данные под угрозой?



Тестирование или диагностика? Программ много, но суть одна


На первый взгляд диагностика и подразумевает тестирование, если думать глобально. Но в случае с накопителями, будь то HDD или SSD, всё немного иначе. Под тестированием рядовой пользователь подразумевает проверку его характеристик и сопоставление полученных показателей с заявленными. А под диагностикой – изучение S.M.A.R.T., о котором мы сегодня тоже поговорим, но немного позже. На фотографию попал и классический HDD, что, на самом деле, не случайность…

Так уж получилось, что именно подсистема хранения данных в настольных системах является одним из самых уязвимых мест, так как срок службы накопителей чаще всего меньше, чем у остальных компонентов ПК, моноблока или ноутбука. Если ранее это было связано с механической составляющей (в жёстких дисках вращаются пластины, двигаются головки) и некоторые проблемы можно было определить, не запуская каких-либо программ, то сейчас всё стало немного сложнее – никакого хруста внутри SSD нет и быть не может. Что же делать владельцам твердотельных накопителей?

Программ для тестирования SSD развелось великое множество. Какие-то стали популярными и постоянно обновляются, часть из них давно забыта, а некоторые настолько хороши, что разработчики не обновляют их годами – смысла просто нет. В особо тяжёлых случаях можно прогонять полное тестирование по международной методике Solid State Storage (SSS) Performance Test Specification (PTS), но в крайности мы бросаться не будем. Сразу же ещё отметим, что некоторые производители заявляют одни скорости работы, а по факту скорости могут быть заметно ниже: если накопитель новый и исправный, то перед нами решение с SLC-кешированием, где максимальная скорость работы доступна только первые несколько гигабайт (или десятков гигабайт, если объём диска более 900 ГБ), а затем скорость падает. Это совершенно нормальная ситуация. Как понять объём кеша и убедиться, что проблема на самом деле не проблема? Взять файл, к примеру, объёмом 50 ГБ и скопировать его на подопытный накопитель с заведомо более быстрого носителя. Скорость будет высокая, потом снизится и останется равномерной до самого конца в рамках 50-150 МБ/с, в зависимости от модели SSD. Если же тестовый файл копируется неравномерно (к примеру, возникают паузы с падением скорости до 0 МБ/с), тогда стоит задуматься о дополнительном тестировании и изучении состояния SSD при помощи фирменного программного обеспечения от производителя.

Яркий пример корректной работы SSD с технологией SLC-кеширования представлен на скриншоте:

Те пользователи, которые используют Windows 10, могут узнать о возникших проблемах без лишних действий – как только операционная система видит негативные изменения в S.M.A.R.T., она предупреждает об этом с рекомендацией сделать резервные копии данных. Но вернёмся немного назад, а именно к так называемым бенчмаркам. AS SSD Benchmark, CrystalDiskMark, Anvils Storage Utilities, ATTO Disk Benchmark, TxBench и, в конце концов, Iometer – знакомые названия, не правда ли? Нельзя отрицать, что каждый из вас с какой-либо периодичностью запускает эти самые бенчмарки, чтобы проверить скорость работы установленного SSD. Если накопитель жив и здоров, то мы видим, так сказать, красивые результаты, которые радуют глаз и обеспечивают спокойствие души за денежные средства в кошельке. А что за цифры мы видим? Чаще всего замеряют четыре показателя – последовательные чтение и запись, операции 4K (КБ) блоками, многопоточные операции 4K блоками и время отклика накопителя. Важны все вышеперечисленные показатели. Да, каждый из них может быть совершенно разным для разных накопителей. К примеру, для накопителей №1 и №2 заявлены одинаковые скорости последовательного чтения и записи, но скорости работы с блоками 4K у них могут отличаться на порядок – всё зависит от памяти, контроллера и прошивки. Поэтому сравнивать результаты разных моделей попросту нельзя. Для корректного сравнения допускается использовать только полностью идентичные накопители. Ещё есть такой показатель, как IOPS, но он зависит от иных вышеперечисленных показателей, поэтому отдельно говорить об этом не стоит. Иногда в бенчмарках встречаются показатели случайных чтения/записи, но считать их основными, на наш взгляд, смысла нет.

И, как легко догадаться, результаты каждая программа может демонстрировать разные данные – всё зависит от тех параметров тестирования, которые устанавливает разработчик. В некоторых случаях их можно менять, получая разные результаты. Но если тестировать «в лоб», то цифры могут сильно отличаться. Вот ещё один пример теста, где при настройках «по умолчанию» мы видим заметно отличимые результаты последовательных чтения и записи. Но внимание также стоит обратить на скорости работы с 4K блоками – вот тут уже все программы показывают примерно одинаковый результат. Собственно, именно этот тест и является одним из ключевых.

Но, как мы заметили, только одним из ключевых. Да и ещё кое-что надо держать в уме – состояние накопителя. Если вы принесли диск из магазина и протестировали его в одном из перечисленных выше бенчмарков, практически всегда вы получите заявленные характеристики. Но если повторить тестирование через некоторое время, когда диск будет частично или почти полностью заполнен или же был заполнен, но вы самым обычным способом удалили некоторое количество данных, то результаты могут разительно отличаться. Это связано как раз с принципом работы твердотельных накопителей с данными, когда они не удаляются сразу, а только помечаются на удаление. В таком случае перед записью новых данных (тех же тестовых файлов из бенчмарков), сначала производится удаление старых данных. Более подробно мы рассказывали об этом в предыдущем материале.

На самом деле в зависимости от сценариев работы, параметры нужно подбирать самим. Одно дело – домашние или офисные системы, где используется Windows/Linux/MacOS, а совсем другое – серверные, предназначенные для выполнения определённых задач. К примеру, в серверах, работающих с базами данных, могут быть установлены NVMe-накопители, прекрасно переваривающие глубину очереди хоть 256 и для которых таковая 32 или 64 – детский лепет. Конечно, применение классических бенчмарков, перечисленных выше, в данном случае – пустая трата времени. В крупных компаниях используют самописные сценарии тестирования, например, на основе утилиты fio. Те, кому не требуется воспроизведение определённых задач, могут воспользоваться международной методикой SNIA, в которой описаны все проводимые тесты и предложены псевдоскрипты. Да, над ними потребуется немного поработать, но можно получить полностью автоматизированное тестирование, по результатам которого можно понять поведение накопителя – выявить его сильные и слабые места, посмотреть, как он ведёт себя при длительных нагрузках и получить представление о производительности при работе с разными блоками данных.

В любом случае надо сказать, что у каждого производителя тестовый софт свой. Чаще всего название, версия и параметры выбранного им бенчмарка дописываются в спецификации мелким шрифтом где-нибудь внизу. Конечно, результаты примерно сопоставимы, но различия в результатах, безусловно, могут быть. Из этого следует, как бы грустно это ни звучало, что пользователю надо быть внимательным при тестировании: если результат не совпадает с заявленным, то, возможно, просто установлены другие параметры тестирования, от которых зависит очень многое.

Теория – хорошо, но давайте вернёмся к реальному положению дел. Как мы уже говорили, важно найти данные о параметрах тестирования производителем именно того накопителя, который вы приобрели. Думаете это всё? Нет, не всё. Многое зависит и от аппаратной платформы – тестового стенда, на котором проводится тестирование. Конечно, эти данные также могут быть указаны в спецификации на конкретный SSD, но так бывает не всегда. Что от этого зависит? К примеру, перед покупкой SSD, вы прочитали несколько обзоров. В каждом из них авторы использовали одинаковые стандартные бенчмарки, которые продемонстрировали разные результаты. Кому верить? Если материнские платы и программное обеспечение (включая операционную систему) были одинаковы – вопрос справедливый, придётся искать дополнительный независимый источник информации. А вот если платы или ОС отличаются – различия в результатах можно считать в порядке вещей. Другой драйвер, другая операционная система, другая материнская плата, а также разная температура накопителей во время тестирования – всё это влияет на конечные результаты. Именно по этой причине получить те цифры, которые вы видите на сайтах производителей или в обзорах, практически невозможно. И именно по этой причине нет смысла беспокоиться за различия ваших результатов и результатов других пользователей. Например, на материнской плате иногда реализовывают сторонние SATA-контроллеры (чтобы увеличить количество соответствующих портов), а они чаще всего обладают худшими скоростями. Причём разница может составлять до 25-35%! Иными словами, для воспроизведения заявленных результатов потребуется чётко соблюдать все аспекты методики тестирования. Поэтому, если полученные вами скоростные показатели не соответствуют заявленным, нести покупку обратно в магазин в тот же день не стоит. Если, конечно, это не совсем критичная ситуация с минимальным быстродействием и провалами при чтении или записи данных. Кроме того, скорости большинства твердотельных накопителей меняются в худшую скорость с течением времени, останавливаясь на определённой отметке, которая называется стационарная производительность. Так вот вопрос: а надо ли в итоге постоянно тестировать SSD? Хотя не совсем правильно. Вот так лучше: а есть ли смысл постоянно тестировать SSD?

Регулярное тестирование или наблюдение за поведением?


Так надо ли, приходя с работы домой, приниматься прогонять в очередной раз бенчмарк? Вот это, как раз, делать и не рекомендуется. Как ни крути, но любая из существующих программ данного типа пишет данные на накопитель. Какая-то больше, какая-то меньше, но пишет. Да, по сравнению с ресурсом SSD записываемый объём достаточно мал, но он есть. Да и функции TRIM/Deallocate потребуется время на обработку удалённых данных. В общем, регулярно или от нечего делать запускать тесты никакого смысла нет. Но вот если в повседневной работе вы начинаете замечать подтормаживания системы или тяжёлого программного обеспечения, установленного на SSD, а также зависания, BSOD’ы, ошибки записи и чтения файлов, тогда уже следует озадачиться выявлением причины возникающей проблемы. Не исключено, что проблема может быть на стороне других комплектующих, но проверить накопитель – проще всего. Для этого потребуется фирменное программное обеспечение от производителя SSD. Для наших накопителей – Kingston SSD Manager. Но перво-наперво делайте резервные копии важных данных, а уже потом занимайтесь диагностикой и тестированием. Для начала смотрим в область SSD Health. В ней есть два показателя в процентах. Первый – так называемый износ накопителя, второй – использование резервной области памяти. Чем ниже значение, тем больше беспокойства с вашей стороны должно быть. Конечно, если значения уменьшаются на 1-2-3% в год при очень интенсивном использовании накопителя, то это нормальная ситуация. Другое дело, если без особых нагрузок значения снижаются необычно быстро. Рядом есть ещё одна область – Health Overview. В ней кратко сообщается о том, были ли зафиксированы ошибки разного рода, и указано общее состояние накопителя. Также проверяем наличие новой прошивки. Точнее программа сама это делает. Если таковая есть, а диск ведёт себя странно (есть ошибки, снижается уровень «здоровья» и вообще исключены другие комплектующие), то можем смело устанавливать.

Если же производитель вашего SSD не позаботился о поддержке в виде фирменного софта, то можно использовать универсальный, к примеру – CrystalDiskInfo. Нет, у Intel есть своё программное обеспечение, на скриншоте ниже – просто пример 🙂 На что обратить внимание? На процент состояния здоровья (хотя бы примерно, но ситуация будет понятна), на общее время работы, число включений и объёмы записанных и считанных данных. Не всегда эти значения будут отображены, а часть атрибутов в списке будут видны как Vendor Specific. Об этом чуть позже.

А вот яркий пример уже вышедшего из строя накопителя, который работал относительно недолго, но потом начал работать «через раз». При включении система его не видела, а после перезагрузки всё было нормально. И такая ситуация повторялась в случайном порядке. Главное при таком поведении накопителя – сразу же сделать бэкап важных данных, о чём, правда, мы сказали совсем недавно. Но повторять это не устанем. Число включений и время работы – совершенно недостижимые. Почти 20 тысяч суток работы. Или около 54 лет…

Но и это ещё не всё – взгляните на значения из фирменного ПО производителя! Невероятные значения, верно? Вот в таких случаях может помочь обновление прошивки до актуальной версии. Если таковой нет, то лучше обращаться к производителю в рамках гарантийного обслуживания. А если новая прошивка есть, то после обновления не закидывать на диск важные данные, а поработать с ним осторожно и посмотреть на предмет стабильности. Возможно, проблема будет решена, но возможно – нет.

Добавить можно ещё вот что. Некоторые пользователи по привычке или незнанию используют давно знакомый им софт, которым производят мониторинг состояния классических жёстких дисков (HDD). Так делать настоятельно не рекомендуется, так как алгоритмы работы HDD и SSD разительно отличаются, как и набор команд контроллеров. Особенно это касается NVMe SSD. Некоторые программы (например, Victoria) получили поддержку SSD, но их всё равно продолжают дорабатывать (а доработают ли?) в плане корректности демонстрации информации о подключённых носителях. К примеру, прошло лишь около месяца с того момента, как показания SMART для SSD Kingston обрели хоть какой-то правильный вид, да и то не до конца. Всё это касается не только вышеупомянутой программы, но и многих других. Именно поэтому, чтобы избежать неправильной интерпретации данных, стоит пользоваться только тем софтом, в котором есть уверенность, – фирменные утилиты от производителей или же крупные и часто обновляемые проекты.

Присмотр за каждой ячейкой – смело. Глупо, но смело


Некоторые производители реализуют в своём программном обеспечении возможность проверки адресов каждого логического блока (LBA) на предмет наличия ошибок при чтении. В ходе такого тестирования всё свободное пространство накопителя используется для записи произвольных данных и обратного их считывания для проверки целостности. Такое сканирование может занять не один час (зависит от объёма накопителя и свободного пространства на нём, а также его скоростных показателей). Такой тест позволяет выявить сбойные ячейки. Но без нюансов не обходится. Во-первых, по-хорошему, SSD должен быть пуст, чтобы проверить максимум памяти. Отсюда вытекает ещё одна проблема: надо делать бэкапы и заливать их обратно, что отнимает ресурс накопителя. Во-вторых, ещё больше ресурса памяти тратится на само выполнение теста. Не говоря уже о затрачиваемом времени. А что в итоге мы узнаем по результатам тестирования? Варианта, как вы понимаете, два – или будут битые ячейки, или нет. В первом случае мы впустую тратим ресурс и время, а во втором – впустую тратим ресурс и время. Да-да, это так и звучит. Сбойные ячейки и без такого тестирования дадут о себе знать, когда придёт время. Так что смысла в проверки каждого LBA нет никакого.

А можно несколько подробнее о S.M.A.R.T.?


Все когда-то видели набор определённых названий (атрибутов) и их значений, выведенных списком в соответствующем разделе или прямо в главном окне программы, как это видно на скриншоте выше. Но что они означают и как их понять? Немного вернёмся в прошлое, чтобы понять что к чему. По идее, каждый производитель вносит в продукцию что-то своё, чтобы этой уникальностью привлечь потенциального покупателя. Но вот со S.M.A.R.T. вышло несколько иначе.

В зависимости от производителя и модели накопителя набор параметров может меняться, поэтому универсальные программы могут не знать тех или иных значений, помечая их как Vendor Specific. Многие производители предоставляют в открытом доступе документацию для понимания атрибутов своих накопителей – SMART Attribute. Её можно найти на сайте производителя.

Именно поэтому и рекомендуется использовать именно фирменный софт, который в курсе всех тонкостей совместимых моделей накопителей. Кроме того, настоятельно рекомендуется использовать английский интерфейс, чтобы получить достоверную информацию о состоянии накопителя. Зачастую перевод на русский не совсем верен, что может привести в замешательство. Да и сама документация, о которой мы сказали выше, чаще всего предоставляется именно на английском.

Сейчас мы рассмотрим основные атрибуты на примере накопителя Kingston UV500. Кому интересно – читаем, кому нет – жмём PageDown пару раз и читаем заключение. Но, надеемся, вам всё же интересно – информация полезная, как ни крути. Построение текста может выглядеть необычно, но так для всех будет удобнее – не потребуется вводить лишние слова-переменные, а также именно оригинальные слова будет проще найти в отчёте о вашем накопителе.

(ID 1) Read Error Rate – содержит частоту возникновения ошибок при чтении.

(ID 5) Reallocated Sector Count – количество переназначенных секторов. Является, по сути, главным атрибутом. Если SSD в процессе работы находит сбойный сектор, то он может посчитать его невосполнимо повреждённым. В этом случае диск использует вместо него сектор из резервной области. Новый сектор получает логический номер LBA старого, после чего при обращении к сектору с этим номером запрос будет перенаправляться в тот, что находится в резервной области. Если ошибка единичная – это не проблема. Но если такие сектора будут появляться регулярно, то проблему можно считать критической.

(ID 9) Power On Hours – время работы накопителя в часах, включая режим простоя и всяческих режимов энергосбережения.

(ID 12) Power Cycle Count – количество циклов включения и отключения накопителя, включая резкие обесточивания (некорректное завершение работы).

(ID 170) Used Reserved Block Count – количество использованных резервных блоков для замещения повреждённых.

(ID 171) Program Fail Count – подсчёт сбоев записи в память.

(ID 172) Erase Fail Count – подсчёт сбоев очистки ячеек памяти.

(ID 174) Unexpected Power Off Count – количество некорректных завершений работы (сбоев питания) без очистки кеша и метаданных.

(ID 175) Program Fail Count Worst Die – подсчёт ошибок сбоев записи в наихудшей микросхеме памяти.

(ID 176) Erase Fail Count Worst Die – подсчёт ошибок сбоев очистки ячеек наихудшей микросхемы памяти.

(ID 178) Used Reserved Block Count worst Die – количество использованных резервных блоков для замещения повреждённых в наихудшей микросхеме памяти.

(ID 180) Unused Reserved Block Count (SSD Total) – количество (или процент, в зависимости от типа отображения) ещё доступных резервных блоков памяти.

(ID 187) Reported Uncorrectable Errors – количество неисправленных ошибок.

(ID 194) Temperature – температура накопителя.

(ID 195) On-the-Fly ECC Uncorrectable Error Count – общее количество исправляемых и неисправляемых ошибок.

(ID 196) Reallocation Event Count – количество операций переназначения.

(ID 197) Pending Sector Count – количество секторов, требующих переназначения.

(ID 199) UDMA CRC Error Count – счётчик ошибок, возникающих при передаче данных через SATA интерфейс.

(ID 201) Uncorrectable Read Error Rate – количество неисправленных ошибок для текущего периода работы накопителя.

(ID 204) Soft ECC Correction Rate – количество исправленных ошибок для текущего периода работы накопителя.

(ID 231) SSD Life Left – индикация оставшегося срока службы накопителя на основе количества циклов записи/стирания информации.

(ID 241) GB Written from Interface – объём данных в ГБ, записанных на накопитель.

(ID 242) GB Read from Interface – объём данных в ГБ, считанных с накопителя.

(ID 250) Total Number of NAND Read Retries – количество выполненных попыток чтения с накопителя.

Пожалуй, на этом закончим список. Конечно, для других моделей атрибутов может быть больше или меньше, но их значения в рамках производителя будут идентичны. А расшифровать значения достаточно просто и обычному пользователю, тут всё логично: увеличение количества ошибок – хуже диску, снижение резервных секторов – тоже плохо. По температуре – всё и так ясно. Каждый из вас сможет добавить что-то своё – это ожидаемо, так как полный список атрибутов очень велик, а мы перечислили лишь основные.

Паранойя или трезвый взгляд на сохранность данных?


Как показывает практика, тестирование нужно лишь для подтверждения заявленных скоростных характеристик. В остальном – это пустая трата ресурса накопителя и вашего времени. Никакой практической пользы в этом нет, если только морально успокаивать себя после вложения определённой суммы денег в SSD. Если есть проблемы, они дадут о себе знать. Если вы хотите следить за состоянием своей покупки, то просто открывайте фирменное программное обеспечение и смотрите на показатели, о которых мы сегодня рассказали и которые наглядно показали на скриншотах. Это будет самым быстрым и самым правильным способом диагностики. И ещё добавим пару слов про ресурс. Сегодня мы говорили, что тестирование накопителей тратит их ресурс. С одной стороны – это так. Но если немного подумать, то пара-тройка, а то и десяток записанных гигабайт – не так уж много. Для примера возьмём бюджетный Kingston A400R ёмкостью 256 ГБ. Его значение TBW равно 80 ТБ (81920 ГБ), а срок гарантии – 1 год. То есть, чтобы полностью выработать ресурс накопителя за этот год, надо ежедневно записывать на него 224 ГБ данных. Как это сделать в офисных ПК или ноутбуках? Фактически – никак. Даже если вы будете записывать порядка 25 ГБ данных в день, то ресурс выработается лишь практически через 9 лет. А ведь у накопителей серии A1000 ресурс составляет от 150 до 600 ТБ, что заметно больше! С учётом 5-летней гарантии, на флагман ёмкостью 960 ГБ надо в день записывать свыше 330 ГБ, что маловероятно, даже если вы заядлый игрок и любите новые игры, которые без проблем занимают под сотню гигабайт. В общем, к чему всё это? Да к тому, что убить ресурс накопителя – достаточно сложная задача. Куда важнее следить за наличием ошибок, что не требует использования привычных бенчмарков. Пользуйтесь фирменным программным обеспечением – и всё будет под контролем. Для накопителей Kingston и HyperX разработан SSD Manager, обладающий всем необходимым для рядового пользователя функционалом. Хотя, вряд ли ваш Kingston или HyperX выйдет из строя… На этом – всё, успехов во всём и долгих лет жизни вашим накопителям!

P.S. В случае возникновения проблем с SSD подорожник всё-таки не поможет 🙁

Для получения дополнительной информации о продуктах Kingston обращайтесь на сайт компании.

ТОП-5 SSD-накопителей на 240–256 ГБ | SSD-накопители | Блог

SSD-диски, которые покупали в DNS чаще всего с марта по июнь в 2019 году.

Геймеры ликуют, подбрасывая в вверх чепчики, когда слышат о дешевых SSD-накопителях. В ТОП-5 попали породистые жеребцы. В обзоре представлена четверка именитых и заслуживающих доверия компаний, некоторые отметились дважды. Популярные бюджетные модели живут долго и обеспечивают высокую скорость перезаписи файлов благодаря технологии 3D NAND.

5 место

Toshiba OCZ TR200 — японец, не тяжеловес, молодчик, родившийся в результате поглощения OCZ компанией Toshiba, занял последнее место в топе покупательских интересов. Яркая картонная упаковка, форм-фактор 2,5″, шероховатая на ощупь поверхность. Две половинки 7-миллиметрового алюминиевого корпуса крепятся с помощью держателей. Коннектится через SATA 3. Внутри серебристого коробка 64-слойная память TLC 3D NAND с контроллером Phison PS3111-S11. Плата, произведенная с использованием 15-нанометрового техпроцесса, соединяется с корпусом термопрокладкой для быстрого отведения излишков тепла. Ресурс 60 TBW. Показатель IOPS на уровне 79 000–89 000. Чтение данных — 540, запись — 555 Мб. Здоровье диска падает по мере заполнения файлами, перезаписать большой объем информации удается со скоростью 108 мегабайт в секунду.

4 место

Тихий, как ниндзя, WD голубых кровей оказался горячей штучкой. Линейка от производителя, съевшего своего конкурента — SanDisk, показывает стабильную скорость чтения и записи — 525 и 550 Мб/с соответственно. Добиться таких результатов помогла технология взаимной интерференции ячеек и фирменная память PS3 WD. WD Blue обладает вместительным буфером на 3 Гб, позволяющим перекачивать файлы большого объема без существенной потери темпа. При переполнении временной памяти, скорость падает до приемлемых 200 Мб/с. Верхняя часть корпуса пластиковая, снизу металл, прикрепленный винтами. Может издавать ультразвук. Показатель жизни — 100 000 IOPS. На печатной плате размещено 4 микросхемы flash-памяти, за стабильность отвечает проверенный временем контроллер Marvell 88SS1074 с реализованной корреляцией ошибок LDPC-кодов.

3 место

Четко посредине топа расположилась продукция компании, которая никого не поглотила и не была поглощена сама. Производитель закупает комплектующие у Unix, Western Digital Crucial, выбирая самые лучшие цены и качество. Корпус королевского SSD выполнен из металла темно-серого цвета. Для создания платы используется 15 нанометровый техпроцесс. Dram-буфера нет, зато чип памяти от Toshiba умеет работать в двухканальном режиме, обеспечивая последовательное чтение и запись, поэтому реальные показатели могут превышать заявленные. При чтении тяжеловесных файлов скорость падает до 70-90 Мб Kingston A400 идеально подходит для загрузки операционной системы, небольших файлов до 2 Гб. Работает тихо. При пиковых нагрузках потребляемая мощность — 1,5 Вт на записи и 0,82 Вт при чтении. Производитель обещает ускорение загрузки в 10 раз по сравнению со стандартными HHD.

2 место

Читая обзоры бюджетных SDD, многие ждут чуда — безразмерного буфера, геройской износостойкости, сверхбыстрого охлаждения. Дождались! Брендовый элитный кореец Samsung 860 серии EVOпредназначен для установки операционной системы, софта и игр. Используется контроллер Samsung MGX с частотой 1 Гц, скорость и чтение по 500 Мб/с — редкий случай, когда оба параметра совпадают. Увеличенный DRAM-буфер в 3 гигабайта позволяет не терять скорость при записи больших файлов. Ресурс в 150 TBW — значительно превосходит все модели обзора. Очистка и контроль жизни через SMART, TRIM. Шифрование AES-256. Габариты 69,85х100х6,8 миллиметров, вес 45 г. Энергопотребление 2,2 Вт — отлично подходит для ультратонких ноутбуков формата M.2.

1 место

Без цветовой дифференциации у SSD — нет будущего, решили представители WD, выпустив на свет цветную тройку. Кроме синего и красного, на свет появился WD Green с памятью TLC 3D NAND. Толщина корпуса — 7 мм. Максимальная скорость чтения 545, записи 565 Мб/с. Израсходовав силенки буфера накопителя, зеленый покраснеет от натуги, выдав 160 Мб скорости на перезапись файлов. Данные объемом 6-7 гигабайт можно перекачивать на скоростях близким к заявленным. Для работы используется контроллер SM2258XT на 32-битном процессоре без DRAM-буфера. Для повышения стабильности перекачки файлов большого объема используется псевдо-SLC-кэширование. Корпус выполнен из пластика. Чип платы Silicon Motion 282 достался в наследство от SanDisk.

Итоги

Toshiba OCZ TR200 — холодный парень медлителен при взятии больших объемов, в остальном симбиоз продукции OCZ и чипов Toshiba следует признать удачным.

WD Blue — благородный представитель марки, слегка повизгивает, переходя при чтении на ультразвук, но это не страшно, так как в корпусе ПК ведет себя тихо. Объемный буфер позволяет конкурировать с теми, кто попал на более высокие строки топа.

Kingston A400 — крепкий середнячок, использующий комплектующие популярных производителей. Такая политика помогает удерживать позиции, балансируя между лидерами рынка.

Samsung 860 EVO — черный породистый жеребец показал высокую выносливость, скорость, качество сборки и стабильность. Но не всем по карману переплачивать за бренд.

WD Green — рыба ищет, где глубже, а человек — где дешевле. А дешевле у Western Digital.

Поглощение SanDisk принесло компании пользу, WD-акула возглавила ТОП благодаря сочетанию цены, качества и репутации бренда. Что бы ни предпринимал Samsung, можно быть уверенными, «Западные Цифровики» не упустят возможность отгрызть солидный кусок рынка продаж SSD.

Тестирование SSD на надёжность: 3dnews vs JEDEC vs здравый смысл. Где правда, брат?

Всем известно легендарное тестирование SSD на надёжность от 3dnews (публикация от 2018.01), по результатам которого некоторые бюджетные накопители превзошли заявленный производителем ресурс в десятки раз.

После этого исследования в народе появилась конспирологическая теория, что производители занижают ресурс у бюджетных SSD, а также распостранилось убеждение, что практически все SSD умеют делать и качественно выполняют выравнивание износа.

Исследование от 3dnews.ru было проведено по мотивам тестирования Techreport.com (публикация от 2013.08.20).

Методика для измерения износостойкости также была использована одинаковая.

Методика Techreport:

We can push SSD endurance limits much faster with synthetic benchmarks. There are myriad options, but the best one is Anvil«s imaginatively named Storage Utilities.

Developed by a frequenter of the XtremeSystems forums, this handy little app includes a dedicated endurance test that fills drives with files of varying sizes before deleting them and starting the process anew. We can tweak the payload of each loop to write the same amount of data to each drive. There«s an integrated MD5 hash check that verifies data integrity, and the write speed is more than an order of magnitude faster than DriveBench 2.0«s effective write rate.

Anvil«s endurance test writes files sequentially, so it«s not an ideal real-world simulation. However, it«s the best tool we have, and it allows us to load drives with a portion of static data to challenge wear-leveling routines. We«re using 10GB of static data, including a copy of the Windows 7 installation folder, a handful of application files, and a few movies.


Методика 3dnews.ru:

Поэтому в нашем тесте выносливости мы используем отформатированные с файловой системой NTFS накопители, на которых непрерывно и попеременно создаются файлы двух типов: мелкие — со случайным размером от 1 до 128 Кбайт и крупные — со случайным размером от 128 Кбайт до 10 Мбайт. В процессе теста эти файлы со случайным заполнением множатся, пока на накопителе остаётся более 12 Гбайт свободного места, по достижении же этого порога все созданные файлы удаляются, делается небольшая пауза и процесс повторяется вновь. Помимо этого, на испытуемых накопителях одновременно присутствует и третий тип файлов — постоянный. Такие файлы общим объёмом 16 Гбайт в процессе стирания-перезаписи не участвуют, но используются для проверки правильной работоспособности накопителей и стабильной читаемости хранимой информации: каждый цикл заполнения SSD мы проверяем контрольную сумму этих файлов и сверяем её с эталонным, заранее рассчитанным значением.


В обоих случаях использовалась утилита Anvil«s Storage Utilities.

1. А что не так с методикой?


Проблема заключается в том, что заполнение диска происходит последовательно. Что не соответствует ни реальным сценариям использования, ни процедуре измерения износостойкости, рекомендованной JEDEC (консорциум производителей флэш-памяти).

И ОС, и контроллер (если у него есть небольшой DRAM-кеш) группируют последовательные блоки идущие на запись и записывают большими нативными блоками, свойственными конкретному устройству. При этом практически отсутствует усиление записи и практически нет необходимости в алгоритмах выравнивания износа.

В реальных условиях, как фактор мультипликации, так и качественная реализация алгоритма выравнивания износа имеют сильное влияние на ресурс накопителя.

Проблема 1. При последовательной записи файлов WAF ≈ 1


Тест, который построенный так, чтобы свести к единице фактор мультипликации записи, будет предсказуемо давать завышенные результаты по ресурсу. Далее выясним насколько именно.

Проблема 2. Не тестируется качество алгоритма выравнивания износа


При последовательном заполнении диска и последующем стирании плохо тестируется механизм выравнивания износа. Если производитель догадался сделать первые несколько ГБ диска (где находится битовая карта диска, FAT и прочие метаданные) работающими в режиме SLC (или кеширует их в буфере RAM), то алгоритм выравнивания износа может полностью отсутствовать в прошивке и всё равно при последовательной записи будeт достигнуты отличные показатели ресурса.

Проблема 3. Не тестируется срок хранения данных после исчерпания ресурса


Если вы уезжаете в путешествие на несколько месяцев, то непонятно можно ли доверять диску, который выработал свой паспортный ресурс.

Проблема 4. Последовательное заполнение диска, с последующим практически полным стиранием, не является реальным пользовательским шаблоном поведения


Поскольку SSD — это ещё довольно дорогой ресурс, то люди обычно стараются его использовать максимально полно и оставляют минимум свободного места.

Идеальный тест, на мой взгляд, это чтобы во время тестирования SSD оставался забитым на 80–90%, при этом в случайном порядке старые файлы должны удаляться, а новые добавляться.

2. Факторы мультипликации записи

2.1. Фрагментация файловой системы


Так как в Windows у SSD отключена дефрагментация, а размер кластера NTFS по умолчанию составляет 4КБ, то в реальной жизни диск сильно фрагментируется. В этом случае даже последовательная запись превращается по скорости практически в случайную.

Контроллеру, чтобы записать 1 изменённый кластер приходится вначале считать всю аппаратную страницу NAND (которая может достигать сотен килобайт в размере), изменить 4КБ, а потом всю её записать. Если размер страницы NAND составляет 64КБ, то мы имеем усиление записи в 16 раз.

2.2. Алгоритм выравнивания износа


Такой алгоритм может быть реализован в виде отдельного процесса внутри контроллера. Он будет работать примерно так:

Чтобы переместить статические данные в область с более высоким износом, требуется осуществить запись, равную по размеру перемещаемым данным, при условии, что есть освобождённый TRIM блок. А при малом количестве свободных блоков придётся совершить 2 записи, чтобы поменять данные местами.

RAM = a
a = b
b = RAM


При малом или отсутствующем DRAM-буфере потребуется три записи.

temp = a
a = b
b = temp


Эти операции в идеальном алгоритме выравнивания износа будут выполняться крайне редко, так как имеет смысл перемещать только статические данные, чтобы задействовать в оборот страницы с низким износом, поэтому мы пренебрежём влиянием алгоритма выравнивания износа на мультипликацию записи. Хотя, конечно, нет никаких гарантий, что в реальных SSD используются идеальные алгоритмы.

2.3. Типичная запись на SSD является случайной, блоком 4–8КБ


Обычная природа записей на SSD представляет из себя в основном случайную запись 8КБ. Даже при отсутствии фрагментации размер типичного блока записи будет меньше размера страницы NAND и будет вызывать мультипликацию записи.

2.4. Алгоритм сборки мусора


Вот тут кроются самые большие подводные камни. Размер блока в NAND памяти достигает нескольких мегабайт. Блок состоит из нескольких страниц.

Страницы могут быть прочтены и записаны по отдельности, а блок может быть стёрт только полностью.

Со временем многие страницы в блоке помечаются как недействительные, так как данные которые были в них были изменены и записаны в другое место или из-за вызова TRIM. И рано или поздно сборщик мусора должен взять несколько частично заполненных блоков и скомпоновать из них полностью записанные и свободные.

Пока есть свободное место, то скорее всего, он даже не будет запускаться, поэтому со временем в блоках образуются многочисленные дыры.

Чем меньше места на диске, тем быстрее возрастает WAF (коэффициент мультипликации записи, Write Amplification Factor).

Для иллюстрации увеличения WAF приведу следующую картинку:

На картинке показаны блоки NAND памяти с данными, заполненные на 87.5%, разбитые на страницы. Для того чтобы освободить место для записи происходит перекомпоновка, при которой перезаписывается 7 блоков и стирается 1. Итого WAF получается = 8!

Конечно, нужно ещё учесть, что у большинства SSD есть резервная область, в которую также происходит перераспределение записи. Но, как правило, она невелика.

В случае заполненности диска на 90% и наличии скрытой области размером в 6.66% (диск 120ГБ, реальное количество флэш-памяти 128ГБ), WAF будет равен 6.4!

WAF может оценён по этой формуле:

$$display$$\begin{equation} WAF_{сборки\ мусора} = \frac {1} {1 — \frac {K_{заполненность\ диска}} {K_{резервной\ области}}} \end{equation} $$display$$

Kзаполненность диска — от 0 до 1, где 1 — 100% заполнение диска.
Kрезервной области — от 1, где 1 — 0% резервная область, 1.1 — 10% резервной области, и так далее.

Приблизительный график зависимости WA от процента свободного места на диске.

Из графика видно, что WA катастрофически нарастает по мере заполнения диска, приближаясь к 16 при полном заполнении диска с резервной областью 6.66% (типовой размер для потребительских дисков).

Вы, наверное, сами замечали как сильно начинает тормозить телефон, если там оказываются считанные единицы процентов свободного места. Ведь в нём тоже используется флэш-память. Забивать память под 100% не только ужасно медленно, но и сильно тратит ресурс накопителя.

Отдельная статья по теме.

2.5. Общий WAF от всех факторов


WAF, вносимые малосвязанными факторами, перемножаются.

3. Методика измерения ресурса от JEDEC для пользовательских SSD

В стандарте JEDEC «Solid-State Drive (SSD) Endurance Workloads» от сентября 2010 года, ревизия JESD219A есть описание методики для тестирования SSD.

В двух словах: инженеры JEDEC записали логи записей, TRIM и flush (команда сброса буферов на диск) некоторого пользователя ноутбука за 7 месяцев, работающего в основном с офисными программами. Предположительно на ноутбуке была установлена Windows 7 (поддерживает TRIM c 2009 года) на файловой системе NTFS с размером кластера 4КБ.

Детали о эталонном пользовательском компьютере и общая статистикаPlatform and Workload
Collected on standard laptop PC, 2 GB RAM, 128 GB SATA SSD, operating system supporting trim
Main use: office productivity
Secondary use: storage of photos, music, and apps

Trace Characteristics

Writes/Trims/Flushes captured in a file with a CSV format: $command offset size
49 GB footprint (total data touched)
128 GB spanned (range of LBA«s accessed)

Average amount of Trimmed space = 13 GB (average across duration of trace)

Other Trace Characteristics



Я распарсил этот лог, чтобы понять какие активности там записаны.
При тестировании предлагается повторять записи по этому логу (Master Trace), пока не наберётся нужное число записанных терабайт (TBW), после чего нужно проверить в течении какого времени ячейки хранят заряд (retention time). Для пользовательского SSD это время должно быть около 2 лет при температуре хранения 25℃, если рабочая температура была 40℃. Поскольку 2 года никто ждать не будет, то повышают температуру хранения, что ведёт к более высокой утечке электронов, и по специальным таблицам (построенным по уравнению Аррениуса) вычисляют время хранения данных при нормальной температуре.

Интересные факты:

Как известно, NAND-память разбиты на страницы, которые объединяются в блоки. Запись и чтение происходит постранично, а стирание только блоками.

Когда нужно что-то переписать, идеальная прошивка работает примерно так: она записывает страницы с изменёнными данными в блок, где ещё есть незаписанные страницы и устанавливает новое соответствие LBA→страница в FTL (Flash Translation Layer), а старыю страницу помечает недействительной. Если же таких блоков нет, то запускается сборщик мусора, который компонует данные из полузаполненных блоков в заполненные с освобождением блоков.

Это идеальный вариант. Не все пользовательские SSD имеют хорошие алгоритмы выравнивания износа. Что видно по драматически отличающимся результатам тестирования 3dnews.

Типичный размер страницы составляет 8KB и выше, а размер блока 2MB и выше. В тестировании JEDEC диск никогда не заполнялся более 38%, поэтому там всегда, как я подозреваю, были свободные блоки и поэтому не было активной работы сборщика мусора, который тоже тратит ресурс SSD. Но был WAF (Write Multiplication Factor) из-за того, что данные иногда записывались неполными страницами, а иногда одна запись проходила по границе NAND-страниц.

Я написал скрипт для вычисления WAF в зависимости от размера страницы в тестировании JEDEC. Вот WAF в зависимости от размера страницы NAND:


В тестировании 3dnews WAF примерно равен 1, так как файлы записываются последовательно, а Windows имеет кеширование записи, в ходе которого сектора записываются упорядоченно.

В типичном сценарии, когда страница равна 8К (Samsung 840 EVO) WAF всего 1.11 (погрешность на 11% от данных от 3dnews), что вроде бы можно простить. Но если мы учтём ещё WAF, который вносит алгоритм сборки мусора, то простить нельзя.

Методика JEDEC для тестирования корпоративных дисков на износостойкость


Она описана значительно более формализованно и условия более жёсткие. Задаётся чёткий процентаж записей различной длины. Записи размером до 4096 байт могут быть случайно смещены, а длиной от 4КБ должны быть выравнены по 4КБ смещениям.

Расчёт WAF в зависимости от размера страницы.

Расчёт поправок к результатам тестирования 3dnews


Нам нужны поправочные коэффициенты для того, чтобы износостойкость по методике 3dnews преобразовывать в износостойкость по методике Jedec.

Для начала мы уменьшим достигнутый результат в 2 раза, так как в тестировании не проверялось долговечность хранения. Никто не хочет обнаружить, что после отпуска, накопитель в его компьютере перестал работать или покрылся бэдами. Цифра 2 взята с потолка.

По методике JEDEC диск заполнен всего на 38%, что даём нам увеличение WAF из-за сборки мусора в 1.55 раза (по формуле выше). Этот коэффициент будет в знаменателе.

Далее мы учтём фактор мультипликации записи в зависимости от размера страницы NAND (полученный при анализе тестирования пользовательских SSD по методике JEDEC) и перемножим на WAF, который имеем от сборщика мусора.

$$display$$\begin{equation} K_{поправки} = \frac {2 * WAF_{сборка\ диска\ от\ заполненности} * WAF_{от\ размера\ страницы\ и\ характера\ записей}} {WAF_{сборка\ мусора\ Jedec}} \end{equation} $$display$$

Поправочные коэффициенты для дисков с избыточной областью в 6.66%.

Поправочные коэффициенты для дисков с избыточной областью в 10%.

Поправочные коэффициенты для дисков с избыточной областью в 20%.

Поправочные коэффициенты для дисков с избыточной областью в 30%.

Поправки к результатам тестирования 3dnews для использования пользовательских SSD в серверах


Сразу скажу, что это плохая идея. Но многие так делают. Поэтому попробуем рассчитать поправочные коэффициенты для определения ресурса пользовательских дисков в качестве серверных. Мы берём износостойкость из тестирования 3dnews и делим её на нужный коэффициент, чтобы получить ожидаемый ресурс (методика JEDEC) при корпоративном применении.
В серверах не требуется такое долговременное хранение в отключенном состоянии, как в пользовательских SSD. Вот соответствующая таблица:

При типичной температуре 50℃ эксплуатации под нагрузкой накопитель должен обеспечивать 58 недель ≈ 1 год хранения данных в отключенном состоянии при 25℃.

Для пользовательского применения (где требуется сохранность данных в течении 2-х лет в отключенном состоянии) мы уменьшили ресурс в 2 раза. Для корпоративного применения не нужен такой большой срок хранения, поэтому мы возьмём меньшее число, например, 1.3.

После этого умножим на WAF, характерный для корпоративной нагрузке, а потом учтём работу сборщика мусора и получим следующие таблицы коэффициентов. Результат полученный 3dnews нужно разделить на это число.

Есть проблема с тем, что в стандарте не описывается размер резервной области или свободного места для корпоративных дисков. Поэтому мы не можем точно оценить WAFкорпоративного теста JEDEC, поэтому возьмём это число (1.55) из теста пользовательских SSD JEDEC.

Поправочные коэффициенты для дисков с избыточной областью в 6.66%.

Поправочные коэффициенты для дисков с избыточной областью в 10%.

Поправочные коэффициенты для дисков с избыточной областью в 20%.

Поправочные коэффициенты для дисков с избыточной областью в 30%.

Выводы


Если вы никогда вы не выключаете свой компьютер на несколько месяцев, размер страницы NAND не более 16КБ, и диск заполнен примерно на половину, то показатели ресурса достигнутые 3dnews нужно разделить на 3.

Для типового сценария (занятость диска 90%, размер страницы 8КБ), чтобы получить ресурс по стандартам JEDEC, делим на 9 ресурс, полученный 3dnews.

Если вы иногда отправляетесь в реально длительные путешествия, а накопитель в это время не используется, то советую оставаться в рамках паспортного ресурса, по истечении которого менять накопитель.

Для редких случаев, когда размер страницы NAND больше 16КБ, а диск довольно плотно заполнен, то чтобы вычислить реальный ресурс накопителя, его нужно уменьшать в десятки, а иногда в сотни раз.

А если вы засовываете бюджетный накопитель в сервер, то озаботьтесь и рейдом, и бакапом. У вас не будет стабильного времени отклика и скоростей, защиты по питанию и других плюшек корпоративных накопителей, но ресурс вы можете вычислить с помощью поправочных делителей из соответствующей таблицы статьи. В типовом случае делим на 11.

Ссылки


Optimizing Linux with cheap flash drives.
Как определяем размер страницы и блока флэш-памяти.

P.S. Замеченные ошибки направляйте в личку. Повышаю за это карму.

За изображение спасибо TripletConcept.


Вы можете заказать виртуальную машину с SSD у RUVDS по купону ниже.

© Habrahabr.ru

Leave a comment