Fusion Drive на старых Mac? Да!

Не прошло и суток с того момента, как я рассуждал о технологии Fusion Drive и о том, что скорее всего она когда-то станет достаточно общедоступной, как в твиттере с самого утра меня встречает приятная новость. Как и ожидалось, забугорный системокопатель с ником jollyjinx по косточкам разобрал принцип работы технологии Fusion Drive, воссоздал его у себя на старом Mac и даже удачно протестировал. Я пока повторить описанное не пробовал (нет возможности), поэтому предлагаю к прочтению перевод его заметки с минимальными правками с моей стороны. Попробовал, вот инструкция 🙂

С момента, как Apple анонсировала Fusion Drive, многие заинтересовались возможностью использования технологии Fusion Drive на старых машинах, в которых установлены SSD и HDD накопители. Из опубликованного ранее документа стало понятно, что Fusion Drive – это на самом деле функция VolumeGroup входящая в Core Storage. Давайте попробуем создать наш собственный Fusion Drive. За исходные я взял подключенные к моему Mac SSD диск на 120GB (disk1) и обычный HDD на 750 Гб (disk7). Я подключил SSD диск через SATA чтоб быть уверенным в том, что система через SMART поймёт, что это именно SSD. Обычный винчестер я подключил через USB. USB был выбран для того, чтоб в тестах была чётко видна разница в скорости между накопителями.

 

Часть первая. Настройка Fusion Drive.

Начинаем шаманить с косольной версией Дисковой утилиты (diskutil) через Терминал:

TIN>diskutil cs create bla disk1 disk7
Started CoreStorage operation
$<3>Unmounting disk1
$<3>Repartitioning disk1
$<3>Unmounting disk
$<3>Creating the partition map
$<3>Rediscovering disk1
$<3>Adding disk1s2 to Logical Volume Group
$<3>Unmounting disk7
$<3>Repartitioning disk7
$<3>Unmounting disk
$<3>Creating the partition map
$<3>Rediscovering disk7
$<3>Adding disk7s2 to Logical Volume Group
$<3>Creating Core Storage Logical Volume Group
$<3>Switching disk1s2 to Core Storage
$<3>Switching disk7s2 to Core Storage
$<3>Waiting for Logical Volume Group to appear
$<3>Discovered new Logical Volume Group "DE85044F-EADA-4F26-93B7-8CD0ADF006EC"
$<3>Core Storage LVG UUID: DE85044F-EADA-4F26-93B7-8CD0ADF006EC
$<3>Finished CoreStorage operation

TIN>diskutil cs list
CoreStorage logical volume groups (1 found)
|
+-- Logical Volume Group DE85044F-EADA-4F26-93B7-8CD0ADF006EC
    =========================================================
    Name:         bla
    Size:         869502550016 B (869.5 GB)
    Free Space:   865776689152 B (865.8 GB)
    |
    +-< Physical Volume 682DCC34-74A4-4290-80AE-EB127BA24746
    |   ----------------------------------------------------
    |   Index:    0
    |   Disk:     disk1s2
    |   Status:   Online
    |   Size:     119690149888 B (119.7 GB)
    |
    +-< Physical Volume 5FA828A9-3EDD-4CBC-8C93-27C0E07C2E8A
        ----------------------------------------------------
        Index:    1
        Disk:     disk7s2
        Status:   Online
        Size:     749812400128 B (749.8 GB)

TIN>diskutil coreStorage createVolume DE85044F-EADA-4F26-93B7-8CD0ADF006EC jhfs+ blub 500g
(13:12:32)
Started CoreStorage operation
$<3>Waiting for Logical Volume to appear
$<3>Formatting file system for Logical Volume
$<3>Initialized /dev/rdisk8 as a 466 GB HFS Plus volume with a 40960k journal
$<3>Mounting disk
$<3>Core Storage LV UUID: 6CBDCB9F-A08E-4E79-BDA7-69853BA24C1E
$<3>Core Storage disk: disk8
$<3>Finished CoreStorage operation

Теперь Дисковая утилита больше не показывает отдельные диски, но логические разделы (Logical Volume) показывает как один диск (LV). На этом первая часть завершена, мы создали единый том состоящий из SSD и HDD.

 

Часть вторая. Запись данных на Fusion Drive.

Перед тестированием отключим индексацию Spotlight:

TIN>sudo mdutil -i off /Volumes/blub
/Volumes/blub:
    Indexing disabled.

Давайте посмотрим как работает Fusion Drive когда на него записываются данные:

TIN> cd /Volumes/bla
TIN> for d in {00..13}
do
mkdir $d
for f in {000..100}
mkfile 100m $d/$f
done

Этот скрипт автоматом создаст 14 директорий (с 00 по 13) со 100 файлами по 100 МБ в каждой. Таким образом в 14x100x100 = 14 папок по 10 ГБ каждая, итого 140 ГБ данных. Понятно, что на 120 ГБ SSD накопителя 140 ГБ данных никак не влезут. Поэтому остатки (по идее) должны будут записываться на HDD. Пока создаются папки с файлами, давайте посмотрим что происходит на дисках:

TIN> iostat disk1 disk7 1
          disk1           disk7       cpu     load average
    KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
  127.89 1138 142.14     0.00   0  0.00   2 13 84  2.36 1.75 1.23
  127.90 1180 147.39     0.00   0  0.00   2 13 84  2.36 1.75 1.23
  127.89 1147 143.21     0.00   0  0.00   2 13 84  2.36 1.75 1.23
  127.89 1178 147.15     0.00   0  0.00   4 14 83  2.49 1.79 1.25
  127.89 1150 143.66     0.00   0  0.00   5 15 81  2.49 1.79 1.25
  126.79 1192 147.59     0.00   0  0.00   3 15 82  2.49 1.79 1.25
  127.89 1096 136.91     0.00   0  0.00   4 17 79  2.49 1.79 1.25
  127.89 1176 146.85     0.00   0  0.00   3 15 82  2.49 1.79 1.25
  127.90 1183 147.77     0.00   0  0.00   2 13 84  2.53 1.81 1.26
  127.89 1144 142.90     0.00   0  0.00   2 13 84  2.53 1.81 1.26

И так, как вы помните, disk1 – это SSD. Как видно из таблицы используется именно он. После того так 120 ГБ SSD накопителя были заполнены, картина меняется следующим образом:

  127.89 1135 141.77     0.00   0  0.00   2 12 86  1.83 1.75 1.27
  127.89 1161 145.02     0.00   0  0.00   3 13 83  1.83 1.75 1.27
  127.90 1190 148.64     0.00   0  0.00   2 13 85  1.83 1.75 1.27
  127.79 1152 143.77     0.00   0  0.00   2 13 85  1.83 1.75 1.27
  127.90 1183 147.77     0.00   0  0.00   2 13 85  1.83 1.75 1.27
  127.90 1203 150.26     0.00   0  0.00   2 13 85  1.77 1.74 1.27
  121.93 1158 137.85     0.00   0  0.00   2 13 85  1.77 1.74 1.27
  127.89 1132 141.40     0.00   0  0.00   2 13 85  1.77 1.74 1.27
  127.89 1154 144.14     0.00   0  0.00   2 13 86  1.77 1.74 1.27
  127.90 1184 147.83     0.00   0  0.00   2 13 85  1.77 1.74 1.27
  127.78 1144 142.77     0.00   0  0.00   2 13 85  1.71 1.72 1.27
          disk1           disk7       cpu     load average
    KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
  127.20 260 32.25     0.00   0  0.00   1  4 96  1.71 1.72 1.27
   28.00   6  0.16     0.00   0  0.00   1  0 99  1.71 1.72 1.27
    0.00   0  0.00     0.00   0  0.00   0  0 99  1.71 1.72 1.27
    0.00   0  0.00     0.00   0  0.00   0  0 99  1.71 1.72 1.27
    0.00   0  0.00     0.00   0  0.00   0  1 99  1.57 1.70 1.26
    0.00   0  0.00     0.00   0  0.00   2  1 96  1.57 1.70 1.26
    0.00   0  0.00     0.00   0  0.00   1  1 99  1.57 1.70 1.26
    0.00   0  0.00     0.00   0  0.00   0  0 99  1.57 1.70 1.26
  103.40 863 87.11   100.00   9  0.88   1  8 91  1.57 1.70 1.26
   92.77 490 44.41   127.76 165 20.55   1  6 93  1.68 1.72 1.27
   13.22  92  1.19   128.00 216 26.96   2  4 94  1.68 1.72 1.27
   12.62 104  1.28   128.00 227 28.33   1  3 96  1.68 1.72 1.27
   12.53 105  1.28   127.44 229 28.46   0  3 97  1.68 1.72 1.27
   13.83 103  1.39   128.00 228 28.45   1  3 96  1.68 1.72 1.27
   12.71 102  1.26   128.00 228 28.46   4  4 91  1.71 1.72 1.27

Ясно видно, что для создания каталогов с 11 по 13 система использует HDD. Теперь, чтоб заставить Fusion Drive работать, нам нужно получить доступ к данным в папках 11-13, хранящихся на HDD. Таким образом мы сообщим системе, что эти данные нужно переместить на SSD:

TIN>while `true`
do
for d in {11..13}
for i in $d/*; do echo $i;
dd if=$i of=/dev/zero bs=1m
done
done

IOStat в другом окне Терминала показывает ход процесса:

          disk1           disk7       cpu     load average
    KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
    0.00   0  0.00     0.00   0  0.00  14  1 85  0.80 0.79 0.86
    0.00   0  0.00     0.00   0  0.00  13  1 86  0.80 0.79 0.86
    0.00   0  0.00     0.00   0  0.00  14  1 85  0.82 0.80 0.86
    0.00   0  0.00     0.00   0  0.00  13  1 87  0.82 0.80 0.86
    0.00   0  0.00     0.00   0  0.00  13  1 86  0.82 0.80 0.86

Так как всё мы делаем довольно быстро, нужно немного подождать…и теперь видим, что система действительно начинает читать с дисков:

          disk1           disk7       cpu     load average
    KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
    0.00   0  0.00     0.00   0  0.00  13  1 87  1.09 0.86 0.88
    0.00   0  0.00     0.00   0  0.00  15  6 79  1.09 0.86 0.88
  128.00 1386 173.22     0.00   0  0.00  16  8 77  1.08 0.86 0.88
  127.94 654 81.70   127.48 170 21.13  13  3 83  1.08 0.86 0.88
    0.00   0  0.00   128.00 279 34.83  13  2 85  1.08 0.86 0.88
    0.00   0  0.00   128.00 280 34.95  13  2 85  1.08 0.86 0.88
    0.00   0  0.00   127.53 271 33.71  13  2 85  1.08 0.86 0.88
    0.00   0  0.00   128.00 280 34.94  14  2 84  1.16 0.88 0.88

Чуть позже начинается процесс чтения данных с первого диска (предположительно собирается информация о директориях):

          disk1           disk7       cpu     load average
    KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
   15.06  68  1.00   128.00 209 26.08   1  1 98  1.02 0.79 0.73
   16.22  73  1.15   128.00 221 27.58   1  1 98  1.02 0.79 0.73
   13.71  84  1.12   128.00 222 27.71   0  1 98  1.02 0.79 0.73
   16.70  69  1.12   128.00 215 26.86   2  1 96  1.02 0.79 0.73
   13.71  84  1.12   128.00 201 25.09   1  2 98  1.02 0.79 0.73
   14.67  72  1.03   128.00 211 26.34   1  1 98  0.93 0.78 0.72
   14.52  92  1.30   128.00 211 26.33   1  1 98  0.93 0.78 0.72
   16.70  69  1.12   128.00 215 26.83   1  1 98  0.93 0.78 0.72
   13.71  84  1.12   128.00 209 26.11   1  1 98  0.93 0.78 0.72

Я оставил процесс чтения данных на достаточно долгое время чтобы показать системе что я действительно использую файлы в 11, 12 и 13 папках только на чтение. После чего остановил процесс.

 

Часть третья. Fusion Drive начинает свою работу.

Интересно, но после остановки процесса чтения файлов (7 строка показывает когда я завершил команду dd) диски не перестали работать! Система сразу начала “сгребать” данные с SSD на HDD:

          disk1           disk7       cpu     load average
    KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
   17.23  91  1.53   128.00 213 26.58   0  1 99  0.69 0.73 0.71
   15.06  68  1.00   128.00 217 27.08   2  2 96  0.80 0.76 0.71
   16.37  86  1.37   128.00 227 28.33   1  1 98  0.80 0.76 0.71
   15.06  68  1.00   128.00 204 25.46   1  2 97  0.80 0.76 0.71
   15.06  68  1.00   128.00 216 26.96   1  1 98  0.80 0.76 0.71
   41.35 169  6.81   126.80 103 12.73   5  2 92  0.80 0.76 0.71
  128.00 197 24.59   128.00 198 24.72   1  1 99  0.73 0.74 0.71
  128.00 199 24.84   128.00 198 24.71   0  1 98  0.73 0.74 0.71
  128.00 196 24.46   128.00 197 24.59   1  1 98  0.73 0.74 0.71
  128.00 236 29.46   128.00 236 29.46   1  1 98  0.73 0.74 0.71
  108.38 263 27.80   128.00 220 27.46   0  1 98  0.73 0.74 0.71
  128.00 197 24.59   128.00 196 24.46   1  1 99  0.68 0.73 0.71
  128.00 198 24.74   128.00 198 24.74   0  1 99  0.68 0.73 0.71
  128.00 215 26.84   128.00 217 27.08   0  1 99  0.68 0.73 0.71
  126.51 242 29.85   128.00 238 29.71   1  1 98  0.68 0.73 0.71
  106.31 260 26.95   128.00 212 26.46   1  1 98  0.68 0.73 0.71

Количество данных переданных с диска 1 на диск 7 (и наоборот, с диска 7 на диск 1), практически идентично. Примерно через 10 минут работы (копирование около 14 ГБ информации) работа по перемещению данных остановилась:

          disk1           disk7       cpu     load average
    KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
  128.00 193 24.09   128.00 193 24.09   2  2 96  0.49 0.75 0.72
  128.00 190 23.72   128.00 190 23.72  20 14 66  0.49 0.75 0.72
  128.00 213 26.58   128.00 214 26.71   1  1 97  0.49 0.75 0.72
  128.00 236 29.46   128.00 236 29.46   2  2 96  0.49 0.75 0.72
  102.17 251 25.02   127.37 197 24.48   3  2 94  0.53 0.76 0.72
  128.00 192 23.96   128.00 192 23.96   1  1 98  0.53 0.76 0.72
  128.00 195 24.34   128.00 196 24.46   0  2 98  0.53 0.76 0.72
  128.00 216 26.96   128.00 216 26.96   0  1 99  0.53 0.76 0.72
  128.00 229 28.58   128.00 229 28.58   1  1 98  0.53 0.76 0.72
  111.75 251 27.35   128.00 216 26.96   1  1 98  0.49 0.74 0.72
  128.00 200 24.96   128.00 201 25.09   1  1 98  0.49 0.74 0.72
   86.39 124 10.44   128.00  81 10.11   0  1 99  0.49 0.74 0.72
    0.00   0  0.00     0.00   0  0.00   4  2 95  0.49 0.74 0.72
    0.00   0  0.00     0.00   0  0.00   3  1 95  0.49 0.74 0.72
    0.00   0  0.00     0.00   0  0.00   1  0 99  0.45 0.73 0.71
    0.00   0  0.00     0.00   0  0.00   3  1 96  0.45 0.73 0.71
    0.00   0  0.00     0.00   0  0.00   1  1 99  0.45 0.73 0.71
    0.00   0  0.00     0.00   0  0.00   1  0 99  0.45 0.73 0.71
    0.00   0  0.00     0.00   0  0.00   1  0 99  0.45 0.73 0.71
    0.00   0  0.00     0.00   0  0.00   1  1 98  0.41 0.72 0.71

Теперь, скрестив пальцы, я начал читать данные с папок 11, 12 и 13. Скорость чтения из кэш-памяти теперь выглядела так:

      disk1           disk7       cpu     load average
KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
15.06  85  1.25   128.00 220 27.48   1  1 98  0.27 0.51 0.66
14.96  69  1.01   128.00 225 28.08   0  1 99  0.25 0.50 0.65
14.96  69  1.01   127.40 212 26.33   0  1 99  0.25 0.50 0.65
14.96  69  1.01   128.00 210 26.21   0  1 99  0.25 0.50 0.65
16.70  69  1.12   128.00 204 25.46   1  1 98  0.25 0.50 0.65
13.58  86  1.14   128.00 210 26.21   0  1 99  0.25 0.50 0.65

Облом… Скорость низкая. Тогда я продолжил читать файлы из директорий 11-13, и примерно через час картинка уже выглядела так:

      disk1           disk7       cpu     load average
KB/t tps  MB/s     KB/t tps  MB/s  us sy id   1m   5m   15m
128.00 2105 263.18     0.00   0  0.00   2  5 93  0.75 0.67 0.68
128.00 2096 261.97     0.00   0  0.00   3  6 91  0.75 0.67 0.68
128.00 2097 262.07     0.00   0  0.00   4  6 90  0.69 0.66 0.68
128.00 2103 262.93     0.00   0  0.00   1  6 93  0.69 0.66 0.68
128.00 2096 262.05     0.00   0  0.00   1  5 94  0.69 0.66 0.68
128.00 2091 261.42     0.00   0  0.00   2  6 92  0.69 0.66 0.68
128.00 2112 263.95     0.00   0  0.00   2  6 92  0.69 0.66 0.68
128.00 2093 261.63     0.00   0  0.00   3  7 90  0.72 0.66 0.68

Получилось! Таким образом, спустя некоторое время, система фактически перенесла часто используемые данные с диска 7 (HDD) на диск 1 (SSD).

Кстати. На самом деле я не использую Fusion Drive с файловой системой HFS+ для хранения важных данных (так как на самом деле все эти действия я проводил на тестовой машине). Использование двух объединённых дисков с HFS+ только увеличивает риск выхода из строя одного из них, а вместе с ним и данных. И TimeMachine тоже не панацея в качестве резервного хранилища так как уже один раз подвела меня в прошлом. Для хранения важных данных я использую ZFS 😉
Дополнение 1: В качестве SSD накопителя выступал древний OCZ Vertex 2, так что никаких оригинальных “яблок” использовано не было.
Дополнение 2: Монтирование SSD накопителя с параметром “-о noatime” не меняет поведения работы Fusion Drive, и это хорошо.
Дополнение 3: Я использую старую добрую OS X Mountain Lion 10.8.2, никаких уникальных версий или сборок.

Share this article
0
Share
Prev Post

Jottacloud. Норвежское "облако" для всех, кому мало "места" (+ 5 ГБ бесплатностей).

Next Post

[Киоск] КАПИТАН. Журнал для людей, любящих море, корабли, путешествия.

Comments 12
  1. Я вот так и не понял: почему при создании логического тома из двух дисков на HFS+ один из дисков может выйти из строя. Если честно вариант с Fusion Drive подходит для меня очень хорошо.

    1. Ну, он имеет ввиду, что объединив два диска в Fusion Drive получится аналог RAID 0 (утрировано). Выходит, что данные на Fusion Drive “размазаны” по двум разным девайсам, и если вдруг один из них выйдет из строя, то все данные тю-тю. Если бы SSD использовался просто как кэш, то «потеря» SSD не была бы критичной. А так копии, копии и ещё раз копии.

  2. Так это выходит такие штуки еще со Льва делать было? Core storage вроде как там появился впервые?

  3. конешно не в тему, но может быть вы знаете , у меня time capsule, вбил настройки провайдера, подключение через статический айпи, проходит два дня и при включении ноутбука или телефона пропадает интернет, хотя в настройках я подключен, помагает только выдернуть с розетки и дальше все снова работает до следующего исчезновения, если честно разочаровался

    1. А подробнее? Где пропадает интернет: на Time Capsule или на любом другом устройстве подключенном через неё? На всех ли сразу устройствах пропадает интернет? Ещё: через какой протокол Time Capsule подключается к провайдеру (PPPoE, L2TP, просто статический IP)? Настроен ли на Time Capsule DHCP?

      P.S.: К сведению, чтоб не плодить оффтопы, на странице О Блоге есть форма обратной связи. Пишешь туда “внетемный” вопрос и он сразу же приходит ко мне, я его прочитываю и отвечаю на указанный в форме e-mail. Всё просто 😉

    1. А я же в самом начале и написал, что это перевод. Пока не пробовал у себя соорудить Fusion Drive. А вот по поводу ZFS расскажу чуть позже (будет заметка).

  4. я тоже с интересом прочитаю о вашем опыте по ZFS а то и меня TimeMashine немного напрягает.Надеюсь в скором времени увидеть такую заметку

  5. >> И TimeMachine тоже не панацея в качестве резервного хранилища так как уже один раз подвела меня в прошлом. Для хранения важных данных я использую ZFS 😉

    Можно про этот случай с TimeMachine и о том где вы юзаете ZFS, пожалуйста.

    1. Ну это вообще были слова jollyjinx 😉 Он действительно использует резервное копирование, но на ZFS пул. Я пока ещё полностью не разобрался с этим. Статья по этому поводу будет «как только – так сразу» 😉

      1. ОК, ждем:)
        Я просто не могу понять в чем была проблема: в файловой системе или софте, в данному случае это Time Machine.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Read next

Apple «порезала» iMac'и…

Корпорация Apple сделала компьютеры iMac доступнее. Однако без «дёгтя» здесь снова не обошлось. Как оказалось,…