Пожелания разработчикам (навеяно установкой на боевой сервер)

Вначале в паре предложений предистория - имея у себя в хозяйстве сервера под управлением ALTLinux, Ubuntu и M$, решил что пришла “очередная пора” приводить все это хозяйство в порядок, да заодно и попробовать перевести пользователей под *nix-desktop. В качестве основного кандидата выбор пал на Calculate Directory Server…
Так-вот, процесс “переезда” в самом разгаре - наступление на грабли, поиск решений, … в общем все как обычно…
В связи с чем и возникло желание создать пару-тройку трендов на данном форуме с замечаниями, пожеланиями, личным опытом и т.д. В данном случае - посвящено CDS 10.0.

Итак, что бросилось в глаза при установке:

  • как-то вошло в привычку выделять при установке linux-систем как минимум /boot, /var - ну хотя-бы из-за ощутимо разных требований к ФС. Не спорю, в CDS это сделать можно, но только “ручками”, после установки системы и т.д.
  • swap-раздел, несмотря на уверения разработчиков - в зависимости от платформы и “настроения” Calculate 10.0 (относится ко всем продуктам) монтируется автоматом далеко не всегда, лечится банальным прописыванием в fstab
  • использование по умолчанию при установке reiserfs… Тяжело комментируется - пожалуй единственная ФС (кроме reiser4), которая в моей практике могла упасть - и ее использование в качестве “дефолтной” ? А если еще и учесть, что шары SAMBA для разграничения прав доступа используют ACL, и все это (опять таки по “умолчанию”) ставится в один раздел,… с отключенным (по умолчанию) ACL … Опять таки, как и в предыдущем пункте - допиливается “руками” за пару минут, но уж очень как-то хочется обходиться без надфиля … Тем, кто ставит систему боевой сервер, рекомендовал-бы кроме выделения /var в отдельный раздел, выделить так-же в отдельный раздел и /var/calculate (или /var/calculate/server-data) - опять таки из-за ощутимо разных требований к ФС - в первом случае предпочтительнее (мне представляется) - ext3, а во втором - xfs
  • невозможность без большого шаманского бубна установить систему на софтовый RAID1. Да, есть аппаратные решения. Но! есть масса примеров, когда использование на сервере честного аппаратного raid-контроллера стоимостью от 450 у.е. явно неуместно, а вот софтовый RAID1 явно пригодился-бы. Вот только поднять его в существующем CDS получится далеко не у всех - имеем массу проблем как по поводу загрузки соответствующих модулей на этапе загрузки системы, автосбора RAID-зеркала, так и банальной установки загрузчика на зеркало …
  • домашние каталоги пользователей - к этому вопросу я несколько позже еще раз вернусь, пока только два вопроса-замечания - по словам разработчиков, их CDS НЕ проектировался для работы пользователей непосредственно на сервере. НО! - запускаем сервисы unix и samba, добавляем пользователя и внимательно смотрим на вывод _cl-info U pavel unix_. Первое, что бросается в глаза Оболочка /bin/bash … - сорри, а зачем?.. Далее еще интереснее, сравниваем вывод cl-info -U pavel unix и _cl-info U pavel samba_ Домашняя директория в двух сервисах НЕ совпадает, при этом, директория, указанная в samba создается скриптом и существует сразу после добавления клиента в систему, а директорией, указанной в unix и не пахнет… Мне представляется наиболее оптимальным подправить директорию в сервисе unix на ту-же. что и у samba сервиса, а оболочки всех пользователей - установить в /bin/false, все одно им в консоли сервера делать нечего. Из последнего предположения есть исключения, но об этом в следующий раз…

… продолжение буду писать по мере настройки сервера и возникновения новых пожеланий. Поскольку переезжает сейчас на CDS основной боевой серверок - думаю писать достаточно активно :wink:

Лихая критика… :slight_smile:
С некоторыми пунктами я конечно согласен (хотя бы с разбиением диска - особо актуально), но есть пункты, которые мне лично, как довольно частому юзверю CDS и вообще Calculate, просто даже интересны:

swap-раздел, несмотря на уверения разработчиков - в зависимости от платформы и “настроения” Calculate 10.0 (относится ко всем продуктам) монтируется автоматом далеко не всегда, лечится банальным прописыванием в fstab

В корне не согласен т.к. за всё время ни разу не было такого, чтоб swap-раздел не примонтировался! Просто надо при разметке диска не забыть метку 83 поменять на 82. А если ещё примонтировать при установке, то ещё и поможет ускорить работу при установке системы.

использование по умолчанию при установке reiserfs… Тяжело комментируется - пожалуй единственная ФС (кроме reiser4), которая в моей практике могла упасть - и ее использование в качестве “дефолтной” ?

Похоже у Вас просто ШИКАРНЫЙ 15 летний опыт ибо я видел только лишь падения ext3 и ext4 на ubunta, правда только из-за корявых рук самого установщика! :wink:

Yuri Stepanov wrote:

В корне не согласен т.к. за всё время ни разу не было такого, чтоб swap-раздел не примонтировался! Просто надо при разметке диска не забыть метку 83 поменять на 82. А если ещё примонтировать при установке, то ещё и поможет ускорить работу при установке системы.

… именно так - меточка 82, примонтированно еще на этапе установки, mkswap, swapon … не говорю что всегда или часто не монтрируется автоматом, но! поймав на паре систем НЕмонтирование - предпочел за лучшее делать это насильно в fstab

Похоже у Вас просто ШИКАРНЫЙ 15 летний опыт ибо я видел только лишь падения ext3 и ext4 на ubunta, правда только из-за корявых рук самого установщика! :wink:

… могу огорчить - извините, не угадали, давайте не здесь мерятся “пиписьками” …
А по существу вопроса - установите на тестовую систему поочередно на reiserfs, ext4, ext3 и если не жалко винта - повырубайте питание на разных этапах запуска системы :wink: так вот - практика показывает, что сбои они все ловят примерно одинаково, но! - ext3 замечательно откатывается по журналу без вмешательства пользователя, а reiserfs - впадает в ступор и ждет консоли. ext4 на серверах не проверял, а вот по опыту то-же Убунты - в состоянии, абсолютно аналогичном reiserfs - т.е. руками все лечится, вот только зачем этот гемор на сервере ? Не знаю как другим, а мне нужно что-бы он РАБОТАЛ, а не я возле него с бубном плясал. Повторяю, абсолютно “упавших” ни reiserfs, ни ext3 ни разу за не наблюдал (улетевшие винты и переформатирование разделов не считаем), а вот количество “возни” по приведению в рабочее состояние - ощутимо не в пользу reiserfs, имхо :wink:

… могу огорчить - извините, не угадали, давайте не здесь мерятся “пиписьками” …

Ну не знаю как Вы, а я не имею такой привычки. :))

установите на тестовую систему поочередно на reiserfs, ext4, ext3 и если не жалко винта - повырубайте питание на разных этапах запуска системы :wink:
…и т.д.

Просто проблемы с фс подобного рода наблюдаются в случаях когда
пользователь насильно проверяет систему ибо если сервер вырубается сам по себе, это значит что ему пришёл полный П*. А зачем нормальному, здравому человеку это делать. А в случае с энергетиками, ВСЕГДА надо смотреть на шаг вперёд и дабы сервер не сгорел надо ставить ИБП и стабилизатор напряжения. Стоит нормальный ИБП, которого хватает на полчаса около 1000р, а это согласитесь не такие уж и большие деньги. Иных случаев я просто не встречал.

И главное, Вам никто не навязывает reiser, это рекомендация, которую можно отнести к ИМХО разработчиков. Если Вам лично нравится ext3 - ставьте на здоровье! :slight_smile:
Хотелось бы закончить эту дискуссию строчками из Разбиение диска для сервера из мануала Calculate по разбиению дисков:

Различные файловые системы имеют свои преимущества и недостатки. Мы можем оставить здесь лишь рекомендацию, на основе личного опыта. В качестве файловой системы для /root раздела, хорошо зарекомендовала себя ‘‘reiserfs’’, а вот для хранения файлов, благодаря активному использованию кэша идеальной на наш взгляд является ‘‘xfs’’.

А в случае с энергетиками, ВСЕГДА надо смотреть на шаг вперёд и дабы сервер не сгорел надо ставить ИБП и стабилизатор напряжения. Стоит нормальный ИБП, которого хватает на полчаса около 1000р, а это согласитесь не такие уж и большие деньги. Иных случаев я просто не встречал.

… а я Вам опишу - стоит этот Ваш ИБП, работает себе, полностью боеспособен, готов и настроен :wink: И вдруг - “бамс” - пришли “злые энергетики” и выключили электричество… Наш ИБП продержал сервер честно 30 мин., разрядил батарею да и дал команду на выключение. Сервер у нас то-же настроенный, он эту команду принял и исполнил. Пока всем хорошо, и все цело :wink: Покрутились покрутились наши энергетики, и решили включить “самый главный рубильник”. Помните - у нас настроенный сервер и ИБП, и бегать в серверную мы не имеем никакого желания - т.е. после того, как включился “самый главный” рубильник - наш ИБП (он ведь умный?) подождал 5 минут, электричество есть, и подал питание на сервер. Что сделал наш сервер? - правильно, начал загружаться. И в этот момент самый маленький “злой электрик” увидел забытые в распределительном шкафу пассатижи, и дернул “самый главный” рубильник. Увы, но наш умный-умный ИБП (и отнюдь не за 1000р., а намного! дороже), не смог спасти наш сервер от как Вы написали - “если сервер вырубается сам по себе” - потому как не успел он за 5-10 минут зарядить батарею до уровня, что-бы ее хватило на полный цикл включения-выключения нашего сервера.
Это “побасенка”, а в реалиях жизни подобных шуток на предприятиях бывает ой-как много - и включать-выключать рубильник наши электрики могут с частотой 1 раз в минуту и так 10 минут ;), и пара умников с электросваркой вполне может подключиться к розетке в предбаннике серверной - и тогда ни один ИБП до 800-1000 у.е. не спасает :wink: Так что пара “ИБП-усточивая ФС”, всегда намного лучше, чем что-то одно… А устойчивость ФС лично я оцениваю так-же как и надежность того или иного серверного решения - это не только время uptime, но и время, которое нужно потратить на восстановление работоспособности. Так вот по второму параметру reiserfs (имхо!) явно проигрывает ext3

Хотелось бы закончить эту дискуссию строчками из Разбиение диска для сервера из мануала Calculate по разбиению дисков:

Различные файловые системы имеют свои преимущества и недостатки. Мы можем оставить здесь лишь рекомендацию, на основе личного опыта. В качестве файловой системы для /root раздела, хорошо зарекомендовала себя ‘‘reiserfs’’, а вот для хранения файлов, благодаря активному использованию кэша идеальной на наш взгляд является ‘‘xfs’’.

Ответ неправильный :wink: Если понимаете о чем я, а вернее вспомните не очень далекое прошлое - то рекомендация ставить /root на reiserfs растет ногами из производительности данной ФС и ее нагрузки на ЦП (интересно, сегодня это кого-то волнует?), а что касается xfs для хранения файлов, то здесь есть “ньюансик” - для файлов какого типа? Помнится xfs “любит” файлы большого размера, и не очень полюбляет файлы типа “маленькие, ну очень маленькие, но очень много” :wink:

Вы ищете решение конкретной ситуации или “изобретаете велосипед”? Я не знаю как у Вас, но у нас подобных приколов не возникает. Если проблемы с электричеством, то мы его или отрубаем, или если проблема затяжная, а сервер требуется, то для этого стоит генератор.

Ответ неправильный :wink: Если понимаете о чем я, а вернее вспомните не очень далекое прошлое - то рекомендация ставить /root на reiserfs растет ногами из производительности данной ФС и ее нагрузки на ЦП (интересно, сегодня это кого-то волнует?), а что касается xfs для хранения файлов, то здесь есть “ньюансик” - для файлов какого типа? Помнится xfs “любит” файлы большого размера, и не очень полюбляет файлы типа “маленькие, ну очень маленькие, но очень много” :wink:

Слушайте, Вы сами себе противоречите! :slight_smile: Перечитайте свой же пост, пункт 3.

И ещё, Вы главное не извлекли из цитаты - привожу основную смысловую часть: “Различные файловые системы имеют свои преимущества и недостатки. Мы можем оставить здесь лишь рекомендацию, на основе личного опыта.”

Так понятнее мысл, которую я хотел сообщить? Думаю должно. Всё, дискуссия OFF.

Спасибо Юрий за замечания. Поясню все моменты.

как-то вошло в привычку выделять при установке linux-систем как минимум /boot, /var - ну хотя-бы из-за ощутимо разных требований к ФС. Не спорю, в CDS это сделать можно, но только “ручками”, после установки системы и т.д.

По моему личному мнению это лишнее. Но против привычки не пойдешь :slight_smile: Подобную возможность планируется реализовывать в пакете calculate-installer, в рамках утилит Calculate 2.2.

swap-раздел, несмотря на уверения разработчиков - в зависимости от платформы и “настроения” Calculate 10.0 (относится ко всем продуктам) монтируется автоматом далеко не всегда, лечится банальным прописыванием в fstab

Swap раздел монтируется только в том, случае, если он указан как своп (82), и он присутствует на жестком диске куда ставится система. Другие диски не рассматриваются, т.к. предполагается что они могут быть временно подключенными.

использование по умолчанию при установке reiserfs…

Здесь только один момент, который нужно будет исправить. При авторазбиении все разделы форматируются в выбранную файловую систему. Исправлять после этого действительно иногда приходится. Планируем доработать.

невозможность без большого шаманского бубна установить систему на софтовый RAID1.

Не было такой потребности. Ничего не мешает добавить поддержку. Жаль только нет возможности загружаться с Raid5.

домашние каталоги пользователей - к этому вопросу я несколько позже еще раз вернусь, пока только два вопроса-замечания - по словам разработчиков, их CDS НЕ проектировался для работы пользователей непосредственно на сервере. НО! - запускаем сервисы unix и samba, добавляем пользователя и внимательно смотрим на вывод cl-info U pavel unix. Первое, что бросается в глаза Оболочка /bin/bash … - сорри, а зачем?..

Информация берется из LDAP, из unix ветки. Она экспортируется также пользователям CLD. На сервере это не страшно, т.к. доступ пользователям LDAP к нему закрыт.

Далее еще интереснее, сравниваем вывод cl-info -U pavel unix и cl-info U pavel samba Домашняя директория в двух сервисах НЕ совпадает, при этом, директория, указанная в samba создается скриптом и существует сразу после добавления клиента в систему, а директорией, указанной в unix и не пахнет…

Эта директория создается на клиенте. На сервере unix директория пользователю не нужна.

Мне представляется наиболее оптимальным подправить директорию в сервисе unix на ту-же. что и у samba сервиса, а оболочки всех пользователей - установить в /bin/false, все одно им в консоли сервера делать нечего. Из последнего предположения есть исключения, но об этом в следующий раз…

В этом случае на сервере данные будут раскиданы по разным путям, что не очень удобно. К тому же в /home любят писать такие программы, как ftp, p2p и др. Ну а если Вы сделаете /bin/false, не сложно предположить что станет с CLD пользователями.

так вот - практика показывает, что сбои они все ловят примерно одинаково, но! - ext3 замечательно откатывается по журналу без вмешательства пользователя, а reiserfs - впадает в ступор и ждет консоли.

Откатывается может быть. Но у нас бывало что требовалось вмешательство. С рейзером таких проблем тогда небыло.

рекомендация ставить /root на reiserfs растет ногами из производительности данной ФС и ее нагрузки на ЦП (интересно, сегодня это кого-то волнует?), а что касается xfs для хранения файлов, то здесь есть “ньюансик” - для файлов какого типа? Помнится xfs “любит” файлы большого размера, и не очень полюбляет файлы типа “маленькие, ну очень маленькие, но очень много” :wink:

xfs отлично использует кэш. Когда мы ставили более мощный сервер, но без рейда, производительность упала в разы. Замена reiserfs на xfs позволила несколько ускорить время доступа, благодаря активному использованию кэша в памяти последним. В случае с десктопом я наоборот бы рекомендовал reiserfs на всех разделах.

Уважаемый Александр, извините, что буду отвечать “частями”:

как-то вошло в привычку выделять при установке linux-систем как минимум /boot, /var - ну хотя-бы из-за ощутимо разных требований к ФС.

По моему личному мнению это лишнее. Но против привычки не пойдешь :slight_smile: Подобную возможность планируется реализовывать в пакете calculate-installer, в рамках утилит Calculate 2.2.

невозможность без большого шаманского бубна установить систему на софтовый RAID1.

Не было такой потребности. Ничего не мешает добавить поддержку. Жаль только нет возможности загружаться с Raid5.

Вот Ваше первое противоречие - установить систему на софтовый RAID любого класса не проблема, при условии что /boot Вы установите либо на простой раздел, либо на зеркало :wink:

Первое, что бросается в глаза - Оболочка /bin/bash … - сорри, а зачем?..

Информация берется из LDAP, из unix ветки. Она экспортируется также пользователям CLD. На сервере это не страшно, т.к. доступ пользователям LDAP к нему закрыт.

Закрыт где? - хотелось бы увидеть конкретно это место, т.к. как только исправляете ошибку домашнего каталога unix-пользователя - он спокойненько попадает себе в консоль нашего сервера …

Вот Ваше первое противоречие - установить систему на софтовый RAID любого класса не проблема, при условии что /boot Вы установите либо на простой раздел, либо на зеркало :wink:

А что Вы будете делать, когда у Вас 6 sata и все они забиты терабайтными винтами, т.к. информации под завязку. Куда /boot выносить будете? Так что это не противоречие.

Закрыт где? - хотелось бы увидеть конкретно это место, т.к. как только исправляете ошибку домашнего каталога unix-пользователя - он спокойненько попадает себе в консоль нашего сервера …

Я имел ввиду закрыт по ssh. Хотя можно и над PAM поработать, если есть желание.

А что Вы будете делать, когда у Вас 6 sata и все они забиты терабайтными винтами, т.к. информации под завязку. Куда /boot выносить будете? Так что это не противоречие.

на некоторых серверах по 12-16 SATA только с терриками, в soft-raid, а что касается системы - то она как-то преспокойно живет себе на ОТДЕЛЬНО выделенных для этих целей винтах. и как-раз в зеркале :wink:

Закрыт где? - хотелось бы увидеть конкретно это место, т.к. как только исправляете ошибку домашнего каталога unix-пользователя - он спокойненько попадает себе в консоль нашего сервера …

Я имел ввиду закрыт по ssh. Хотя можно и над PAM поработать, если есть желание.

Странно, вот как раз этого я не заметил - дайте в unix-сервисе пользователю нормальный домашний каталог - и он логинится по ssh “на УРА”… ил Вы предлагаете подразумевать “закрыт по ssh” то, что вы указали ему несуществующую домашнюю директорию ?

на некоторых серверах по 12-16 SATA только с терриками, в soft-raid, а что касается системы - то она как-то преспокойно живет себе на ОТДЕЛЬНО выделенных для этих целей винтах. и как-раз в зеркале :wink:

Я про случай, когда нет физической возможности поставить дополнительный жесткий диск, на который можно было бы вынести /boot. Как пример - Mac Pro.

Странно, вот как раз этого я не заметил - дайте в unix-сервисе пользователю нормальный домашний каталог - и он логинится по ssh “на УРА”… или Вы предлагаете подразумевать “закрыт по ssh” то, что вы указали ему несуществующую домашнюю директорию ?

Вы правы, по ssh доступ закрывать нужно самостоятельно, в файле /etc/ssh/sshd_config строкой:

AllowUsers root

Либо вместо root - доверительные пользователи.
Раньше такое правило было.

невозможность без большого шаманского бубна установить систему на софтовый RAID1

Эм… позвольте не согласится. Процесс установки простой.

  1. Грузимся, через mdadm делаем массив.
  2. Говорим calculate -d /dev/md1.
  3. После установки в /boot/grub/menu.lst правим root () на root (hd0,1) и добавляем параметр domdadm в командную строку ядра.
    Всё. Или это и есть “большой бубен”? ))
  1. Грузимся, через mdadm делаем массив.
  2. Говорим calculate -d /dev/md1.
  3. После установки в /boot/grub/menu.lst правим root () на root (hd0,1) и добавляем параметр domdadm в командную строку ядра.
    Всё. Или это и есть “большой бубен”? ))

А где про это на всём сайте написано? Вот он и не нашёл нормального решения и сделал как говорит гугл, а порою технология эта ну никак не может пройти мимо бубна.

Простая проверка типа time cp 600Mb-file@sda1 mntpoint@sdb2 среди райзера3, эксфс и экст4 вынесла райзер3 в конец таблицы. приходилось делать чекдиск на диске райзером3 после его падения. восстановление отняло около 15 минут, что раза в 3 было больше аналогичного на экст4. на мой взгляд, без екстентов, 3-тий райзер не может обогнать экст4.

А где про это на всём сайте написано? Вот он и не нашёл нормального решения и сделал как говорит гугл, а порою технология эта ну никак не может пройти мимо бубна.

Такие вещи нужно описывать в блоге. В свое время Родион Дорошкевич описал процесс установки дистрибутива на USB-HDD, за что я ему очень благодарен. В результате поддержка установки на внешний винт была перенесена в установщик. К слову сейчас он пытается побороть Grub2. У кого есть желание вести свой блог - пишите.

Misha Padalka wrote:

невозможность без большого шаманского бубна установить систему на софтовый RAID1

Эм… позвольте не согласится. Процесс установки простой.

  1. Грузимся, через mdadm делаем массив.
  2. Говорим calculate -d /dev/md1.
  3. После установки в /boot/grub/menu.lst правим root () на root (hd0,1) и добавляем параметр domdadm в командную строку ядра.
    Всё. Или это и есть “большой бубен”? ))

Жаль что мы с Вами не в одном городе находимся - попросил-бы выполнить описанный Вами алгоритм на “бис” на базе CDS 10.0 :wink: Слишком много в вашем описании пропущено - и загрузчик на ДВА раздела писать нужно, и не забыть модуль raid1 подгрузить, и mdraid запустить и помочь при первой загрузке initrd, а то не сгенерится …
А что будет при обновлении системы - так даже думать не хочу… Так что на месте разработчиков я бы просто вписал данный пункт в “план полета”
… да и кстати о grub - что помешало в скрипте установки добавить memtest86 - не понимаю. Да, руками все правится за 5 сек. :wink:

dimone none wrote:

Простая проверка типа time cp 600Mb-file@sda1 mntpoint@sdb2 среди райзера3, эксфс и экст4 вынесла райзер3 в конец таблицы. приходилось делать чекдиск на диске райзером3 после его падения. восстановление отняло около 15 минут, что раза в 3 было больше аналогичного на экст4. на мой взгляд, без екстентов, 3-тий райзер не может обогнать экст4.

И на основании какого из этих утверждений Вы предлагаете reiser как “дефолтный” ? Да, проверка журналируемой ФС ВСЕГДА будет требовать больше времени, чем проверка не журналируемой. Но мы ведь говорим о СЕРВЕРНОЙ ОС. Что нас больше всего волнует? - надежность и устойчивость, что-бы все работало, и желательно без нашего присутствия. Вот именно с этой точки зрения я и выступил за ext3.
Что касается ext4 - нет, я понимаю, мы все любим эксперименты, и ядро у нас 31 ;), но я пока на сервера ее подожду использовать - пусть ext4 пособирает статистику, половит баги, потом поглядим …

Yuri Stepanov wrote:

И на основании какого из этих утверждений Вы предлагаете reiser как “дефолтный” ?

Вы меня поняли с точностью наоборот. :slight_smile: Я вообще за то, чтобы отказаться от райзера!!! Вот мой пост на эту тему от прошлого месяца http://www.calculate-linux.ru/issues/37

dimone none wrote:

Yuri Stepanov wrote:

И на основании какого из этих утверждений Вы предлагаете reiser как “дефолтный” ?

Вы меня поняли с точностью наоборот. :slight_smile: Я вообще за то, чтобы отказаться от райзера!!! Вот мой пост на эту тему от прошлого месяца http://www.calculate-linux.ru/issues/37

Не знаю, вообще отказаться - наверное не готов. На слабых машинках (десктопах), или для /tmp, /var/tmp на серверах - самое то - шустрый, веселый, мало грузящий проц. А если и слетел - не смертельно, все одно на подобных разделах ничего нужного не бывает …

Yuri Stepanov wrote:

dimone none wrote:

Yuri Stepanov wrote:

И на основании какого из этих утверждений Вы предлагаете reiser как “дефолтный” ?

Вы меня поняли с точностью наоборот. :slight_smile: Я вообще за то, чтобы отказаться от райзера!!! Вот мой пост на эту тему от прошлого месяца http://www.calculate-linux.ru/issues/37

Не знаю, вообще отказаться - наверное не готов. На слабых машинках (десктопах), или для /tmp, /var/tmp на серверах - самое то - шустрый, веселый, мало грузящий проц. А если и слетел - не смертельно, все одно на подобных разделах ничего нужного не бывает …

я /tmp вообще в tmpfs монтирую :slight_smile: