В 81 году Билл Гейтс, представляя MS-DOS говорил о том, что 640 килобайт памяти должно хватить каждому. Однако уже в 84 году стало ясно, что это не так и стали появляться всяческие ухищрения, чтобы обойти это ограничение.
Сегодня сервер всю ночь не мог запуститься из-за того, что ему не хватало 512 мегов памяти. Если бы я знал, в чём причина, то быстро бы починил, но узнать удалось только к утру, когда отписалась техподдержка.
Это ещё ничего, потому что у Web 1.0 серверов по сегодняшним меркам и правда скромные требования. Вот реально не ожидал, что теперь меньше, чем на гигабайте даже ядро не запустишь, или это из-за того, что в Убунте слишком раздутые initrd?
Вот на десктопах ситуация другая. Меня ещё 10 лет назад бесило, что комп на работе 32-битный, а винда не может нормально работать с PAE и таким образом даже 4 гига памяти не могла использовать полностью, видела только 3.5гиг. И помню был период, когда покупая новые ноутбуки я начинал с того, что расширял им именно память и думал о том, что уже прошло время, когда диск помогал памяти. Сейчас в первую очередь память должна помогать диску. Но с приходом SSD и особенно NVMe ситуация немножко выровнялась, память и диск теперь помогают друг другу в равной мере.
О чём ещё понастольгируем?