Веб сервера поддерживают обычно соединение в течении какого то времени. Но что делать, если нужно скачать файл, который просто не успевает закачаться за отведенное время?
В Unix файл можно скачать по ссылке командой wget, вот так:
Но при обрыве утилита оставит только то, что успело передаться. Есть дополнительный флажок —continue для возобновления закачки. Тогда wget сделает несколько попыток продолжить закачку.
|
|
wget --continue http://file-url |
Но если файл очень длинный, то количества попыток может не хватить. Тогда нужно задать их с помощью еще одного ключа —tries=[число попыток]. При этом значение «ноль» обеспечит не ограниченное их число:
|
|
wget --continue --tries=0 http://file-url |
UNIX
Данная запись опубликована в 22.10.2019 21:51 и размещена в рубрике Программирование.
Вы можете перейти в конец страницы и оставить ваш комментарий.
Мало букафф? Читайте есчо !
Ноябрь 28, 2018 г.
По умолчанию GREP выводит всю строку, где был обнаружен указанный вами шаблон поиска. Для форматированных текстовых файлов это подходит. Но если в поиск попадает минифицированный текстовый или binary файл, то в консоль вываливается неприлично много текста. ...
Читать
Декабрь 2, 2018 г.
Lessc не имеет ключа 'слежения', чтобы выполнять перекомпиляцию при изменении less файлов проекта, как например это сделано у sass компилятора. Это весьма не удобно на этапе верстки шаблона из макета.
Для отслеживания я установил UNIX утилиту inotify. ...
Читать
Ноябрь 23, 2015 г.
Столкнулся недавно с такой проблемой - не смог файловым менеджером даже просто открыть папку с временными файлами на своём веб-сервере под UNIX. Размер, папки, т.е. сам список файлов оказался объемом в 85 мегабайт. Сколько там файлов, я даже не представляю. ...
Читать
Апрель 8, 2019 г.
Речь пойдет о полезных командах для просмотра логов в UNIX. Все мы знаем, что в папке /var/log, демоны unix-системы типично сохраняют свои логи.
Переходим в нужную папку:
[crayon-69ed4020217c8374327685/]
К примеру, мы хотим посмотреть файл ...
Читать