Веб сервера поддерживают обычно соединение в течении какого то времени. Но что делать, если нужно скачать файл, который просто не успевает закачаться за отведенное время?
В Unix файл можно скачать по ссылке командой wget, вот так:
Но при обрыве утилита оставит только то, что успело передаться. Есть дополнительный флажок —continue для возобновления закачки. Тогда wget сделает несколько попыток продолжить закачку.
|
|
wget --continue http://file-url |
Но если файл очень длинный, то количества попыток может не хватить. Тогда нужно задать их с помощью еще одного ключа —tries=[число попыток]. При этом значение «ноль» обеспечит не ограниченное их число:
|
|
wget --continue --tries=0 http://file-url |
UNIX
Данная запись опубликована в 22.10.2019 21:51 и размещена в рубрике Программирование.
Вы можете перейти в конец страницы и оставить ваш комментарий.
Мало букафф? Читайте есчо !
Март 17, 2024 г.
В Unix для замены текстового значения в группе файлов можно использовать утилиту rpl.
Установите rpl:
[crayon-6967639164cbe159127011/]
Для замены тестовой строки выполните команду в файле FILENAME:
[crayon-6967639164ccc199842264/]
Подстановка ...
Читать
Сентябрь 8, 2024 г.
Продолжается развиваться ситуация в духе "все запретить", на этот раз прикрыли youtube. Понятно, что это ожидалось, и площадка youtube вовлечена во все ...
Читать
Декабрь 19, 2015 г.
Мне пришла мысль кое что "по-кодить" для веб-сервера, начал вспоминать когда то горячо любимый C++. Но сразу столкнулся с тем фактом, что в современной UNIX не установлен компилятор С++ по умолчанию.
Устанавливаем
Итак, устанавливаем Си на хостинге ...
Читать
Май 30, 2018 г.
Занимался пару дней перетряхиванием конфигурации varnish на веб-сервере, решил запротоколировать некоторые моменты, если вдруг понадобится на будущее. ...
Читать