Веб сервера поддерживают обычно соединение в течении какого то времени. Но что делать, если нужно скачать файл, который просто не успевает закачаться за отведенное время?
В Unix файл можно скачать по ссылке командой wget, вот так:
Но при обрыве утилита оставит только то, что успело передаться. Есть дополнительный флажок —continue для возобновления закачки. Тогда wget сделает несколько попыток продолжить закачку.
|
|
wget --continue http://file-url |
Но если файл очень длинный, то количества попыток может не хватить. Тогда нужно задать их с помощью еще одного ключа —tries=[число попыток]. При этом значение «ноль» обеспечит не ограниченное их число:
|
|
wget --continue --tries=0 http://file-url |
UNIX
Данная запись опубликована в 22.10.2019 21:51 и размещена в рубрике Программирование.
Вы можете перейти в конец страницы и оставить ваш комментарий.
Мало букафф? Читайте есчо !
Май 31, 2025 г.
cron — это системный планировщик задач в Linux. Он позволяет запускать команды по расписанию, например: каждые 15 минут отправлять запрос на сайт или запускать скрипт.
В статье разберём два способа как правильно добавить новую строку в crontab, на ...
Читать
Январь 19, 2018 г.
Давайте рассмотрим порядок действий и настройку SSL сертификата в apache2. В сети довольно много гайдов. Все они примерно следуют одному и тому же алгоритму. ...
Читать
Февраль 6, 2018 г.
Как развернуть дамп базы данных mySQL, созданный ранее?
Дамп представляет из себя mysql скрипт, в котором последовательно создаются таблицы (CREATE TABLE ...) и, возможно, другие объекты и производиться их наполнение (INSERT INTO ...). Нужно лишь отправить ...
Читать
Февраль 5, 2025 г.
Продолжаю использовать Ubuntu (v22) на WSL 2. Не давно столкнулся с не приятным моментом. Из WSL вдруг перестала быть видимой внешняя сеть, хотя до этого ...
Читать