Веб сервера поддерживают обычно соединение в течении какого то времени. Но что делать, если нужно скачать файл, который просто не успевает закачаться за отведенное время?
В Unix файл можно скачать по ссылке командой wget, вот так:
Но при обрыве утилита оставит только то, что успело передаться. Есть дополнительный флажок —continue для возобновления закачки. Тогда wget сделает несколько попыток продолжить закачку.
|
|
wget --continue http://file-url |
Но если файл очень длинный, то количества попыток может не хватить. Тогда нужно задать их с помощью еще одного ключа —tries=[число попыток]. При этом значение «ноль» обеспечит не ограниченное их число:
|
|
wget --continue --tries=0 http://file-url |
UNIX
Данная запись опубликована в 22.10.2019 21:51 и размещена в рубрике Программирование.
Вы можете перейти в конец страницы и оставить ваш комментарий.
Мало букафф? Читайте есчо !
Сентябрь 12, 2018 г.
Как произвести в bash/sh простейшие вычисления? Давайте рассмотрим несколько примеров.
Операции с целыми числами
Пока вас интересуют целочисленные вычисления, вы можете пользоваться командами встроенными в bash.
Вот 6 арифметических команд, которые ...
Читать
Сентябрь 8, 2024 г.
Продолжается развиваться ситуация в духе "все запретить", на этот раз прикрыли youtube. Понятно, что это ожидалось, и площадка youtube вовлечена во все ...
Читать
Декабрь 19, 2015 г.
Мне пришла мысль кое что "по-кодить" для веб-сервера, начал вспоминать когда то горячо любимый C++. Но сразу столкнулся с тем фактом, что в современной UNIX не установлен компилятор С++ по умолчанию.
Устанавливаем
Итак, устанавливаем Си на хостинге ...
Читать
Май 31, 2025 г.
cron — это системный планировщик задач в Linux. Он позволяет запускать команды по расписанию, например: каждые 15 минут отправлять запрос на сайт или запускать скрипт.
В статье разберём два способа как правильно добавить новую строку в crontab, на ...
Читать