Веб сервера поддерживают обычно соединение в течении какого то времени. Но что делать, если нужно скачать файл, который просто не успевает закачаться за отведенное время?
В Unix файл можно скачать по ссылке командой wget, вот так:
Но при обрыве утилита оставит только то, что успело передаться. Есть дополнительный флажок —continue для возобновления закачки. Тогда wget сделает несколько попыток продолжить закачку.
|
|
wget --continue http://file-url |
Но если файл очень длинный, то количества попыток может не хватить. Тогда нужно задать их с помощью еще одного ключа —tries=[число попыток]. При этом значение «ноль» обеспечит не ограниченное их число:
|
|
wget --continue --tries=0 http://file-url |
UNIX
Данная запись опубликована в 22.10.2019 21:51 и размещена в рубрике Программирование.
Вы можете перейти в конец страницы и оставить ваш комментарий.
Мало букафф? Читайте есчо !
Февраль 20, 2018 г.
Если вы укажите полный путь архивируемой папки в UNIX, то файлы будут размещены в архиве вместе полным путем. Не всегда это удобно и правильно, зависит от выполняемой задачи.
Как отсечь абсолютные пути, оставив только относительные?
Для этого ...
Читать
Сентябрь 9, 2018 г.
Если после команды
[crayon-69c6b4bd82ace050847593/]
Вы видите что то вроде:
[crayon-69c6b4bd82ad8561442759/]
Возможно вам поможет следующий алгоритм установки.
therubyracer потребовался мне для работы lessc, потому я стал искать решение, как ...
Читать
Май 31, 2025 г.
В эпоху блокировок, санкций актуальным становятся пробросы туннелей до определенных сервисов. Расскажу на примере SSH-туннеля для доступа к OpenAI API из России.
Т.е. ваш сервер размещен в стране, где доступ к api.openai.com ограничен, но хотите использовать ...
Читать
Февраль 13, 2018 г.
Ещё одна шпаргалка по администрированию UNIX серверов. На этот раз рассмотрим несколько полезных команд для создания бекапа базы данных из консоли.
Нам понадобится команда mysqldump, которая позволяет создавать sql скрипт базы или её части.
Создание ...
Читать