我是有一个URL.txt,里面有很多url,我想下载的时候保持原来的路径不变下载保存到本地

比如有一条URL链接是这样的:
http://www.1234.com/attachments_ … 431d7e980c44456.jpg

下载到本地的目录保持原来路径的结构,所有URL下载到这/home/down/:
/home/down/attachments_4/day_190502/19050222361431d7e980c44456.jpg

Aria2下载的图片只会下载保存到同一个文件夹,在一个文件夹图片存多了对服务器会造成影响
而wget命令的参数 -r 支持递归下载,能够下载并保持原有目录结构,但是下载速度太慢了,没有Aria2快4

大佬们有没有什么好的方案?
小弟在此谢过~

搜索引擎实在找不到答案了。。
安徽网友:Aria2 有 -d 命令…指定保存目录.
如果目录不存在, 自动创建.
自己写个循环. 读取目录路径或者随机生成.
浙江网友:更加简单啊, 正则处理路径, 去除 http://域名, 然后 -d 创建文件夹.
或者 mkdir -p 递归创建二级目录. 然后再 -d 指定
湖北网友:私信发联系方式…只写shell
云南网友:

  1. #!/bin/sh
  2. #执行方法: bash test.sh file.txt
  3. while read line
  4. do
  5.         dowm_link=$line
  6.         line=`echo $line | sed ‘s/http:\/\///’ | sed ‘s/https:\/\///’`
  7.         file_path=${line#*/}
  8.         echo $file_path
  9.         aria2c $dowm_link -o $file_path
  10. done < $1

复制代码

02-06 21:08