我发现了这个很棒的进度条:Great Example
如何在curl运行时实现这个进度条,并对真正大的文件(60GB)进行排序和唯一等操作,大约需要3小时。
示例:count="$(awk '{print $1}' $FILE_NAME | sort -T /diskXX --parallel=$PARALLEL | uniq | wc -l)"
谢谢!
家伙

最佳答案

使用pv

pv "$FILE_NAME" | awk '{print $1}' | sort -T /diskXX --parallel="$PARALLEL" | uniq | wc -l

或来自大小为GB的stdin:
pv -s 60g <"$FILE_NAME" | awk '{print $1}' | sort -T /diskXX --parallel="$PARALLEL" | uniq | wc -l

man pv
pv通过提供时间、完成百分比(带进度条)、当前
吞吐量、传输的总数据量和预计到达时间

关于linux - 实现进度条,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/50114086/

10-13 05:35