23°

Linux 切割大文件

背景

日常开发中,难免遇到日志文件很大,打开要很久,影响到查询的情况。

最近发现一个老的项目,就一个日志文件,没有按天划分,并采用追加的方式,已经记录了大半年的日志,50G,这种很显然需要切割才能方便查询。

 

解决方案

1.如果是查询最近的日志,可以用tail 命令,例如下面,查询error.log的最后一千行

tail -n 1000 error.log

 

2.如果是查询最早的日志,可以用head命令,例如下面,查询error.log的最后一千行

head -n 1000 error.log

 

3.如果无法确定行数, 可以采用切分大文件, 例如下面,将error.log拆成每个文件十万行

split -l 100000 error.log -d -a 4 error.log
  • -a 4: 后缀系数为四位数

  • -d:使用数字作为后缀

  • -l:每一输出档的列数大小

本文由【项昂之】发布于开源中国,原文链接:https://my.oschina.net/csp277/blog/3159611

全部评论: 0

    我有话说: