我有一个大的(按行数)纯文本文件,我想把它分成更小的文件,也按行数。因此,如果我的文件有大约2M行,我想把它分成10个包含200k行的文件,或100个包含20k行的文件(加上一个文件;是否能被均匀整除并不重要)。

我可以在Python中相当容易地做到这一点,但我想知道是否有任何一种忍者方法来使用Bash和Unix实用程序(而不是手动循环和计数/分区行)。


当前回答

HDFS getmerge小文件并分割成合适的大小。

这个方法会导致换行:

split -b 125m compact.file -d -a 3 compact_prefix

我尝试为每个文件getmerge和分割成大约128 MB。

# Split into 128 MB, and judge sizeunit is M or G. Please test before use.

begainsize=`hdfs dfs -du -s -h /externaldata/$table_name/$date/ | awk '{ print $1}' `
sizeunit=`hdfs dfs -du -s -h /externaldata/$table_name/$date/ | awk '{ print $2}' `
if [ $sizeunit = "G" ];then
    res=$(printf "%.f" `echo "scale=5;$begainsize*8 "|bc`)
else
    res=$(printf "%.f" `echo "scale=5;$begainsize/128 "|bc`)  # Celling ref http://blog.csdn.net/naiveloafer/article/details/8783518
fi
echo $res
# Split into $res files with a number suffix. Ref:  http://blog.csdn.net/microzone/article/details/52839598
compact_file_name=$compact_file"_"
echo "compact_file_name: "$compact_file_name
split -n l/$res $basedir/$compact_file -d -a 3 $basedir/${compact_file_name}

其他回答

如果你只是想用x行数来分割每个文件,给出的关于分割的答案是可以的。但是,我很好奇为什么没有人关注这些要求:

"without have to count them" ->使用wc + cut "有剩余的额外文件" ->分裂默认情况下

我不能没有“wc + cut”,但我正在使用它:

split -l  $(expr `wc $filename | cut -d ' ' -f3` / $chunks) $filename

这可以很容易地添加到你的.bashrc文件函数中,所以你可以调用它,传递文件名和块:

 split -l  $(expr `wc $1 | cut -d ' ' -f3` / $2) $1

如果您想在额外的文件中只有x个块而没有余数,只需调整公式对每个文件进行求和(chunks - 1)。我确实使用这种方法,因为通常我只想要x个文件数量,而不是每个文件x行:

split -l  $(expr `wc $1 | cut -d ' ' -f3` / $2 + `expr $2 - 1`) $1

你可以把它添加到一个脚本,并称之为你的“忍者方式”,因为如果没有适合你的需求,你可以构建它:-)

Use:

sed -n '1,100p' filename > output.txt

这里,1和100是您将在output.txt中捕获的行号。

这里有一个例子,把文件“toSplit.txt”分成200行小文件“splited00.txt”,splited01.txt,…"splited25.txt"…

split -l 200——numeric-suffix——additional-suffix=".txt

HDFS getmerge小文件并分割成合适的大小。

这个方法会导致换行:

split -b 125m compact.file -d -a 3 compact_prefix

我尝试为每个文件getmerge和分割成大约128 MB。

# Split into 128 MB, and judge sizeunit is M or G. Please test before use.

begainsize=`hdfs dfs -du -s -h /externaldata/$table_name/$date/ | awk '{ print $1}' `
sizeunit=`hdfs dfs -du -s -h /externaldata/$table_name/$date/ | awk '{ print $2}' `
if [ $sizeunit = "G" ];then
    res=$(printf "%.f" `echo "scale=5;$begainsize*8 "|bc`)
else
    res=$(printf "%.f" `echo "scale=5;$begainsize/128 "|bc`)  # Celling ref http://blog.csdn.net/naiveloafer/article/details/8783518
fi
echo $res
# Split into $res files with a number suffix. Ref:  http://blog.csdn.net/microzone/article/details/52839598
compact_file_name=$compact_file"_"
echo "compact_file_name: "$compact_file_name
split -n l/$res $basedir/$compact_file -d -a 3 $basedir/${compact_file_name}

你也可以使用AWK:

awk -vc=1 'NR%200000==0{++c}{print $0 > c".txt"}' largefile