如何在Linux中使用bash创建二进制文件的未修改的十六进制转储?od和hexdump命令都在转储中插入空格,这是不理想的。

有没有一种方法来简单地写一个长字符串与所有十六进制字符,负空格或换行在输出?


当前回答

其他答案更可取,但对于纯Bash解决方案,我在这里修改了答案中的脚本,以便能够输出表示文件内容的连续十六进制字符流。(它的正常模式是模拟hexdump -C。)

其他回答

我认为这是最广泛支持的版本(只需要POSIX定义的tr和od行为):

cat "$file" | od -v -t x1 -A n | tr -d ' \n'

这使用od将每个字节打印为十六进制,不带地址,不跳过重复的字节,使用tr删除输出中的所有空格和换行符。注意,这里甚至没有触发末尾换行。(cat有意允许多核处理,当od仍在处理之前读取的部分时,cat可以等待文件系统。单核用户可能想用< "$file" od…以节省启动一个额外的进程。)

这段代码产生一个“纯”十六进制转储字符串,它比所有的运行速度更快 其他例子。 它已经在充满二进制零和所有换行的1GB文件上进行了测试。 它不依赖于数据内容,读取1MB记录而不是行。

perl -pe 'BEGIN{$/=\1e6} $_=unpack "H*"'

数十个计时测试表明,对于1GB的文件,下面这些其他方法要慢一些。 所有测试都将输出写入文件,然后通过校验和进行验证。 测试了三个1GB的输入文件:全部字节、全部二进制零和全部lf。

hexdump -ve '1/1 "%.2x"'                    #  ~10x  slower
od -v -t x1 -An | tr -d "\n "               #  ~15x  slower
xxd -p | tr -d \\n                          #   ~3x  slower
perl -e 'local \$/; print unpack "H*", <>'  # ~1.5x  slower
- this also slurps the whole file into memory

要扭转这个过程:

perl -pe 'BEGIN{$/=\1e6} $_=pack "H*",$_'

Perl一行程序:

perl -e 'local $/; print unpack "H*", <>' file

格式字符串可以使hexdump的行为完全按照你想要的那样(没有空格,一个字节一个字节):

hexdump -ve '1/1 "%.2x"'

1/1表示“每种格式应用一次并占用一个字节”,而“%。2x"是实际的格式字符串,就像printf一样。在本例中:2个字符的十六进制数,如果较短则前导为零。

其他答案更可取,但对于纯Bash解决方案,我在这里修改了答案中的脚本,以便能够输出表示文件内容的连续十六进制字符流。(它的正常模式是模拟hexdump -C。)