我做了一个长管,以...| awk '{print $5"\\t\\t" $3"\\t"$4}'结尾 Linux终端中的...| awk '{print $5"\\t\\t" $3"\\t"$4}' 列用标签填充。 第一列条目具有不同的字符数,因此第二列结果不是完全垂直的。 如何让桌子看起来很完美?

在此输入图像描述

#1楼 票数:24 已采纳

尝试将结果传递给列-t:

...| awk '{print $5"\t\t" $3"\t"$4}'|column -t

希望能帮助到你

#2楼 票数:6

如果您的字段是制表符分隔符,则以下一行脚本可以打印带有单元格边框的表

sed -e 's/\t/_|/g' table.txt |  column -t -s '_' | awk '1;!(NR%1){print "-----------------------------------------------------------------------";}'

Description            |value                 |Comment
-----------------------------------------------------------------------
Internal               |322                   |
-----------------------------------------------------------------------
External               |42515                 |
-----------------------------------------------------------------------

  ask by Ivan translate from so

未解决问题?本站智能推荐:

2回复

基于多列过滤行

我想根据多列中的匹配来过滤行。 我有(各种)4 列制表符分隔的文件。 我需要检查第 1 列中的所有重复项,检查相应的第 4 列,如果值不同(即使仅出现一次),则打印整行(4 列)。 这是输入的示例: 因此结果如下: 因为“function-n”和“party-n”是 Column1 中唯一在 Col
2回复

在awk输出中添加另一列

我有一个HAProxy日志文件,其内容类似于以下内容: 我想提取一些字段以具有以下输出: 基本上,在这种情况下,输出应为: 唯一的问题是提取引荐来源网址,该网址位于大括号和用户代理之间,并用竖线分隔。 而且,用户代理具有可变数量的字段。 我能想到的唯一解决方案是分别提取引荐来源
2回复

使用awk在列内搜索

我正在通过bashscript建立联系系统。 我在其中输入联系人的文本文件如下所示: 在我要求的搜索选项中(他们选择了该列之后): 在这里,我想使用变量$ search遍历FIRST列,并以格式化的方式给我这些行。 例如: 如果他们输入(Bill),则应返回 如果他们输入(l
3回复

awk:根据列值提取列

我有一个看起来像这样的文件: 但更大...... 我想只提取其中包含全部0的列,因此我的输出文件应如下所示: 这可以通过一个简单的awk单行程(类似于awk:基于另一列的值的打印列 )来完成吗? 如果没有,还有其他方法可以使用bash有效地做到这一点吗?
1回复

AWK:多列数据填充操作

我正在通过集成到 bash 脚本(使用数据文件操作)的以下 AWK 代码(执行所有统计计算)来分析多个多列格式的数据填充: 基本上,在循环操作时,脚本为每个 CSV 文件计算第三列 (dG) 中数字的平均值,并检测其最小值(始终对应于 ID=1 的行): 并将结果保存在另一个多列输出文件中(对于 1
1回复

如何使用awk复制和粘贴多列

我正在尝试将一堆文件中的第六列复制并粘贴到一个文件中,将每一列粘贴在单独的列中(而不是在一个列中一个接一个地粘贴。) 我试过这段代码,但它只能部分工作,因为它只复制和粘贴每列的 50 行,而不是 114 的总数
3回复

awk根据其他列的条件创建新变量

我有一个具有以下结构的文件input.txt (〜100'000行): 我想根据以下条件创建一个名为SCORE的附加列的新文件output.txt : 如果:0.17≤Z0≤0.33和0.40≤Z1≤0.60,则SCORE = 1 如果:0.40≤Z0≤0.60和0.40≤Z1≤
3回复

Linux从行创建列

我有一个带有值的文本文件,我正在尝试从文件中的特定行创建并填充一列。 更准确地说,输入如下: 预期的输出应为: 解决方案可以是Bash,Awk或Sed。 先谢谢您的帮助。