Hadoop fs -ls 命令获取前 10 个文件
Hadoop fs -ls command to get 1st 10 files
我有这样一个 hadoop 命令:
hadoop fs -ls /user/hive/warehouse/mashery_db.db/agg_per_mapi_stats_five_minutes/ | sort | awk '{ if (index(, ".hive") == 0 && <= "'"2016-02-10"'" && <= "'"05:00"'") print }'
我想从中获取前 10 个值,而不是获取目录中的所有文件。
在 head -10
的末端添加另一个管道
hadoop fs -ls /stuff | sort | awk whatever | head -10
只需使用
hadoop fs -ls /path/of/hdfs/location/ | head -10
那行得通。
我有这样一个 hadoop 命令:
hadoop fs -ls /user/hive/warehouse/mashery_db.db/agg_per_mapi_stats_five_minutes/ | sort | awk '{ if (index(, ".hive") == 0 && <= "'"2016-02-10"'" && <= "'"05:00"'") print }'
我想从中获取前 10 个值,而不是获取目录中的所有文件。
在 head -10
hadoop fs -ls /stuff | sort | awk whatever | head -10
只需使用
hadoop fs -ls /path/of/hdfs/location/ | head -10
那行得通。