Hadoop fs -ls 命令获取前 10 个文件

Hadoop fs -ls command to get 1st 10 files

我有这样一个 hadoop 命令:

hadoop fs -ls /user/hive/warehouse/mashery_db.db/agg_per_mapi_stats_five_minutes/ | sort | awk  '{ if (index(, ".hive") == 0 &&  <= "'"2016-02-10"'" &&  <= "'"05:00"'") print  }'

我想从中获取前 10 个值,而不是获取目录中的所有文件。

head -10

的末端添加另一个管道
hadoop fs -ls /stuff | sort | awk whatever | head -10

只需使用

hadoop fs -ls /path/of/hdfs/location/ | head -10

那行得通。