Подтвердить что ты не робот

Просмотреть содержимое файла в hdfs hadoop

Вероятно, вопрос noob, но есть ли способ прочитать содержимое файла в hdfs, кроме копирования на локальный и чтение через unix?

Итак, сейчас я делаю следующее:

  bin/hadoop dfs -copyToLocal hdfs/path local/path

  nano local/path

Мне интересно, могу ли я открыть файл непосредственно в hdfs, а не копировать его на локальном, а затем открывать его.

Спасибо

4b9b3361

Ответ 1

Я считаю, что hadoop fs -cat <file> должен выполнить эту работу.

Ответ 2

Если размер файла огромен (что будет иметь место в большинстве случаев), с помощью команды "cat" вы не захотите взрывать свой терминал, выбрасывая все содержимое вашего файла. Вместо этого используйте трубопровод и получите только несколько строк файла.

Чтобы получить первые 10 строк файла, hadoop fs -cat 'путь к файлу' | голова -10

Чтобы получить последние 5 строк файла, hadoop fs -cat 'путь к файлу' | хвост -5

Ответ 3

hadoop dfs -cat <filename>  or    hadoop dfs -cat <outputDirectory>/*

Ответ 4

Если вы используете hasoop 2.x, вы можете использовать

hdfs dfs -cat <file>

Ответ 5

  1. SSH на ваш кластер EMR ssh [email protected] -i yourPrivateKey.ppk
  2. Выполните эту команду /usr/lib/spark/bin/spark-shell --conf spark.eventLog.enabled=true --conf spark.eventLog.dir=hdfs://yourEmrClusterIpAddress:8020/eventLogging --class org.apache.spark.examples.SparkPi --master yarn --jars/usr/lib/spark/examples/jars/spark-examples_2.11-2.4.0.jar
  3. Перечислите содержимое только что созданного каталога, в котором теперь должен быть новый файл журнала из только что выполненного запуска

    [hadoop @ip-1-2-3-4 bin] $ hdfs dfs -ls/eventLogging Найдено 1 элементов -rwxrwx --- 1 hadoop hadoop 53409 2019-05-21 20:56/eventLogging/application_1557435401803_0106

  4. Теперь для просмотра файла запустите hdfs dfs -cat/eventLogging/application_1557435401803_0106

Ресурсы: https://hadoop.apache.org/docs/r2.7.3/hadoop-project-dist/hadoop-hdfs/HDFSCommands.html