Подтвердить что ты не робот

Проблемы с запуском простых примеров сокращения количества карт в cygwin

Я просто пытаюсь запустить Hadoop на моем ноутбуке под управлением 64-разрядной Windows 7 в автономном режиме. Я установил Cygwin 1.7 в папку по умолчанию (c:\cygwin). У меня есть последняя JDK в папке c:\jdk1.7.0_03 и установлена ​​переменная среды JAVA_HOME.

когда я пытаюсь запустить следующую команду из приглашения cygwin:

$ bin/hadoop jar hadoop-examples-*.jar grep input output 'dfs[a-z.]+'

Вот ошибка, которую я получаю:

12/03/17 19:08:43 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
java.io.IOException: Failed to set permissions of path: \tmp\hadoop-ehtzrhf\mapred\staging\ehtzrhf837602798\.staging to 0700
        at org.apache.hadoop.fs.FileUtil.checkReturnValue(FileUtil.java:682)
        at org.apache.hadoop.fs.FileUtil.setPermission(FileUtil.java:655)
        at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:484)
        at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:319)
        at org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:189)
        at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:116)
        at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:848)
        at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:842)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:415)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1059)
        at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:842)
        at org.apache.hadoop.mapred.JobClient.submitJob(JobClient.java:816)
        at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:1253)
        at org.apache.hadoop.examples.Grep.run(Grep.java:69)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.examples.Grep.main(Grep.java:93)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:601)
        at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:68)
        at org.apache.hadoop.util.ProgramDriver.driver(ProgramDriver.java:139)
        at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:64)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:601)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:156)

Я пробовал как с Hadoop 1.0.1, так и с hadoop-0.20.205.0 и получал ту же проблему. Я обновил свой .bashrc с помощью

export TMP=/cygdrive/c/temp
export TEMP=/cygdrive/c/temp

Я также добавил папку cygwin bin в путь:

export PATH=.:/cygdrive/c/cygwin/bin:$HADOOP_INSTALL/bin

Я также считаю очень странным, что он показывает путь как \tmp... вместо/tmp/...

За исключением перекомпиляции или запуска Linux VM, любые идеи?

4b9b3361

Ответ 3

Мне удалось получить эту работу до того момента, когда будут отправлены задания, запущены задачи и скомпилированы результаты.

Однако нам все равно нужно заставить сервлеты понимать символические ссылки cygwin. Я не знаю, как это сделать в Jetty.

Эти две ссылки показывают, как разрешить Tomcat и причал следовать символическим ссылкам, но я не знаю, работает ли это в cygwin. * http://www.lamoree.com/machblog/index.cfm?event=showEntry&entryId=A2F0ED76-A500-41A6-A1DFDE0D1996F925 * Настроить Symlinks для одного каталога в Tomcat

В противном случае нам придется открыть код причала и заменить java.io.File на org.apache.hadoop.fs.LinkedFile.