«hadoop» 태그된 질문

5
하둡을 설치하는 방법?
Ubuntu 12.04 버전에서 Hadoop을 설치하려고합니다. http://michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ 의 지침에 따라 java-6-openjdkUbuntu 소프트웨어 센터에서 설치 했습니다. 에 설정 java_home했습니다 .bashrc. java_home하둡 에서도 설정 됩니다 conf/env.sh. 네임 노드를 포맷하는 동안 다음 오류가 발생합니다. usr/lib/jvm/java-6-openjdk/bin/java no such file or directory. 고맙습니다. 그러나 64 비트 OS입니다.
26 hadoop 

2
ssh-copy-id를 실행 취소하는 방법?
2 노드 hadoop 클러스터가 있습니다. 마스터 에서이 명령을 실행했습니다. $ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub hadoop@192.168.1.1 어떻게 취소 할 수 있습니까? 실제로 키를 다시 할당하고 싶습니다. 192.168.1.1 노예입니다.
15 10.04  ssh  hadoop 

1
실행중인 Zookeeper의 버전을 어떻게 알 수 있습니까?
랩톱에서 Ubuntu-12.04 VM을 실행 중입니다. 명령을 사용하여 Zookeeper를 설치했습니다. sudo apt-get install zookeeper 이제 전통적인 우분투 프로그램의 경우 --version명령 행 옵션을 사용하여 버전을 확인합니다 . 예를 들어 gcc --version gcc 버전을 4.6.3으로 제공합니다 (예 :) 마찬가지로 사육사 버전을 어떻게 알 수 있습니까? 우선, 그것은 동물원 사육사라는 바이너리가 없습니다. zooinspector`--version에 응답하지 …

2
Hadoop에서 단일 노드 클러스터를 시작할 때 "권한 거부"오류
우분투 10.10에서 일하고 있으며 하둡에서 단일 노드 클러스터를 시작하려고합니다. hadoop@abraham-Dimension-3000:/usr/local/hadoop$ bin/start-all.sh mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out /usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out: No such file or directory head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out' for reading: No such file or directory localhost: mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission …
10 hadoop 

3
로컬 호스트를 SSH 할 수 없습니다
로컬 호스트를 SSH 할 수 없습니다. Ubuntu 12.04 LTS (32 비트)에도 OpenSSH 서버를 설치했습니다. net에 연결 (ip : 192.168.1.2) 설치된 hadoop, 로컬 컴퓨터에 대해 hadoop을 실행합니다. 내가 얻는 것은 다음과 같습니다. root@kunal-Extensa-4620:/# ssh -vvv localhost OpenSSH_5.9p1 Debian-5ubuntu1.1, OpenSSL 1.0.1 14 Mar 2012 debug1: Reading configuration data /etc/ssh/ssh_config debug1: /etc/ssh/ssh_config line …
10 ssh  localhost  hadoop 

1
HDFS에서 로컬 시스템으로 파일을 복사하는 데 문제가 있음 [copyToLocal : 권한이 거부 됨]
시스템에서 mapreduce 프로그램을 성공적으로 설치하고 실행했습니다 (Ubuntu 14.04). 출력 파일을 다음과 같이 볼 수 있습니다. hadoopuser@arul-PC:/usr/local/hadoop$ bin/hadoop dfs -ls /user/hadoopuser/MapReduceSample-output Found 3 items -rw-r--r-- 1 hadoopuser supergroup 0 2014-07-09 16:10 /user/hadoopuser/MapReduceSample-output/_SUCCESS drwxr-xr-x - hadoopuser supergroup 0 2014-07-09 16:10 /user/hadoopuser/MapReduceSample-output/_logs -rw-r--r-- 1 hadoopuser supergroup 880838 2014-07-09 16:10 /user/hadoopuser/MapReduceSample-output/part-00000 다음 명령을 사용하여 …
1 14.04  gedit  hadoop 
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.