'하둡(Hadoop)'에 해당되는 글 8건

  1. 2013.10.08 하둡(Hadoop)을 주목하라! 1
  2. 2013.08.27 hadoop의 jdk 설치
  3. 2013.06.14 hadoop에 필요한 JDK 설치전 설치여부확인하기
  4. 2013.06.14 하둡의 종류
  5. 2013.06.14 하둡 설치
728x90

빅 데이터와 함께 주목받은 것이 바로 "하둡(Hadoop)"이다. 더그 커팅과 마이크 카파렐라에 의해 개발된 하둡은 간단히 말해 방대한 양의 데이터를 분산 처리하여 빠른 시간 내 결과를 제공하는 오픈소스 기반 데이터 관리 기술로 분산시스템에서 대량의 자료를 처리하는 자유 자바 소프트웨어 프레임 워크다.



하둡의 뿌리는 구글과 맞닿아 있다. 이는 구글이 설립 초기부터 대규모 자료를 검색하고 분석하는데 사용한 분산 파일 시스템 GFS(Google File System)과 분산 처리 시스템 MapReduce에 대한 논물을 접한 더그 커팅이 이를 참고로 구현한 것이기 때문인데, 하둡은 구글 파일 시스템(GFS)을 대체할 수 있는 하둡 분산 파일 시스템(HDFS)과 맵리듀스(MapReduce)* 알고리즘을 구현한 오픈소스 프레임 워크인 것이다. '하둡'이란 명칭은 더그 커팅의 아들이 가지고 놀던 장난감 코끼리의 이름을 따서 지어졌다고 전해지는데, 그 때문에 하둡의 심볼 역시 노란 코끼리다.


대표적인 Hadoop 솔루션 업체로는 클라우데라(Cloudera)와 호튼웍스(Hortonworks)가 있다.

그중에서 나는 클라우데라에 대해 알아 보았는데.


클라우데라(Cloudera)는 빅 데이터와 클라우드 시장의 교육 및 기술자원을 제공하고 있다.




클라우 데라는 아파치 하둡 기반의 소프트웨어 및 서비스 분야의 리더이자, 모든 데이터를 보고 기업과 조직에게 강력한 새로운 데이터 플랫폼을 제공한다.

클라우 데라는 엔터프라이즈 코어 하둡을 위한 가장 포괄적인 솔루션과 데이터 센터의 빅 데이터를 위한 기초를 제공하고 있다. 클라우데라 매니저, CDH, 하둡 및 관련 프로젝트에 대한 클라우 데라에서 제공하는 오픈 소스 배포판 구성 및 운영등, 사용자들이 하둡과 관련된 필요한 기술들을 제공한다. 

CDH는 사용자들의 요구 사항을 충족시키기 위해 특별히 제작된 하둡 및 관련 프로젝트의 오픈 소스 배포판으로써 

확장 가능한 스토리지 및 분산 컴퓨팅 기능 뿐만 아니라, 보안, 가용성, 광범위한 통합등 하둡의 핵심요소들을 제공한다.

클라우데라에서는 무료로 다운로드를 받을수 있으며, 넓은 범위에 걸쳐 사용 사례 또한 많다.

현재 금융서비스, 정부, 통신, 미디어, 웹, 광고, 소매, 에너지, 생물 정보학, 의료, 대연 연구, 게임,등 여러 분야에서 CDH 가 널리 사용되고 있다.

728x90

'하둡(Hadoop)' 카테고리의 다른 글

hadoop의 jdk 설치  (0) 2013.08.27
hadoop에 필요한 JDK 설치전 설치여부확인하기  (0) 2013.06.14
하둡의 종류  (0) 2013.06.14
하둡 설치  (0) 2013.06.14
CDH 설정 변경이 안되는 경우  (0) 2013.06.14
Posted by 정망스
,
728x90

이번글은 Sun사에서 제공하는 JDK를 설치하겠습니다. 참고로 말씀드리자면 JDK는 개발툴이며 JRE는 실행툴이라고 생각하시구요 버전은 가능한한 최신 버전을 다받아주세요.

 

설치전 서버마타 설치자(개발자)마다 설치하는 위치가 다릅니다.

제가 설치하는 서버사양및 서버 경로는 아래와 같습니다.

 

서버 OS : Cent OS 6.* 64bit형

설치경로 : /usr/local/jdk

 

우선 다운받도록 하겠습니다. 다운받으실때는 서버및 서버가 *86형태인제 *64형태인지 확인해보시고 설치하세요.

확인법은 Linux 콘솔에서 "uname -a" 하시면 됩니다.. ^^*

이제 다운받아서 설치진행하도록 하겠습니다.

여기 주소(http://www.oracle.com/technetwork/java/javase/downloads/index.html)에 접속하신후 JDK와 JRE중에 JDK를 클릭해주세요.

 

 

 

위에 JDK 다운로드를 클릭하신후 원하시는 서버타입에 맞게 다운로드를 받으세요..]

전 Linux 64비트 형태의 서버를 가지고있기때문에 http://download.oracle.com/otn-pub/java/jdk/7u10-b18/jdk-7u10-linux-x64.tar.gz 파일을 다운받았습니다.

* 주의 : 과거에는 bin파일 형태로 제공했던것 같은데, 2013년 01월에 다운받는 최신버전에서는 bin파일은 없네요. 배포판 스타일을 바꾼듯합니다... bin형식으로 다운받아서 실행했던게 아니라는거 참고하세요. ^^*

 

 

설치 순서

1. 압축풀기(다운로드 완료후)

[root@ns1 install]# tar xvfzp jdk-7u10-linux-x64.tar.gz 
jdk1.7.0_10/
jdk1.7.0_10/THIRDPARTYLICENSEREADME-JAVAFX.txt
jdk1.7.0_10/THIRDPARTYLICENSEREADME.txt
jdk1.7.0_10/lib/
jdk1.7.0_10/lib/jexec
jdk1.7.0_10/lib/javafx-mx.jar
jdk1.7.0_10/lib/visualvm/
jdk1.7.0_10/lib/visualvm/visualvm/
jdk1.7.0_10/lib/visualvm/visualvm/modules/

~~~~~~~~~~~~~~~~~~~~~~~~이하 생략~~~~~~~~~~~~~~~~~~~~~~~~

jdk1.7.0_10/man/ja_JP.UTF-8/man1/javac.1
jdk1.7.0_10/man/ja_JP.UTF-8/man1/wsimport.1
jdk1.7.0_10/man/ja_JP.UTF-8/man1/tnameserv.1
jdk1.7.0_10/man/ja_JP.UTF-8/man1/pack200.1
jdk1.7.0_10/man/ja_JP.UTF-8/man1/jcmd.1
jdk1.7.0_10/man/ja_JP.UTF-8/man1/jstat.1


 

2. 파일 압축 잘 풀렸는지 확인

[root@ns1 install]# ll

total 198208
drwxr-xr-x 8 root root 4096 Nov 28 21:10 jdk1.7.0_10
-rw-r--r-- 1 root root 96159666 Jan 11 09:25 jdk-7u10-linux-x64.tar.gz

 

3. 설치 경로 옮기기(원하시는곳에 옮기시면 됩니다. 전 /usr/local/에 옮겼습니다.)

[root@ns1 install]# mv jdk1.7.0_10/ /usr/local/jdk

 

4.설치가 완료되어서 path 지정을 한후 적용합니다. vi로 파일을 열어서 녹색으로 된것 2줄 추가해주신후 저장해주세요.

[root@ns1 install]# vi /etc/profile

마지막줄에

unset i

unset pathmunge 라고 되있는데 그 밑에 2줄을 추가해주세요.

export JAVA_HOME=/usr/local/jdk

export PATH=$JAVA_HOME/bin

 

5. path 적용및 Java 설치 확인

[root@ns1 install]# source /etc/profile

[root@ns1 install]# java -version
java version "1.7.0_10"
Java(TM) SE Runtime Environment (build 1.7.0_10-b18)
Java HotSpot(TM) 64-Bit Server VM (build 23.6-b04, mixed mode)

 

 

 

위와 같이 나왔다면 JDK 설치 완료되었습니다. 이제 Hadoop이 운영될수있는 기반이 마련되었습니다.

Hadoop Cluster가 수십, 수백대라면 모든 서버에 다 설치해주세요..똑같은 위치에 설치하는걸 강력히 추천드립니다.

 

감사합니다.

728x90

'하둡(Hadoop)' 카테고리의 다른 글

하둡(Hadoop)을 주목하라!  (1) 2013.10.08
hadoop에 필요한 JDK 설치전 설치여부확인하기  (0) 2013.06.14
하둡의 종류  (0) 2013.06.14
하둡 설치  (0) 2013.06.14
CDH 설정 변경이 안되는 경우  (0) 2013.06.14
Posted by 정망스
,
728x90

JVM은 Java virtual Machine의 약자로 window를 사용하시다면 virtual machine(버처머신)이라고 들어보셨을겁니다. windows 버처머신의 경우 windows운영체제에 새로운 OS를 설치할수있도록 특정 공간을 활용하는건데요. JVM의 경우는 Linux기반에 java로 만들어진 버처머신입니다.. Linux OS에서 특정 공간을 할당해 특별히 활용하겠다라나는 의미입니다.

그 특정 공간이 Hadoop과 연관되있는것입니다. JVM의 말씀드렸듯이 java로 만들어져있기때문에 java가 구동할수있는 환경이 필요합니다. 그 환경이 JDK입니다. 이제 JDK에대해 간단하게 설명하자면....

 

JDK는 Java Development Kits의 약자로 Java 개발 킷이라고합니다. 자세한건 저도 잘 모르기에 넘어가구요.

운영체제도 Windows, Linux, Apple사에서만든 OS등이있듯이 JDK에 크게 2게로 나누워집니다.

 

  • OpenJDK ( open프로젝트 )
  • Sun JDK ( SUN이런 업체에서만든 kits )

 

Hadoop을 하기위해서 JDK가 필요한데, 저는 Sun사에서 만들어서 배포하고있는 JDK를 이용하고 사용하고있습니다.

OpenJDK도 잘 돌아갈꺼라 예상되지만 openJDK의 기능이 sun사에서 만든 JDK보다 떨어진다는 글을 읽은후 계속 Sun사에서 만든 JDK를 써왔습니다. (고정관념일수도있습니다.)

우선 혹시 리눅스 서버에 JDK가 설치되어있는지 확인하는 여부와 어디 제품인제 알아보는 방법은 간단한데요..

명령어는 java -version하면됩니다. 아래와 같이

 

아래는 미설치 상태임을 나타네고있습니다. Hadoop을 하기위해서 JDK 설치가 필요합니다.

  [root@ns1 ~]# java -version

  -bash: java: command not found

 
아래는 JDK가 설치가되있는데 sun사에서 만든 JDK가 설치되있네요.. Hadoop을 테스트하기위해선 더이상 하실것이 없음.

  [root@ns1 jdk]# java -version
  
java version "1.6.0_26"
  Java(TM) SE Runtime Environment (build 1.6.0_26-b03)
  Java HotSpot(TM) 64-Bit Server VM (build 20.1-b02, mixed mode)

 

아래는 OpenJDK가 설치가되있는데 sun사에서 만든 JDK가 변경을 해주세요.

  [root@ns1 jdk]# java -version
  java version "1.6.0_26"
  openJDK(TM) SE Runtime Environment (build 1.6.0_26-b03) <- 정확하지는 않지만 시작을 openJDk시작
  openJDK HotSpot(TM) 64-Bit Server VM (build 20.1-b02, mixed mode)

 

OpenJDK의 경우가 설치되었다면 삭제하 Sun사에서 제공한는 JDK를 설치해주세요.. (옵션입니다.)

제가 Sun사의 JDK를 사용하는 관계로... 이해해 주시기 바랍니다.

 

다음장에 Sun사의 JDK설치 글 올리겠습니다.

 

감사합니다.

 

728x90

'하둡(Hadoop)' 카테고리의 다른 글

하둡(Hadoop)을 주목하라!  (1) 2013.10.08
hadoop의 jdk 설치  (0) 2013.08.27
하둡의 종류  (0) 2013.06.14
하둡 설치  (0) 2013.06.14
CDH 설정 변경이 안되는 경우  (0) 2013.06.14
Posted by 정망스
,

하둡의 종류

하둡(Hadoop) 2013. 6. 14. 19:47
728x90

Hadoop은 과연 1곳의 회사에서 만들었을까??

우선 시작은 1곳에서 시작되었겠죠.. 그게 Apache Hadoop이며 Open Porject로 운영중에 있습니다.

Hadoop은 결코 만만한 상태가 아닙니다. 관리적인부분도 어려우며, 구성하기도 힘들죠...

그래서 그뒤 여러 업체들이 Hadoop에 여러 좋은 프로그램을 같이 썩어 새로운 소프트웨어를 만든거죠..

위에 말씀드렸듯이 기능은 똑같습니다.

단 만든회사가 다르고 Hadoop과 연관된 프로젝트 Package작업을 최상으로 하기위해 커스터 마이징을 하게됩니다.

 

 

그럼 Hadoop은 어느어느 회사에서 만들었는지 표로 한번 보겠습니다.

Hadoop 종류

Apache Hadoop

Cloudera Hadoop

MapR Hadoop

제조사

Open Project

클라우드라

mapR

위에 보셨듯이 Hadoop은 Apache Hadoop및 서브 프로젝트들을 쉽게 설치,쉬운 관리, 쉬운 운영을 할수있도록 다시 Package를 했다고 보시면 될듯합니다.


아래 보시면 Apache Hadoop의 Package와 클라우데라 Hadoop의 Package형태가 약간 다르다는 걸 확인 하실수 있으실껍니다..

 

1.Apache Hadoop

  • Hadoop CommonThe common utilities that support the other Hadoop subprojects.
  • HDFSA distributed file system that provides high throughput access to application data.
  • MapReduceA software framework for distributed processing of large data sets on compute clusters.
  • AvroA data serialization system.
  • ChukwaA data collection system for managing large distributed systems.
  • HBaseA scalable, distributed database that supports structured data storage for large tables.
  • HiveA data warehouse infrastructure that provides data summarization and ad hoc querying.
  • MahoutA Scalable machine learning and data mining library.
  • PigA high-level data-flow language and execution framework for parallel computation.
  • ZooKeeperA high-performance coordination service for distributed applications.


2. Cloudera Hadoop:

  • HDFS – Self healing distributed file system
  • MapReduce – Powerful, parallel data processing framework
  • Hadoop Common – a set of utilities that support the Hadoop subprojects
  • HBase – Hadoop database for random read/write access
  • Hive – SQL-like queries and tables on large datasets
  • Pig – Dataflow language and compiler
  • Oozie – Workflow for interdependent Hadoop jobs
  • Sqoop – Integrate databases and data warehouses with Hadoop
  • Flume – Highly reliable, configurable streaming data collection
  • Zookeeper – Coordination service for distributed applications
  • Hue – User interface framework and SDK for visual Hadoop applications

 

위에 말씀드렸듯이 Apache Hadoop + 연관 프로젝트들을 하나의 Package로 만든게 클라으드라나 MapR에서 제공하는 소프트웨어이며사용하기위해서는 비용을 내야하는걸로 알고있습니다. Hadoop을 선택시 자신이 Manage를 할수있느냐 없느냐에따라서 특정 업체의 제품을 사용하던가, 직접 운영하실수 있습니다. 신중히 결정하셔야 합니다.

당연히 업체의 제품을 사용하게되면 쉬운 Support를 받으실수 있습니다

728x90

'하둡(Hadoop)' 카테고리의 다른 글

hadoop의 jdk 설치  (0) 2013.08.27
hadoop에 필요한 JDK 설치전 설치여부확인하기  (0) 2013.06.14
하둡 설치  (0) 2013.06.14
CDH 설정 변경이 안되는 경우  (0) 2013.06.14
CDH 설정 하기  (0) 2013.06.14
Posted by 정망스
,

하둡 설치

하둡(Hadoop) 2013. 6. 14. 19:44
728x90

먼저 하둡을 설치하고 테스트하기 위해서는 리눅스 환경이 필요합니다. 우분투는 아래 URL에서 다운로드 하시면 되는데 처음 다운로드를 누르게 되면 약 16$라는 금액으로 표시가 됩니다. 각 부분별로 슬라이드를 최소화하면 무료로 다운로드 가능하니 참고하시기 바랍니다.

Ubuntu 12.04
1] http://www.ubuntu.com/download/

이 후 다운받은 iso파일을 이용해 VMWare나 직접 리눅스 환경을 구축하시면 됩니다. 만약 VMWare를 사용하실 분이라면 무료 버전인 VMWare Player나 30일 trial버전(아직도 가능한지 모르겠습니다)를 이용하시는 것을 추천합니다.

VMWare Player
2] https://my.vmware.com/web/vmware/free#desktop_end_user_computing/vmware_player/5_0 

VMWare를 다운로드 하셨다면 그냥 Next만 계속 눌러서 설치를 진행합니다. 별다른 설정은 전혀 할 필요가 없습니다. 설치가 다 되었다면 VMWare를 실행해봅시다.


위와 같은 화면이 나올텐데 [Create a New Virtual Machine]을 클릭합니다. 클릭하게 되면 아래와 같은 화면이 나타날 것 입니다.

여기서 [Installer disc image file(iso)]를 클릭하시고 다운 받은 우분투 iso파일을 선택한 후 Next를 눌러주세요. 그러면 Full name, User Name, Password, Confirm이라는 창이 나타날텐데 각자 이름과 패스워드를 작성하고 Next를 눌러주세요.(단, 대문자는 사용하시면 안됩니다)

그러면 그냥 기본 설정대로 Next를 눌러 설치하시면 됩니다. 그러면 얼마 지나지 않아 Ubutun화면을 보실 수 있을 것 입니다. 여기서 HDD에 적어도 20GB의 여유는 남겨두는 것이 좋습니다.  아무튼 가만히 나두면 아래와 같이 자동으로 설치하는 모습을 볼 수 있습니다.


설치 완료까지는 시간이 다소 소요되니 그냥 여유롭게 기다리시면 됩니다 :D (상상 이상으로 오래 걸립니다. 그냥 마음 편하게 롤 한판 하고 오시는 것도 추천합니다.)
우분투가 정상적으로 설치 완료되었다면 이제 하둡을 사용하기 위한 준비 절반까지는 왔다고 생각하시면 됩니다. 이제 중요한 하둡 파일을 다운로드 해야하는데 여기서 부터는 Windows OS가 아닌 Linux에서 진행하셔야 합니다.

혹시나 설치 후에 우분투가 안뜨고 콘솔이 뜬다면 설치 중에 약간의 문제가 발생한 것이니 아래 명령을 통해 해결해주시면 됩니다.

  1. sudo mv /etc/issue.backup /etc/issue
  2. sudo mv /etc/rc.local.backup /etc/rc.local
  3. sudo mv /opt/vmware-tools-installer/lightdm.conf /etc/init

Hadoop Download
3] http://ftp.daum.net/apache/hadoop/common/

하둡은 위 URL에서 다운로드 하실 수 있습니다. 위 사이트에 들어가면 상당히 많은 버전의 하둡이 존재하는데 저는 hadoop-1.2.0버전을 사용할 계획입니다. 최신 버전의 경우 아직 알파 테스트 단계라 불안정한 요소가 있을 수 있다는 판단이니 뭐 최신버전을 사용하시겠다고 하시는 분은 그냥 원하시는거 받으시면 됩니다.
(그 이후에 이 가이드와 다소 다른 부분이 있어도…책임은..못집니다..)

hadoop-1.2.0.tar.gz를 다운로드 한 후에 아래 명령을 통해 압축을 풀어줍니다.
# tar xzf hadoop-1.2.0.tar.gz

압축을 풀었으면 아래 명령으로 노틸러스(nautilus)를 실행해서 /usr/local/에 압축 해제한 파일을 복사합니다. 노틸러스는 리눅스 기반의 관리자 탐색기로 기본적인 탐색기로는 usr 폴더에 접근할 수 없습니다.

#sudo nautilus

복사 후에 자바를 설치해야하는데 예전에는 bin파일로 설치만 하면 쉽게 사용할 수 있도록 제공했으나 최근에 변경되어 압축파일을 다운로드 하셔야하는데 저는 이 방법 말고 apt를 이용해서 설치하는 방법을 소개하려 합니다. 터미널을 열고 아래 명령을 순서대로 실행하면 쉽게 설치가 되니 참고해주세요.

  • sudo apt-get purge openjdk*
  • sudo add-apt-repository ppa:webupd8team/java
  • sudo apt-get update
  • sudo apt-get install oracle-java7-installer

여기까지 입력하고 정상적으로 자바를 설치했다면 이제 java -version을 통해 정상적으로 자바 버전이 출력되는지 확인하시면 되며, 정상 출력된다면 여기까지 성공적으로 수행하셨다는 의미가 되겠습니다.

이제 다시 하둡으로 돌아와서 아까 /usr/local/에 옮겨두었던 하둡 Path를 등록해야 합니다.  이 부분에서 vi를 사용하실 줄 알아야하는데…다들 잘 하시리라 믿고 vi에 대한 설명은 생략합니다. 만약 필요하시다면 댓글 남겨주세요.

아무튼 터미널에서 vi .bash_profile 을 열고 아래와 같이 환경변수를 작성하고 저장하시면 됩니다.

  • export JAVA_HOME=/usr/lib/jvm/java-7-oracle
  • export HADOOP_INSTALL=/usr/local/hadoop-1.2.0
  • export PATH=$PATH:$HADOOP_INSTALL/bin

이 후 다시 터미널에서 source .bash_profile 명령을 통해 등록하고 hadoop version이라고 입력하셨을 때 아래와 같이 정상적으로 하둡 버전이 나온다면 모든 과정이 성공적으로 수행되었다는 의미입니다.

이제 모든 설치는 끝이 났고 본격적으로 하둡을 사용하기 위한 세팅이 필요합니다. 먼저 터미널에서 /usr/local/hadoop-1.2.0/으로 이동한 뒤 아래 명령을 통해 파일을 수정합니다.

# sudo vi conf/hadoop-env.sh

vi로 위 파일을 열면 export가 이미 되어있는데 다른건 건들지 말고 제일 아래에 아래와 같이 JAVA와 HADOOP패스트를 설정합니다.

export JAVA_HOME=/usr/lib/jvm/java-7-oracle
export HADOOP_HOME=/usr/local/hadoop-1.2.0

여기까지 했으면 이제 하둡을 실행하기 위한 원격 시스템을 설치해야 합니다. 하둡은 보기와 다르게 상당히 설정 방법이 복잡하다면 복잡할 수 있으니 잘 따라오시고 잘 안된다면 다시 한번 확인하시는 것을 추천합니다.

#apt-get install openssh-server 명령을 통해 일단 ssh를 설치합니다. 설치 후에 /etc/init.d/ssh restart로 ssh를 재실행 합니다. 그리고 netstat -ntl을 입력했을 때 0 :::22  라는 Local Addr이 있으면 정상적인 것 입니다.

이제 ssh를 설치했으니 ssh-keygen을 통해 마스터와 슬레이브, 한쌍의 키를 생성합니다.
#ssh-keygen -t rsa
#cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

#ssh localhost

여기까지 하신 후에 몇 가지 xml을 수정하셔야 합니다. 저는 Pseudo-distributed mode로 구축할 것이기 때문에 다른 모드와는 차이가 있습니다. 즉, 이 글을 따라하시면 Pseudo-distributed mode로 구축하시는 것이 된다는 의미입니다.

먼저 hadoop이 설치된 폴더로 이동한 뒤 conf/ 폴더에 접속하시면 다양한 xml파일이 있는데 수정해야되는 파일은 core-site.xml, hdfs-site.xml, mapred-site.xml, 총 3개의 파일입니다.

core-site.xml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
 
<!-- Put site-specific property overrides in this file. -->
 
<configuration>
 <property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value>
 </property>
 
 <property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/hadoop-1.2.0/hadoop-${user.name}</value>
 </property>
</configuration>

hdfs-site.xml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
 
<!-- Put site-specific property overrides in this file. -->
 
<configuration>
 <property>
  <name>dfs.name.dir</name>
  <value>/usr/local/hadoop-1.2.0/dfs/name</value>
 </property>
 
 <property>
  <name>dfs.name.edits.dir</name>
  <value>${dfs.name.dir}</value>
 </property>
 
 <property>
  <name>dfs.data.dir</name>
  <value>/usr/local/hadoop-1.2.0/dfs/data</value>
 </property>
</configuration>

mapred-site.xml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
 
<!-- Put site-specific property overrides in this file. -->
 
<configuration>
 <property>
  <name>mapred.job.tracker</name>
  <value>localhost:9001</value>
 </property>
 
 <property>
  <name>mapred.local.dir</name>
  <value>${hadoop.tmp.dir}/mapred/local</value>
 </property>
 
 <property>
  <name>mapred.system.dir</name>
  <value>${hadoop.tmp.dir}/mapred/system</value>
 </property>
</configuration>

여기까지 잘 따라오셨다면 이제 하둡을 실행하기 위해 하둡 폴더에서 ./bin/start-all.sh 를 하신 뒤 firefox(웹브라우저)를 열어 http://localhost:50030/jobtracker.jsp에 접속하셨을 때 아래와 같이 Map/Reduce Administration 사이트가 나오면 모든 것이 완벽한 상태입니다^_^

현재 상태에서 hadoop-examples-1.2.0.jar에 포함된 모든 예제 파일을 실행해보실 수 있고 이는 위 사이트나 콘솔을 통해서 어떤 상태로 동작하는지 확인할 수 있습니다.  예제를 하나 실행해볼텐데 터미널에서 아래 명령을 순서대로 입력해주세요.

  • cd /usr/local/hadoop-1.2.0/ (오타 수정)
  • hadoop dfs -mkdir input
  • hadoop dfs -put CHANGES.txt input/
  • hadoop jar hadoop-examples-1.2.0.jar wordcount input output

마지막 명령이 정상적으로 수행되면 콘솔과 웹사이트에서 결과를 확인 할 수 있습니다.

이제 하둡의 기본적인 설치와 설정이 모두 끝났습니다. 본격적으로 하둡을 이용해서 다양한 어플리케이션을 개발해볼 생각입니다^^ 앞으로도 많은 관심부탁드리고 본 자료는 정말 오랜 시간동안 공 들여 작성한 자료인 만큼 퍼가시더라도 꼭 출처는 남겨주셨으면 합니다. 꾸벅!

[ 발생할 수 있는 에러 정리 ]

Error 1]
하둡이 실행되지 않고 Permission Denied라는 문구가 뜨면 아래와 같은 작업을 거쳐 권환을 부여해야 합니다. sudo chown -R 계정명 /usr/local/hadoop-1.2.0/

728x90

'하둡(Hadoop)' 카테고리의 다른 글

hadoop에 필요한 JDK 설치전 설치여부확인하기  (0) 2013.06.14
하둡의 종류  (0) 2013.06.14
CDH 설정 변경이 안되는 경우  (0) 2013.06.14
CDH 설정 하기  (0) 2013.06.14
CDH 설치  (0) 2013.06.14
Posted by 정망스
,


맨 위로
홈으로 ▲위로 ▼아래로 ♥댓글쓰기 새로고침