hbase的配置以及遇到的问题

这几天在熟悉学习hbase,记录一下配置过程,以及出现的问题。

首先,hbase是什么?先来一段摘抄:

HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。

反正这款数据库在大数据领域是比较出名的,nosql、面向列,都是它的特点。

在安装之前,我们首先最好查看一下hbase和hadoop对应的版本是否兼容。官方文档地址:http://hbase.apache.org/book.html

看到“4. Basic Prerequisites”,往下拉到hadoop那里,有一个表格,表明了hadoop和hbase的兼容情况:

HBase-0.94.x HBase-0.98.x (Support for Hadoop 1.1+ is deprecated.) HBase-1.0.x (Hadoop 1.x is NOT supported) HBase-1.1.x HBase-1.2.x

Hadoop-1.0.x

X

X

X

X

X

Hadoop-1.1.x

S

NT

X

X

X

Hadoop-0.23.x

S

X

X

X

X

Hadoop-2.0.x-alpha

NT

X

X

X

X

Hadoop-2.1.0-beta

NT

X

X

X

X

Hadoop-2.2.0

NT

S

NT

NT

NT

Hadoop-2.3.x

NT

S

NT

NT

NT

Hadoop-2.4.x

NT

S

S

S

S

Hadoop-2.5.x

NT

S

S

S

S

Hadoop-2.6.0

X

X

X

X

X

Hadoop-2.6.1+

NT

NT

NT

NT

S

Hadoop-2.7.0

X

X

X

X

X

Hadoop-2.7.1+

NT

NT

NT

NT

S

我下载的是hbase-0.98.16.1-hadoop2-bin.tar.gz。

下面讲一下配置:

分布式配置

解压文件:
tar -zxvf  hbase-0.98.16.1-hadoop2-bin.tar.gz -C /env/

切换到 hbase目录下的conf目录,编辑hbase-env.sh
vim hbase-env.sh
修改以下两行,并把原有的#去掉,第一行换上你jdk的目录,第二行表示使用hbase自带的zookeeper。

export JAVA_HOME=/usr/java/jdk1.7.0_79/
export HBASE_MANAGES_ZK=true

再修改hbase-site.xml
vim hbase-site.xml
改为以下内容,其中的主机名不要搞错,要在/etc/hosts里面有相应的映射。

<configuration>

  <property>
    <name>hbase.rootdir</name>
    <value>hdfs://main:49002/hbase</value>
    <description>The directory shared byRegionServers.
    </description>
  </property>

  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>

    <property>
      <name>hbase.zookeeper.property.clientPort</name>
      <value>2222</value>
    </property>

    <property>
      <name>hbase.zookeeper.quorum</name>
      <value>main,slave1,slave2</value>
    </property>

    <property>
      <name>hbase.zookeeper.property.dataDir</name>
      <value>/home/hadoop/zookeeper</value>
    </property>

</configuration>

修改regionservers,我把slave1和slave2加进去
vim regionservers
内容修改为

slave1
slave2

一个节点占一行,保存。
把配置好的hbase复制到另外两台主机上

scp -r /env/hbase-0.98.16.1-hadoop2/ root@slave1:/env/
scp -r /env/hbase-0.98.16.1-hadoop2/ root@slave2:/env/

先启动hadoop的hdfs,然后再启动hbase即可。
在bin目录下,输入以下命令
./start-hbase.sh

不过,我是在虚拟机上弄的分布式环境,在运行hbase的shell的时候,HMaster老是自动退出,查看日志,看到是zookeeper的错误,错误如下:

zookeeper.ClientCnxn: Opening socket connection to server main/192.168.254.100:2299. Will not attempt to authenticate using SASL (unknown error)
2016-01-11 05:23:12,267 WARN [main-SendThread(main:2299)] zookeeper.ClientCnxn: Session 0x0 for server null, unexpected error, closing socket connection and attempting reconnect
java.net.ConnectException: Connection refused

有点郁闷,找了好多解决方法,都不行,后来转念一想,既然是想熟悉一下hbase,运行一下它的shell,就不搞那么复杂了,重新配个单机版,单机版的配置非常简单。

单机版配置

和分布式配置的步骤基本一致,只需要把hbase-site.xml改为简易版的就行,内容如下:

<configuration>
  <property>
    <name>hbase.rootdir</name>
    <value>/home/hbase</value>
    <description>The directory shared byRegionServers.
    </description>
  </property>
</configuration>

改为单机版之后,首先还是得运行hadoop的hdfs,然后再运行./start-hbase.sh,此时jps一下,看到hadoop的namenode启动了,hbase的Hmaster也启动了,此时再运行./hbase shell就正常了。下一篇转一篇文章,学习一下如何直接在shell操作数据库。

啊啊啊赶在12点断网之前。

hadoop官方mapreduce简单例子-WordMean

上一篇写了MapReduce的经典例子–WordCount,为了进一步理解和熟悉一下MapReduce这个框架,这次再来看看官方给出的另外一个例子:WordMean

WordMean,Mean我们都知道,是平均数的意思。所以很显然,这个程序是用来统计单词的平均字符数的。

先来跑一下。

在《centos+虚拟机配置hadoop2.5.2-mapreduce-wordcount例子》里面,我已经在hdfs里面新建了一个input文件夹,并且在里面放置了一个test.txt,内容如下:

test.txt的内容
事实上,无论是WordCount还是WordMean,都不仅仅是只处理一个文件,为了验证这一点,我在跑WordMean之前,建多一个文件。

先在linux下新建一个test2.txt

vim /home/txt/test2.txt

内容如下:
test2.txt的内容

将其复制到hdfs下的input文件夹内:

hadoop fs -put /home/txt/text2.txt input

准备工作完毕,现在跑一下程序。仍然是这个jar文件:/hadoop/share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.5.2-sources.jar

输出我们放在名为wordmean-output的文件夹下(命令行的最后一个参数),具体运行命令如下:

hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.5.2-sources.jar org.apache.hadoop.examples.WordMean input wordmean-output

运行过程中,控制台最后几行信息输出如下:

Bytes Read=173
File Output Format Counters
Bytes Written=20
The mean is: 5.653846153846154

最后一行显示,the mean is 5.653846153846154,即单词的平均字符数。

我手工统计了一下,一共有26个单词,合计147个字符,147/26,确实是这个数。为了进一步确认,到wordmean-output那里看一下输出结果。

hadoop fs -cat wordmean-output/part-r-00000

结果如下,看来我手工也没数错哈哈:
WORDMEAN输出结果

跑完程序了,把源代码贴一下:

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

import com.google.common.base.Charsets;

public class WordMean extends Configured implements Tool {

  private double mean = 0;

  private final static Text COUNT = new Text("count");
  private final static Text LENGTH = new Text("length");
  private final static LongWritable ONE = new LongWritable(1);

  
  public static class WordMeanMapper extends
      Mapper<Object, Text, Text, LongWritable> {

    private LongWritable wordLen = new LongWritable();

    
    public void map(Object key, Text value, Context context)
        throws IOException, InterruptedException {
      StringTokenizer itr = new StringTokenizer(value.toString());
      while (itr.hasMoreTokens()) {
        String string = itr.nextToken();
        this.wordLen.set(string.length());
        context.write(LENGTH, this.wordLen);
        context.write(COUNT, ONE);
      }
    }
  }


  public static class WordMeanReducer extends
      Reducer<Text, LongWritable, Text, LongWritable> {

    private LongWritable sum = new LongWritable();

    
    public void reduce(Text key, Iterable<LongWritable> values, Context context)
        throws IOException, InterruptedException {

      int theSum = 0;
      for (LongWritable val : values) {
        theSum += val.get();
      }
      sum.set(theSum);
      context.write(key, sum);
    }
  }

  private double readAndCalcMean(Path path, Configuration conf)
      throws IOException {
    FileSystem fs = FileSystem.get(conf);
    Path file = new Path(path, "part-r-00000");

    if (!fs.exists(file))
      throw new IOException("Output not found!");

    BufferedReader br = null;

    // average = total sum / number of elements;
    try {
      br = new BufferedReader(new InputStreamReader(fs.open(file), Charsets.UTF_8));

      long count = 0;
      long length = 0;

      String line;
      while ((line = br.readLine()) != null) {
        StringTokenizer st = new StringTokenizer(line);

        // grab type
        String type = st.nextToken();

        // differentiate
        if (type.equals(COUNT.toString())) {
          String countLit = st.nextToken();
          count = Long.parseLong(countLit);
        } else if (type.equals(LENGTH.toString())) {
          String lengthLit = st.nextToken();
          length = Long.parseLong(lengthLit);
        }
      }

      double theMean = (((double) length) / ((double) count));
      System.out.println("The mean is: " + theMean);
      return theMean;
    } finally {
      if (br != null) {
        br.close();
      }
    }
  }

  public static void main(String[] args) throws Exception {
    ToolRunner.run(new Configuration(), new WordMean(), args);
  }

  @Override
  public int run(String[] args) throws Exception {
    if (args.length != 2) {
      System.err.println("Usage: wordmean <in> <out>");
      return 0;
    }

    Configuration conf = getConf();

    @SuppressWarnings("deprecation")
    Job job = new Job(conf, "word mean");
    job.setJarByClass(WordMean.class);
    job.setMapperClass(WordMeanMapper.class);
    job.setCombinerClass(WordMeanReducer.class);
    job.setReducerClass(WordMeanReducer.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(LongWritable.class);
    FileInputFormat.addInputPath(job, new Path(args[0]));
    Path outputpath = new Path(args[1]);
    FileOutputFormat.setOutputPath(job, outputpath);
    boolean result = job.waitForCompletion(true);
    mean = readAndCalcMean(outputpath, conf);

    return (result ? 0 : 1);
  }

  /**
   * Only valuable after run() called.
   * 
   * @return Returns the mean value.
   */
  public double getMean() {
    return mean;
  }
}

 

简单分析一下,大概的过程如下:

map过程

看第43和44行,可以知道map输出了两个键值对,一个是<“length”,单词的长度>,一个是<“count”,1>即单词的个数。

reduce过程

代码56至66行。对已经处理好的键值对进行最终处理,分别处理<“length”,<单词的长度>>,和<“count”,<1,1,1,1,1…>>,做的是同样的处理–累加。

readAndCalcMean方法

第68行到111行,主要是读取输出的文件,计算平均数。如上文所示,文件里面的内容如下:

WORDMEAN输出结果

所以这个方法,就是用来读取26和147两个数字,作除法,然后输出到屏幕。具体代码写的很清楚,就不细读了。

hadoop官方mapreduce简单例子-WordCount代码解读

WordCount经常在我们初学mapreduce的时候,被作为最简单的例子来讲解,这次我们就从官方给出的源码入手,看看是怎么回事。

所谓Mapreduce,就是Map(映射)”和”Reduce(归约)。map过程,就是把一组<key,value>映射成新的<key,value>;reduce过程,就是把map过程产生的一些列<key,value>,其中那些key相同的,归约成<key,<values>>来处理,一个key对应一组value。

有了这点认识,我们来看看hadoop的mapreduce源码范例:wordcount。

这个程序用来统计一个文本里面各个单词出现的个数。具体怎么运行可以参看我之前写的《centos+虚拟机配置hadoop2.5.2-mapreduce-wordcount例子

下面分析一下WordCount源码:

Map过程:

  public static class TokenizerMapper 
       extends Mapper<Object, Text, Text, IntWritable>{
    
    private final static IntWritable one = new IntWritable(1);
    private Text word = new Text();
      
    public void map(Object key, Text value, Context context
                    ) throws IOException, InterruptedException {
      StringTokenizer itr = new StringTokenizer(value.toString());
      while (itr.hasMoreTokens()) {
        word.set(itr.nextToken());
        context.write(word, one);
      }
    }
  }

关于mapper类的要点:

  • maps将输入的键值对输出为中间键值对,输出不一定是和输入是同样类型的,一个输入键值对可以输出多个键值对,也可能不输出。
  • hadoop的Map-Reduce框架对每一个InputSplit键值对都生成一个map任务,这些键值对是由InputFormat生成的。
  • 框架首先调用setup函数,随后是map函数(InputSplit产生的每一个键值对都调用一次),最后调用finally函数。在wordcount中,只重写了map函数。
  • mapper的输出被分成了不同组,供每个reducer来处理,我们可以通过实现抽象类Partitioner来控制排序和分组。

TokenizerMapper类的简单解析:

由于继承mapper类,因此要实现map()方法。
其中有这么一行代码:

StringTokenizer itr = new StringTokenizer(value.toString());

value是传进来的值,对于这个例子而言,是一行的文本,将一行分割成一个又一个单词,然后,用一个while循环迭代,生成新的(key,value)。代码如下:

while (itr.hasMoreTokens()) {
    word.set(itr.nextToken());
    context.write(word, one);
}

其中的one这个变量,是在刚开始声明的:

private final static IntWritable one = new IntWritable(1);

用来计数,这里是1,所以,输出的(key,value)都是这样的形式:(“单词”,1)。可供之后处理。

Reduce过程:

  public static class IntSumReducer 
       extends Reducer<Text,IntWritable,Text,IntWritable> {
    private IntWritable result = new IntWritable();

    public void reduce(Text key, Iterable<IntWritable> values, 
                       Context context
                       ) throws IOException, InterruptedException {
      int sum = 0;
      for (IntWritable val : values) {
        sum += val.get();
      }
      result.set(sum);
      context.write(key, result);
    }
  }

关于reducer类的要点:

  • reducer将中间输出键值对中那些键相同的合并,值为集合。
  • reduce主要有三个阶段:
    1. shuffle洗牌:reducer将排序好的输出从每个mapper里面复制出来,整个过程用HTTP来通信。
    2. sort排序:框架将reducer的具有相同键的输入合并排序,因为不同的mapper可能有相同的键,shuffle过程和sort过程是同时进行的。
    3. Reduce归约:在reduce阶段,每个key传进来,reduce方法都被调用一次,进行归约。

IntSumReducer类的简单解析:

重写了reduce方法,由于之前已经有map过程了,因此此时传进来的键值对的形式是<key,>,即value不是一个值,而是值的集合。用一个for循环,即可遍历某个key里面的所有值:

for (IntWritable val : values) {
    sum += val.get();
}

这个for循环将某个key对应的所有的value累加,即某单词出现次数的累加。
然后把结果输出:

result.set(sum);
context.write(key, result);

其中的result在之前声明了:

private IntWritable result = new IntWritable();

是整型,所以之后context.write(key,result)就把某单词出现的次数输出了。

Mapreduce的整个过程:

  public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    if (otherArgs.length < 2) {
      System.err.println("Usage: wordcount <in> [<in>...] <out>");
      System.exit(2);
    }
    Job job = new Job(conf, "word count");
    job.setJarByClass(WordCount.class);
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(IntSumReducer.class);
    job.setReducerClass(IntSumReducer.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    for (int i = 0; i < otherArgs.length - 1; ++i) {
      FileInputFormat.addInputPath(job, new Path(otherArgs[i]));
    }
    FileOutputFormat.setOutputPath(job,
      new Path(otherArgs[otherArgs.length - 1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);
  }

要点:

  • Configuration conf = new Configuration(); 这句新建了一个配置对象conf,可以配置mapreduce的一些参数,这里没有对配置作过多的调整。
  • Job job = new Job(conf, “word count”); 这句新建了一个job,用于控制整个工作流程,接下来的6个set函数:
    job.setJarByClass(WordCount.class);
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(IntSumReducer.class);
    job.setReducerClass(IntSumReducer.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);

它们分别是:
1.设置工作的类名,这里是WordCount
2.设置mapper的类:TokenizerMapper.class)
3.设置combiner的类:IntSumReducer.class
4.设置reducer的类:IntSumReducer.class,和combiner是一样的。
5.设置输出key的格式,text类型
6.设置输出value的格式,int类型。

  • 接着就是设置输入输出路径,都由命令行参数来指定
  • 最后调用job.waitForCompletion(true) 来开始工作。

最后附上完整源代码:

import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;

public class WordCount {

  public static class TokenizerMapper 
       extends Mapper<Object, Text, Text, IntWritable>{
    
    private final static IntWritable one = new IntWritable(1);
    private Text word = new Text();
      
    public void map(Object key, Text value, Context context
                    ) throws IOException, InterruptedException {
      StringTokenizer itr = new StringTokenizer(value.toString());
      while (itr.hasMoreTokens()) {
        word.set(itr.nextToken());
        context.write(word, one);
      }
    }
  }
  
  public static class IntSumReducer 
       extends Reducer<Text,IntWritable,Text,IntWritable> {
    private IntWritable result = new IntWritable();

    public void reduce(Text key, Iterable<IntWritable> values, 
                       Context context
                       ) throws IOException, InterruptedException {
      int sum = 0;
      for (IntWritable val : values) {
        sum += val.get();
      }
      result.set(sum);
      context.write(key, result);
    }
  }

  public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    if (otherArgs.length < 2) {
      System.err.println("Usage: wordcount <in> [<in>...] <out>");
      System.exit(2);
    }
    Job job = new Job(conf, "word count");
    job.setJarByClass(WordCount.class);
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(IntSumReducer.class);
    job.setReducerClass(IntSumReducer.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    for (int i = 0; i < otherArgs.length - 1; ++i) {
      FileInputFormat.addInputPath(job, new Path(otherArgs[i]));
    }
    FileOutputFormat.setOutputPath(job,
      new Path(otherArgs[otherArgs.length - 1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);
  }
}

centos+虚拟机配置hadoop2.5.2-mapreduce-wordcount例子

配置完hadoop的环境,照例,肯定要跑一个简单的程序测试一下。

似乎提到hadoop,就不得不提mapreduce,作为mapreduce的一个开源实现,hadoop的应用非常广。引用一段文字,大概就能了解一下它们的历史了:

2003年和2004年,Google公司在国际会议上分别发表了两篇关于Google分布式文件系统和MapReduce的论文,公布了Google的GFS和MapReduce的基本原理和主要设计思想。2004年,开源项目Lucene(搜索索引程序库)和Nutch(搜索引擎)的创始人Doug Cutting发现MapReduce正是其所需要的解决大规模Web数据处理的重要技术,因而模仿Google MapReduce,基于Java设计开发了一个称为Hadoop的开源MapReduce并行计算框架和系统。自此,Hadoop成为Apache开源组织下最重要的项目,自其推出后很快得到了全球学术界和工业界的普遍关注,并得到推广和普及应用。

废话不多说,我们来看看怎么跑基于mapreduce的简单例子–wordcount。

首先要格式化namenode。根据你的目录,运行以下的命令

hadoop/bin/hadoop namenode -format

查看信息的倒数几行,如果显示:

Storage directory ~/hadoop-2.5.2/hdfs/name has been successfully formatted

则说明成功了!

接下来启动hdfs,在hadoop文件夹下的sbin文件夹内运行以下命令(根据你当前目录的位置自行调整):

sbin/start-dfs.sh

在主节点运行jps命令,看到namenode进程已经启动:
主节点jps

在子节点键入jps命令,看到datanode进程已经启动:

子节点jps进程

因为之前的配置,所以我们可以在50070端口查看hadoop的工作状态。

比如我可以在浏览器输入:http://192.168.254.100:50070/  (根据你的主节点ip改变网址),可以看到工作状态:

hadoop工作状态

接下来启动yarn,在sbin目录下:

sbin/start-yarn.sh

好了,准备工作完成,接下来,跑程序。

1.在hdfs上创建input目录

如果你的hadoop已经加入环境变量了,你就不需要切换目录到bin下,直接hadoop + 命令就可以了。否则,你得先切换到hadoop的bin目录下,运行以下命令

./hadoop fs -mkdir -p input

2.新建文本
新建一个test.txt

vim /home/test.txt

在里面输入任意内容,单词,然后保存。比如我是这样输入的:

test.txt的内容

将文件复制到hdfs的input目录下:

./hadoop fs -put /home/test.txt input

3.运行wordcount程序

程序在hadoop文件夹下的share下,注意以下命令的路径:

./Hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.5.2-sources.jar org.apache.hadoop.examples.WordCount input output

4.观察结果
这是运行过程中的状态:
wordcount工作状态

看看结果生成了什么文件:

./hadoop fs -ls output/

结果生成了两个文件:
wordcount结果
part-r -00000就是我们要的结果。
看看里面的内容:

./hadoop fs -cat output/part-r-00000

里面是计数结果:
wordcount计数结果

 

以上就是wordcount运行的全过程,最后退出hdfs和yarn。先切换到sbin目录下,然后运行以下命令即可:

./stop-dfs.sh
./stop-yarn.sh

centos+虚拟机配置hadoop2.5.2-hadoop文件配置

在上一节《centos+虚拟机配置hadoop2.5.2-前期准备》,讲了一下配置hadoop的前期工作,方便我们之后的操作。做好前期的准备工作之后,可以进行hadoop的安装配置了。

本文配置的hadoop版本为2.5.2,可以到这里下载:http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.5.2/   我下载的是tar.gz格式的。

下载完成,上传到centos服务器(虚拟机里的centos)。首先解压,我把它解压到

这个目录下:/env/

tar -zvxf hadoop-2.5.2.tar.gz -C /env/

随后要设置环境变量。把这些命令写入/etc/profile和~/.bashrc 中,说个题外话,通常我们配置环境变量都会接触到这两个文件,他们到底有什么区别呢?找了找资料:

bashrc与profile都用于保存用户的环境信息,bashrc用于交互式non-loginshell,而profile用于交互式login shell

先编辑/etc/profile

vi /etc/profile

在文本的末尾加入以下命令,具体的路径以你自己配置的为准:

export HADOOP_PREFIX=/env/hadoop-2.5.2
export YARN_CONF_DIR=/env/hadoop-2.5.2
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_PREFIX/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"
export HADOOP_HOME=/env/hadoop-2.5.2
export HADOOP_HOME_WARN_SUPPRESS=1

更改profile
使配置生效:

source /etc/profile 

再编辑~/.bashrc

vi ~/.bashrc

加入以下内容,具体路径仍以你的配置为准:

export JAVA_HOME=/usr/java/jdk1.7.0_79
export JRE_HOME=/usr/java/jdk1.7.0_79/jre
export HADOOP_HOME=/env/hadoop-2.5.2
export HADOOP_DEV_HOME=/env/hadoop-2.5.2
export HADOOP_COMMON_HOME=/env/hadoop-2.5.2
export HADOOP_HDFS_HOME=/env/hadoop-2.5.2
export HADOOP_CONF_DIR=/env/hadoop-2.5.2/conf

使配置生效:

source ~/.bashrc

然后在另外两台主机上重复以上步骤,将环境变量配置好。

接下来,来配置一下hadoop。切换目录

cd /env/hadoop-2.5.2/etc/hadoop/

要配置5个文件:core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml和slaves

首先编辑core-site.xml,在configuration里面添加以下内容

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://main:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/env/hadoop-2.5.2/tmp</value>
    </property>
</configuration>

随后编辑vim hdfs-site.xml,配置hadoop的文件系统hdfs。在configuration里面添加以下内容

<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/home/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.namenode.data.dir</name>
        <value>file:/home/hadoop/dfs/data</value>
    </property>                                                                     <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
</configuration>

编辑yarn-site.xml,这个是map-reduce的新框架yarn的配置文件。添加以下内容,里面的value,可以设置主机名,也可以设置为ip:

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>192.168.254.100:8032</value>
    </property>
    <property> 
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>192.168.254.100:8030</value>
        </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>192.168.254.100:8031</value>
    </property>
    <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>192.168.254.100:8033</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>192.168.254.100:8088</value>
    </property>
</configuration>

然后编辑mapred-site.xml,这个是map-reduce任务页面的配置,添加以下内容:

<configuration>  
    <property>    
        <name>mapred.job.tracker</name>   
        <value>main:9001</value>  
    </property>
</configuration>

最后,还是在刚才的目录下,编辑slaves文件,将两个子节点的ip或者主机名添加进去

vi slaves

编辑内容如下:

#localhost
192.168.254.101
192.168.254.102

保存,搞定!
将配置好的hadoop直接复制到另外两台主机(-r参数是复制文件夹,不要漏掉):

scp -r /env/hadoop-2.5.2 root@slave1:/env/
scp -r /env/hadoop-2.5.2 root@slave2:/env/

至此,配置完毕,下一篇还是老样子,跑一个简单的程序。

centos+虚拟机配置hadoop2.5.2-前期准备

之前写了一个《storm的配置以及实例实践》系列文章,系列第一篇:《storm的配置以及实例实践-前言》。

也运行了一个简单的例子,对storm这个框架有了大概的了解,之后可以在此框架上写一写代码,加深理解。

其实我们接触大数据处理框架,听得最多的还是hadoop,今天就在之前配置的基础上,继续配置hadoop,进行相关的学习。

稍微提一下之前的配置:三台虚拟机,系统为centos6.5,均配置了静态的ip以及对应的主机名,今天要配置的是hadoop2.5.2,可以去http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.5.2/  下载。

正式配置之前,需要做一些前期的准备。

确认主机名以及能互相ping通

命令行输入

vim /etc/sysconfig/network

确认设置了主机名,需要检查三台虚拟机是否有设置。比如我的三台虚拟机是这样的,hostname为主机名:
hostname设置

设置对应的ip地址与主机名的映射:

vim /etc/hosts

如图:
主机名与ip的映射

直接用主机名来互相ping一下,看一下能不能ping通。如果不能,请看一下配置文件是否正确,用source命令使配置生效。如下图,就是能ping通。

主机间互相ping

多说一句,这个步骤是为了保证之后hadoop能正确执行分布式任务,如果ping不通,谈何分布式任务。

设置免密码登陆ssh

为了方便,我们可以设置免密码登陆ssh。以下步骤在主节点主机执行即可。

本机免密码登陆ssh,生成公钥文件authorized_keys,命令如下,出现提示直接回车下一步即可:

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa&nbsp;
cat ~/.ssh/id_dsa.pub&gt;&gt; ~/.ssh/authorized_keys&nbsp;

测试一下本机是否可以无密码登陆ssh,如果不需要密码则成功了:
本机ssh无密码登陆

除了本机无密码登陆ssh,我们也要设置本机(主节点)免密码ssh登陆另外两台主机,其实很简单,只需要复制刚才生成的公钥文件authorized_keys到另外两台主机就行了,可以通过各种方式复制,也可以直接在命令行输入以下命令,把ip更改为你的子节点ip就行了:

scp authorized_keys root@192.168.254.101:/root/.ssh/
scp authorized_keys root@192.168.254.102:/root/.ssh/ 

测试本机是否可以无密码通过ssh登陆子节点:

ssh root@192.168.254.101 

无需密码登陆就成功了。

大概的前期准备工作就完成了,下一篇继续讲怎么配置hadoop2.5.2。