启动hadoop
1.start-all.sh 可以看到这个脚本包含两个部分,start-dfs.sh和start-mapred.sh2.start-dfs.sh包含 "$HADOOP_COMMON_HOME"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs start namenode $nameStartOpt "$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs start datanode $dataStartOpt "$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --hosts masters --script "$bin"/hdfs start secondarynamenodestart-mapred.sh包含
"$HADOOP_COMMON_HOME"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/mapred start jobtracker "$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --script "$bin"/mapred start tasktracker可见namenode 和 jobtracker通过hadoop-daemon.sh启动,datanode,secondarynamenode,tasktracker 通过hadoop-daemons.sh启动.
3.hadoop-daemons.sh 由这个脚本可以看到其中启动slaves.sh和hadoop-daemon.sh4.hdfs.sh和mapred.sh 最后一行代码都是 exec "$JAVA" $JAVA_HEAP_MAX $HADOOP_OPTS $CLASS "$@" 这个就是真正的启动命令了。就是常见的java程序启动了,入口方法为java中的main 函数. 这里启动了NameNode,DataNode,SecondaryNameNode,JobTracker,TaskTracker. 停止hadoop1.stop-all.sh 可以看到这个脚本也包含两个部分,stop-dfs.sh和stop-mapred.sh 2.stop-dfs.sh包含 "$HADOOP_COMMON_HOME"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs stop namenode "$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs stop datanode "$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --hosts masters --script "$bin"/hdfs stop secondarynamenodestop-mapred.sh包含
"$HADOOP_COMMON_HOME"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/mapred stop jobtracker "$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --script "$bin"/mapred stop tasktracker3.分析hadoop-daemon.sh,其中包含 kill `cat $pid` ,程序通过kill命令来杀死进程号,达到停止hadoop的目的.