Hadoop怎麼升級
hadoop升級
1、運⾏dfsadmin -upgradeProgress status 檢查是否存在備份如果是第⼀次升級就不存在備份(在升級Hadoop前,如果已經存在備份,需要先結束 finalize 它。)
2、備份下⽂件,同時要備份下hdfs的⽂件⽬錄的元數據信息:
bin/hadoop fsck / -files -blocks -locations >
bin/hadoop dfs -lsr / >
bin/hadoop dfsadmin -report >
3、停⽌所有節點 bin/
4、在所有節點上重新部署hadoop 並替換conf⽂件夾下所有⽂件(就是將原有的hadoop-0.19.1更名為hadoop-0.19.1-oldverstion,然後解壓 將0.19.2中的conf⽂件替換為0.19.1中的conf⽂件夾)
並且要對照修改中的路徑指定是否正確
5、使⽤ bin/ -upgrade 進⾏升級(DFS從⼀個版本升級到另外⼀個版本的時
候,NameNode和DataNode使⽤的⽂件格式有可能會改變。當你第⼀次使⽤新版本的時候,你要告訴Hadoop 去改變HDFS版本,否則,新版本不會⽣效)
6、監控升級情況和升級問題處理
開始升級,你可以通過
bin/hadoop dfsadmin -upgradeProgress
命令來查看版本升級的情況。
當然你可以使⽤
bin/hadoop dfsadmin -upgradeProgress details
來查看更多的詳細信息。
當升級過程被阻塞的時候,你可以使⽤
bin/hadoop dfsadmin -upgradeProgress force
來強制升級繼續執⾏(當你使⽤這個命令的時候,⼀定要慎重考慮)。
當HDFS升級完畢後,Hadoop依舊保留着舊版本的有關信息
以便你可以⽅便的對HDFS進⾏降級操作。
可以使⽤bin/ -rollback來執