centOS装Hadoop软件,总是出现如下问题,这是为什么,怎么解决 hadoop配置出现问题
centOS装Hadoop软件,总是出现如下问题,这是为什么,怎么解决
本想Ubuntupython版本更换3.1结御载Python2.6.5系统应用软件都见重新安装Python2.6.5恢复办
系统CentOS,安装python2.7.8Object/unicodeobject.c候错求解决办
执行步骤:
wget再python2.7.8tar.gz包tar zxvf 解压cd进入目录./configure编译执行make候Object/unicodeobject.o 停止报错:
gcc: Internal error: Killed (program cc1)
Please submit a full bug report.
See <> for instructions.
make: *** [Objects/unicodeobject.o] Error
我刚始安装包错我安装2.7.6候报同错我弄午求解决求帮忙
------------------------------
其实安装python2.7.* 我运行Django web服务器 Django貌似要求python2.7.*版本我执行python manage.py runserver
候给我报错
Traceback (most recent call last):
File "manage.py", line 8, in from django.core.management import execute_from_command_line File "/usr/lib/python2.6/site-packages/Django-1.7-py2.6.egg/django/core/management/__init__.py", line 68 commands = {name: django.core for name in find_commands(__path__[0])} ^ SyntaxError: invalid syntax 服务器django1.7.0,本发用django1.6.5我同升级1.7能运行。
hadoop配置出现问题
1、很明显是环境变量配置有问题,最直接的配置变量是path变量中没有加入hadoop_home/bin这个目录。
2、在hadoop1.x之后,HADOOP_HOME环境变量不再作为必配变量,已被废弃。
3、建议先在linux虚拟机上搞定后,再用cygwin在window环境上配置,这两环境在配置上有若干不同,需要你在linux搞明白后,再整cygwin就会顺利多了。
再试下吧。
hadoop安装出错~
/hadoop: line 289: C:Program FilesJava/bin/java: No such file or directory
明显你的这段路径中缺少了jdk的路径
配置很容易弄错,不是少个符号就是哪里输入错误,多检查检查
hadoop安装问题
你看的教程是旧的,新版的hadoop启动脚本放在sbin下。start-all.sh已经逐渐被废弃,采用新的启动脚本:
sbin/hadoop-daemon.sh --script hdfs start datanodesbin/hadoop-daemon.sh --script hdfs start namenodesbin/yarn-daemon.sh start resourcemanagersbin/yarn-daemon.sh start proxyserversbin/mr-jobhistory-daemon.sh start historyserver【注意1】.不要随意执行上述命令,需要你规划好那几个节点是namenode, 哪些节点是datanode, 哪个节点是resourcemanager, proxyserver, 以及historyserver
【注意2】.sbin/hadoop-daemon.sh --script hdfs start datanode 执行后只能只能启动当前节点;
sbin/hadoop-daemons.sh --script hdfs start datanode可以启动etc/hadoop/slaves中指定的datanode
【注意3】. 最新版本(hadoop2.2.0)的启动脚本libexec/hadoop-config.sh有bug, 若想用
sbin/hadoop-daemons.sh --hosts your_host_files --script hdfs start datanode启动节点,注意修改libexec/hadoop-config.sh第98行为:
98 elif [ "--hostnames" = "$1" ]同时要小心--hosts your_host_files option, 用户指定的your_host_files一定放在etc/hadoop/下面,但是启动时只指定该文件名,不包含任何路径名,这也是该启动脚本的一个缺陷。
【注意4】. 也可以采用
sbin/hadoop-daemons.sh --hostnames your_host_name --script hdfs start datanode启动某个节点
祝好运,还有不懂得可以问我。
配置hadoop时问题
应该是登录的用户名不对,或者授权有问题!
你是用hadoop用户登录的吗?我打开了你说的那个文章,在五、安装hadoop2.4.0中有“赋予用户对该文件夹的读写权限,sudo chmod 774 /usr/local/hadoop“,这个你做了吗?
建议你使用hadoop用户登录系统,如果还是不能打开/usr/local/hadoop,就执行下面的命令对文件重新授权,就不会报错了
sudo chmod 777 /usr/local/hadoop