【大数据技术】实验1:Hadoop集群环境搭建和熟悉常用的Linux操作

文章目录

  • 一、实验环境
  • 二、实验内容
    • 0.安装Linux操作系统(虚拟机)
    • 1.熟悉常用的Linux操作
  • 出现的问题


一、实验环境

  1. 操作系统:Linux(Centos8.4);
  2. Hadoop版本:3.3.1

二、实验内容

0.安装Linux操作系统(虚拟机)

要求:主机名设置为”自拟主机名_Master001”,在实验内容第一行中写明自拟主机名。
在这里插入图片描述
在这里插入图片描述

1.熟悉常用的Linux操作

1)cd命令:切换目录
(1)切换到目录“/usr/local”
在这里插入图片描述
(2)切换到当前目录的上一级目录
在这里插入图片描述
(3)切换到当前登录Linux系统的用户的自己的主文件夹
在这里插入图片描述
2)ls命令:查看文件与目录
查看目录“/usr”下的所有文件和目录
在这里插入图片描述
3)mkdir命令:新建目录
(1)进入“/tmp”目录,创建一个名为“a”的目录,并查看“/tmp”目录下已经存在哪些目录
在这里插入图片描述
(2)进入“/tmp”目录,创建目录“a1/a2/a3/a4”
在这里插入图片描述
4)rmdir命令:删除空的目录
(1)将上面创建的目录a(在“/tmp”目录下面)删除
在这里插入图片描述
(2)删除上面创建的目录“a1/a2/a3/a4” (在“/tmp”目录下面),然后查看“/tmp”目录下面存在哪些目录
在这里插入图片描述
5)cp命令:复制文件或目录
(1)将当前用户的主文件夹下的文件.bashrc复制到目录“/usr”下,并重命名为bashrc1
在这里插入图片描述
(2)在目录“/tmp”下新建目录test,再把这个目录复制到“/usr”目录下
在这里插入图片描述
6)mv命令:移动文件与目录,或更名
(1)将“/usr”目录下的文件bashrc1移动到“/usr/test”目录下
在这里插入图片描述
在这里插入图片描述
(2)将“/usr”目录下的test目录重命名为test2
在这里插入图片描述
在这里插入图片描述
7)rm命令:移除文件或目录
(1)将“/usr/test2”目录下的bashrc1文件删除
在这里插入图片描述
(2)将“/usr”目录下的test2目录删除
在这里插入图片描述
8)cat命令:查看文件内容
查看当前用户主文件夹下的.bashrc文件内容
在这里插入图片描述
9)tac命令:反向查看文件内容
反向查看当前用户主文件夹下的.bashrc文件的内容
在这里插入图片描述
10)more命令:一页一页翻动查看
翻页查看当前用户主文件夹下的.bashrc文件的内容
在这里插入图片描述
11)head命令:取出前面几行
(1)查看当前用户主文件夹下.bashrc文件内容前20行
在这里插入图片描述
(2)查看当前用户主文件夹下.bashrc文件内容,后面50行不显示,只显示前面几行、
(我的.bashrc文件内容较少,改为测试后面5行不显示,只显示前面几行)
在这里插入图片描述
12)tail命令:取出后面几行
(1)查看当前用户主文件夹下.bashrc文件内容最后20行
(我的.bashrc文件内容较少,改为测试最后5行)
在这里插入图片描述
(2)查看当前用户主文件夹下.bashrc文件内容,并且只列出50行以后的数据
(我的.bashrc文件内容较少,改为测试5行以后)
在这里插入图片描述
13)touch命令:修改文件时间或创建新文件
(1)在“/tmp”目录下创建一个空文件hello,并查看文件时间
在这里插入图片描述
在这里插入图片描述

(2)修改hello文件,将文件时间整为5天前
在这里插入图片描述

14)chown命令:修改文件所有者权限
将hello文件所有者改为root帐号,并查看属性
在这里插入图片描述
15)find命令:文件查找
找出主文件夹下文件名为.bashrc的文件
在这里插入图片描述
16)tar命令:压缩命令
(1)在根目录“/”下新建文件夹test,然后在根目录“/”下打包成test.tar.gz
在这里插入图片描述
(4)把上面的test.tar.gz压缩包,解压缩到“/tmp”目录
在这里插入图片描述
2.安装Hadoop
(1)根据个人电脑条件选择安装伪分布式模式或者分布式模式
(2)给出Linux环境变量配置
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(3)给出Hadoop配置文件配置详细清单
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

1.core-site.xml
在这里插入图片描述
2.hadoop-env.sh
在这里插入图片描述
3.hdfs-site.xml
在这里插入图片描述
(5)给出Hadoop启动后,各个节点进程截图,浏览器总览截图
在这里插入图片描述

在这里插入图片描述

3.熟悉基本的Hadoop hdfs操作
(1)使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为“/home/software/hadoop”),为hadoop用户在HDFS中创建用户目录“/user/hadoop”
在这里插入图片描述
(2)接着在HDFS的目录“/user/hadoop”下,创建test文件夹,并查看文件列表
在这里插入图片描述
(3)将Linux系统本地的“~/.bashrc”文件上传到HDFS的test文件夹中,并查看test
在这里插入图片描述
在这里插入图片描述
(4)将HDFS文件夹test复制到Linux系统本地文件系统的“/usr/local/hadoop”目录下
在这里插入图片描述


出现的问题

1.vim /etc/profile 写入时 出现 E121:无法打开并写入文件解决方案。
2.出现“不在sudoers文件中,此事将被报告”的问题。
3.启动hadoop,报错Error JAVA_HOME is not set and could not be found。
4.Hadoop启动后没有DataNode节点。
ssh远程执行命令时报错Permission denied。

解决方案:
1.保存的时候用:w !sudo tee % 后输入密码即可。
2.
(1)切换到root用户权限,输入命令:“su root”,回车后输入密码再回车;
(2)查看/etc/sudoers文件权限,如果只读权限,修改为可写权限;
(3)执行vim命令,编辑/etc/sudoers文件,添加要提升权限的用户;在文件中找到root ALL=(ALL) ALL,在该行下添加提升权限的用户信息,如:
输入编辑文件命令:“vim /etc/sudoers”;
查找到Allow root to run any commands anywhere,在root命令下增加一行命令,先输入命令:“i”,下方会出现“插入”的字样,此时可输入你要加入的信息。
(4)保存退出,并恢复/etc/sudoers的访问权限为440;
先按Esc按键退出编辑模式,再输入强制保存命令:“:wq!”(注意:一定要先输入:,否则无法输入这个命令)返回到命令页面,输入回复权限的命令:“chmod 440 /etc/sudoers”。
(5)切换到普通用户,测试用户权限提升功能。
3.在hadoop-env.sh中,再显示地重新声明一遍JAVA_HOME。
4.是因为之前多次格式化namenode导致的namenode与datanode之间的不一致。
所以需要删除之前配置的data目录(即为dfs.data.dir所创建的文件夹),然后将temp文件夹与logs文件夹删除,重新格式化namenode。
5.
(1)生成私钥:ssh-keygen -t rsa -P ‘’;
(2)将公钥导入到认证文件:cat /home/名字/.ssh/id_rsa.pub >> /home/名字/.ssh/authorized_keys;
(3)设置文件访问权限:chmod 700 /home/名字/.ssh;chmod 600 /home/名字/.ssh/authorized_keys。


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部