当前位置: 首页 > news >正文

网站建设与管理的书销售产品网站有哪些

网站建设与管理的书,销售产品网站有哪些,做网站优化的话术,全国最大工地招工网1、关于虚拟机的复制 新建一台虚拟机#xff0c;系统为CentOS7#xff0c;再克隆两台#xff0c;组成一个三台机器的小集群。正常情况下一般需要五台机器#xff08;一个Name节点#xff0c;一个SecondName节点#xff0c;三个Data节点。#xff09; 此外#xff0c;为…1、关于虚拟机的复制 新建一台虚拟机系统为CentOS7再克隆两台组成一个三台机器的小集群。正常情况下一般需要五台机器一个Name节点一个SecondName节点三个Data节点。  此外为了使网络生效需要注意以下几点 1  编辑网络配置文件  /etc/sysconfig/network-scripts/ifcfg-eno16777736 先前的版本需要删除mac地址行注意不是uuid而是hwaddr这一点新的CentOS不再需要 2 删除网卡和mac地址绑定文件   rm -rf /etc/udev/rules.d/70-persistent-net.rules 3 重启动系统 此外mapreduce在运行的时候可能会随机开放端口在CentOS7中可以使用下面的命令将防火墙关闭 systemctl stop firewalld 或者使用下面的命令使在集群中的机器可以不受限制的互相访问 #把一个源地址加入白名单以便允许来自这个源地址的所有连接firewall-cmd --add-rich-rule rule familyipv4 source address192.168.1.215 accept --permanent firewall-cmd --reload   2、将IP地址设置为静态 准备了三个IP地址 192.168.1.215 192.168.1.218 192.168.1.219  在CentOS7下修改ip地址的文件为/etc/sysconfig/network-scripts/ifcfg-eno16777736 主要作如下设置其他的不需要变 # none或static表示静态 OOTPROTOstatic # 是否随网络服务启动 ONBOOTyes IPADDR192.168.1.215 # 子网掩码 NETMASK255.255.255.0 # 网关设置自己的 GATEWAY192.168.0.1 # dns DNS1202.106.0.20 3、修改hostname与hosts文件 这两个文件均处于系统根目录的etc文件夹之中 下图显示了映射后的机器名称以及对应的ip地址#localhost.localdomain这一行多余仅master刚刚好 主节点master两个数据节点data1data2   4、添加用户与组 需要为Hadoop软件系统设置单独的用户和组本例中新添加的用户和所属组的名称均为hadoop   adduser hadoop passwd hadoop   5、利用ssh实现免密码登录 注意目的是使Hadoop系统的所属用户在集群之间实现免密码登录而不是root用户除非Hadoop系统的所有者root但一般不建议这么做。这一点非常重要。 在本例中软件所有者是上面新建的hadoop用户密钥也要由hadoop用户来生成。 1 更改配置文件 需要对sshd_config文件进行修改主要是以下三项取消注释即可  vim /etc/ssh/sshd_configRSAAuthentication yes PubkeyAuthentication yes AuthorizedKeysFile .ssh/authorized_keys 之后执行以下命令重启sshd服务 service sshd restart 2 生成密钥并分发相关文件 简单的方法密钥生成后使用直接使用 ssh-copy-id 命令把密钥追加到远程主机的 .ssh/authorized_key 上如下 # 生成密钥ssh-keygen -t rsa# 密钥追加到远程主机ssh-copy-id -i ~/.ssh/id_rsa.pub  hadoop192.168.1.218ssh-copy-id -i ~/.ssh/id_rsa.pub  hadoopdata2 复杂的方法不再推荐具体实现步骤如下 a 将三台计算机master、data1、data2分别切换到hadoop用户下并分别cd到hadoop用户的家目录然后执行 ssh-keygen -t rsa 命令这样的结果是在各自家目录的.ssh文件夹中生成了对应的id_rsa.pub 与id_rsa 密钥对。 b 将data1192.168.1.218data2192.168.1.219两台计算机中的公钥文件复制到master192.168.1.215中并重命名为id_rsa.pub218id_rsa.pub219置于hadoop用户家目录下的.ssh文件夹下。命令参考如下  scp id_rsa.pub hadoopmaster:~/.ssh/id_rsa.pub218 scp id_rsa.pub hadoopmaster:~/.ssh/id_rsa.pub219  hadoopmaster表示用master中的hadoop用户登录master 这样以来master主机hadoop用户的.ssh文件夹就有了以下三个公钥文件 d_rsa.pub、d_rsa.pub218、d_rsa.pub218 c 在master中将以上三个文件以追加的形式写入authorized_keys文件这些文件均位于hadoop用户.ssh文件夹中。  cat id_rsa.pub authorized_keys cat id_rsa.pub218 authorized_keys cat id_rsa.pub219 authorized_keys  d 更改 authorized_keys 文件的权限。这一步也可在分发后单独进行。  chmod 600 authorized_keys  e 分发authorized_keys 文件到data1data2中hadoop用户的.ssh文件中并再次检查权限。  scp authorized_keys hadoopdata1:~/.ssh/authorized_keys scp authorized_keys hadoopdata2:~/.ssh/authorized_keys  之后就可以在小集群中使用hadoop用户实现免密码登录了。 注意的是如果使用的linux登录用户不是root用户需要修改以下.ssh文件夹以及authorized_key文件的权限否则是无法实现免密码登录的 chmod 700 .ssh cd .ssh/ chmod 600 authorized_keys  6、安装jdk  先在master中安装之后分发这里使用的是jdk-8u112-linux-x64.tar.gz  1 解压安装  首先需要切换到root用户  su root cd /usr mkdir java tar -zxvf jdk-8u112-linux-x64.tar.gz ./java ln -s jdk1.8.0_112/ jdk  2 分发 scp -r /usr/java rootdata2:/usr/ scp -r /usr/java rootdata2:/usr/ 3 设置环境变量三台都要设置 vim /etc/profileexport JAVA_HOME/usr/java/jdk export JRE_HOME/usr/java/jdk/jre export CLASSPATH.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib export PATH$PATH:$JAVA_HOME/bin:$JRE_HOME/bin source /etc/profile  7、安装hadoop 先在master下安装再分发 安装的版本为2.6.5解压安装到/usr/Apache/目录下并建立软连接 Hadoop所有配置文件的目录位于/usr/Apache/hadoop-2.6.5/etc/hadoop下由于建立了一个软连接所以/usr/Apache/hadoop/etc/hadoop是一样的 在hadoop软件目录的dfs文件夹中创建三个子文件夹name、data、tmp下面属性的设置会用到注意其所有者和所属组。 以下是配置文件的设置 1 hdfs.site.xml  propertynamedfs.namenode.name.dir/namevaluefile:/usr/Apache/hadoop/dfs/name/value /property propertynamedfs.datanode.data.dir/namevaluefile:/usr/Apache/hadoop/dfs/data/value /property propertynamedfs.replication/namevalue3/value /property propertynamedfs.namenode.secondary.http-address/namevaluemaster:50090/value /property propertynamedfs.webhdfs.enabled/namevaluetrue/value /property 2 mapred-site.xml propertynamemapreduce.framework.name/namevalueyarn/value /property propertynamemapreduce.jobhistory.address/namevaluemaster:10020/value /property propertynamemapreduce.jobhistory.webapp.address/namevaluemaster:19888/value /property 3 yarn-site.xml 设置如下  property nameyarn.nodemanager.aux-services/name valuemapreduce_shuffle/value  /property  property nameyarn.resourcemanager.address/name  valuemaster:8032/value  /property  property  nameyarn.resourcemanager.scheduler.address/name  valuemaster:8030/value  /property  property  nameyarn.resourcemanager.resource-tracker.address/name valuemaster:8031/value  /property  property nameyarn.resourcemanager.admin.address/name valuemaster:8033/value  /property  property nameyarn.resourcemanager.webapp.address/name valuemaster:8088/value  /property   4 slaves配置文件 master data1 data2 注本例将master也作为了一个数据节点 5 hadoop-env.sh和yarn-env.sh 这是两个相当重要的环境变量配置文件由于目前仅安装Hadoop所以仅设置jdk即可其他默认。 export JAVA_HOME/usr/java/jdk 6 core-site.xml property namehadoop.tmp.dir/namevalue/usr/Apache/hadoop/tmp/valuedescriptionA base for other temporary directories./description /property propertynamefs.defaultFS/namevaluehdfs://master:9000/value /property   7 将Apache文件夹分发到data1data2对应的目录下 # 分发 scp -r ./Apache rootdata1:/usr/ scp -r ./Apache rootdata2:/usr/# 这里使用了root用户记得分发后要改所有者与所属组 chown -R hadoop:hadoop Apache/ 注意jdk是不需要改所有者与所属组的因为通用  8 三台机器分别配置hadoop用户的.bashrc文件设置环境变量 su hadoop vim ~/.bashrc export $HADOOP_HOME/usr/Apache/hadoop export HADOOP_COMMON_HOME$HADOOP_HOME export HADOOP_HDFS_HOME$HADOOP_HOME export HADOOP_MAPRED_HOME$HADOOP_HOME export HADOOP_YARN_HOME$HADOOP_HOME export HADOOP_CONF_DIR$HADOOP_HOME/etc/hadoop export CLASSPATH.:$HADOOP_HOME/lib:$CLASSPATH export PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source ~/.bashrc 8、开启与结束 start-dfs.sh start-yarn.sh mr-jobhistory-daemon.sh start historyserver yarn-daemon.sh start historyserver  ##### stop-dfs.sh stop-yarn.sh mr-jobhistory-daemon.sh stop historyserver yarn-daemon.sh stop historyserver 9、运行结果 相关进程         All Applications http://192.168.1.215:8088 JobHistory  http://192.168.1.215:19888 Master http://192.168.1.215:50070    转载于:https://www.cnblogs.com/learn21cn/p/learn21cn.html
http://www.yutouwan.com/news/211221/

相关文章:

  • 中国建设会计协会网站首页对伊利网站建设建议
  • 中海外交通建设有限公司网站九讯鹿网站建设
  • 门户网站建设 考核页面好看的蛋糕网站
  • 网站建设空间什么意思app网站设计制作
  • 外贸做哪些网站平台好福步论坛外贸网
  • 如何建站网站建设网站价格
  • 手机购物网站模版网站风格下载
  • 网站建设如何开单企业网站有哪些企业
  • php网站开发报告书晋城市新闻
  • 高端网站定做广州做网站星珀
  • 个人的网站海南省工程建设定额网站
  • 古城做网站的公司建设网站第一步
  • 受欢迎的昆明网站建设做竞价的网站
  • 美术学院网站建设电商网站设计系统
  • 国外大型门户网站网站模板开发
  • 企业网站后台怎么做做书的网站有哪些内容吗
  • 赵朴初网站建设如何建自己网站做淘宝客
  • 广州网站制作企业九江市住房和城乡建设厅网站
  • 团购网站开发语言手机版网站怎么上传
  • 佰汇康网站建设wordpress与saas
  • 网站建设合同的注意事项阿里云的网站空间
  • 营销型网站的作用是云南建设厅网站资质证书查询
  • 优秀企业站网站怎么查看网站的空间商
  • 江苏建设服务信息网站加强网站微信公众号平台建设
  • 网站没有域名设置吗网站建设多久可以建成
  • 深圳 旅游 网站建设什么推广方法是有效果的
  • 餐饮加盟培训网站建设智慧城市展厅设计公司
  • 两屏合一网站建设网站搭建服务
  • 网站建设开发多少钱做化工贸易要用那些网站推广
  • 制作论坛做网站景区网站设计