当前位置: 首页 > news >正文

网站的备用金怎么做凭证搭建平台 提供舞台

网站的备用金怎么做凭证,搭建平台 提供舞台,免费建立网站的软件,怎么查自己名下有没有注册公司参考#xff1a;http://ihoge.cn/2018/anacondaPyspark.html 前言 首次安装的环境搭配是这样的#xff1a; jdk8 hadoop2.6.5 spark2.1 scala2.12.4 Anaconda3-5.1.0 一连串的报错让人惊喜无限#xff0c;尽管反复调整配置始终无法解决。 坑了一整天后最后最终发现…参考http://ihoge.cn/2018/anacondaPyspark.html 前言 首次安装的环境搭配是这样的 jdk8 hadoop2.6.5 spark2.1 scala2.12.4 Anaconda3-5.1.0 一连串的报错让人惊喜无限尽管反复调整配置始终无法解决。 坑了一整天后最后最终发现是版本不兼容再次提醒自己一定要重视各组件版本的问题。这里最主要的是spark和Anaconda版本的兼容问题为了兼容python3尽量用新版的spark。最终解决方案的版本搭配如下 jdk8 hadoop2.7.5 spark2.3.0 scala2.11.12 Anaconda3-5.1.0 一、VM安装Ubuntu16.04虚拟机 sudo apt-get update sudo apt-get install vim sudo apt-get install openssh-server# 配置ssh免密登陆 ssh localhost ssh-keygen -t rsa //一路回车 cat id_rsa.pub authorized_keyssudo vi /etc/hosts //添加各个节点ip 192.168.221.132 master 192.168.221.133 slave1 192.168.221.134 slave2# sudo vi /etc/hostname master 二、配置profile环境变量 #Java export JAVA_HOME/home/hadoop/jdk1.8.0_161 export PATH$PATH:$JAVA_HOME/bin:$JAVA_HOME/jar #Hadoop export HADOOP_HOME/home/hadoop/hadoop export PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin #Scala export SCALA_HOME/home/hadoop/scala export PATH$PATH:$SCALA_HOME/bin #Anaconda export PATH/home/hadoop/anaconda3/bin:$PATH export PYSPARK_DRIVER_PYTHON/home/hadoop/anaconda3/bin/jupyter export PYSPARK_DRIVER_PYTHON_OPTSnotebook export PYSPARK_PYTHON/home/hadoop/anaconda3/bin/python #Spark export SPARK_HOME/home/hadoop/spark export PATH$PATH:$SPARK_HOME/bin 三、hadoop 六个配置文件 # hadoop-env.sh export JAVA_HOME/home/hadoop/hadoop/jdk1.8.0_161# core-site.xml configurationpropertynamehadoop.tmp.dir/namevaluefile:/home/hadoop/hadoop/tmp/valuedescriptionAbase for other temporary directories./description/propertypropertynamefs.defaultFS/namevaluehdfs://master:9000/value/property /configuration# hdfs-site.xml configurationpropertynamedfs.namenode.secondary.http-address/namevaluemaster:50090/value/propertypropertynamedfs.replication/namevalue3/value/propertypropertynamedfs.namenode.name.dir/namevaluefile:/home/hadoop/hadoop/tmp/dfs/name/value/propertypropertynamedfs.datanode.data.dir/namevaluefile:/home/hadoop/hadoop/tmp/dfs/data/value/property /configuration# mapred-site.xml configurationpropertynamemapreduce.framework.name/namevalueyarn/value/propertypropertynamemapreduce.jobhistory.address/namevaluemaster:10020/value/propertypropertynamemapreduce.jobhistory.webapp.address/namevaluemaster:19888/value/property /configuration# yarn-site.xml configurationpropertynameyarn.resourcemanager.hostname/namevaluemaster/value/propertypropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/property /configuration# slaves slave1 slave2 三、spark两个配置文件 # spark-env.sh #java export JAVA_HOME/home/hadoop/jdk1.8.0_161 #scala export SCALA_HOME/home/hadoop/scala #hadoop export HADOOP_HOME/home/hadoop/hadoop export HADOOP_CONF_DIR/home/hadoop/hadoop/etc/hadoop export YARN_CONF_DIR/home/hadoop/hadoop/etc/hadoop #spark export SPARK_HOME/home/hadoop/spark export SPARK_LOCAL_DIRS/home/hadoop/spark export SPARK_DIST_CLASSPATH$(/home/hadoop/hadoop/bin/hadoop classpath) export SPARK_WORKER_CORES1 export SPARK_WORKER_INSTANCES1 export SPARK_WORKER_MEMORY1g export SPARK_MASTER_IPmaster export SPARK_LIBRARY_PATH.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native# slaves slave1 slave2 四、解压缩文件 scp jdk-8u161-linux-x64.tar hadoopmaster:~ scp Anaconda3-5.1.0-Linux-x86_64.sh hadoopmaster:~ scp -r hadoop/ hadoopmaster:~ scp -r scala/ hadoopmaster:~ scp -r spark/ hadoopmaster:~tar -xvf jdk-8u161-linux-x64.tar -C ./source ~/.profile 分别查看jdk版本、hadoop版本、scala版本# 集群模式启动spark查看jps spark-shell --master spark://master:7077 --executor-memory 512m --total-executor-cores 2 五、安装Anaconda bash Anaconda3-5.1.0-Linux-x86_64.sh -b# 创建配置jupyter_notebook_config.py jupyter notebook --generate-config vim ~/.jupyter/jupyter_notebook_config.pyc get_config() c.IPKernelApp.pylab inline c.NotebookApp.ip * c.NotebookApp.open.browser False c.NotebookApp.password u c.NotebookApp.port 8888六、关机后克隆出两个新节点并配置相关内容 sudo vi /etc/hostnamesudo vi /etc/hosts 七、远程测试pyspark集群 # 服务器端启动集群 start-all.sh spark/sbin/start-all.sh# hadoop和spark的进程都显示正常后开始启动pyspark 1、local模式运行 pyspark2、Stand Alone运行模式 MASTERspark://master:7077 pyspark --num-executors 1 --total-executor-cores 3 --executor-memory 512m然后在远程Web端输入192.168.221.132:8888 页面打开后需要输入验证信息第一次验证即可 输入上图token后面的字符串和用户密码 输入sc测试 至此aconda3-5.1.0Python3.6.4 搭建pyspark远程服务器部署成功。 参考http://ihoge.cn/2018/anacondaPyspark.html
http://www.sadfv.cn/news/422962/

相关文章:

  • 杭州做电商网站有哪个网站专业做漫画素材的
  • 京东网站建设目标搜索引擎营销主要方法包括
  • 整站优化多少钱网站做我女朋友
  • 连云港专业做网站wordpress 开发者模式
  • 东莞专业网站推广方式莆田建站培训
  • 黄页直播免费观看大全网站网站建设潮州
  • 网站内页如何做排名手机浏览器输入网址
  • 专业的网站建设服务商专门做网站的科技公司
  • 特价做网站深圳大型互联网公司
  • 网站设计 配色网站产品页模板
  • 网站建设和推广需要多少费用吴忠网络推广怎么做
  • 百度推广包做网站吗网站如何做好seo
  • 网站域名实名认证官网软文宣传推广
  • 深圳市建设局科技处网站腾讯云域名
  • 网站后台默认用户名外国购物网站有哪些平台
  • 网站被挂马怎么处理网站国内服务器租用
  • iis网站重定向装修设计咨询公司
  • 游戏类网站备案需要前置审批吗河南网站建站系统平台
  • 莆田网站制作报价软文之家
  • 佛山网站建设怎么选择软件外包多少钱
  • 企业网站优化公司哪家好spring框架做网站
  • 珠海市规划建设局网站网站建设主要流程图
  • 海口网站建设是什么最新网络游戏排行榜2021前十名
  • 做羊水亲子鉴定网站国外网站做网站主播
  • 深圳建网站的网络公司惠州北京网站建设
  • 门业东莞网站建设技术支持百度竞价排名什么意思
  • 做微博这样的网站游戏设计 网站
  • 重庆网站推广联系方式wordpress模板破解版
  • 专业网站优化制作公司广告制作单位
  • erp网站代做wordpress学校主题