当前位置: 首页 > news >正文

上海网站建设找哪家wordpress 实现

上海网站建设找哪家,wordpress 实现,检察内网门户网站建设,网站建设发展Hadoop 之 Spark 配置与使用 一.Spark 配置1.Spark 下载2.单机测试环境配置3.集群配置 二.Java 访问 Spark1.Pom 依赖2.测试代码1.计算 π 三.Spark 配置 Hadoop1.配置 Hadoop2.测试代码1.统计字符数 一.Spark 配置 环境说明环境版本AnolisAnolis OS release 8.6Jdkjava versi… Hadoop 之 Spark 配置与使用 一.Spark 配置1.Spark 下载2.单机测试环境配置3.集群配置 二.Java 访问 Spark1.Pom 依赖2.测试代码1.计算 π 三.Spark 配置 Hadoop1.配置 Hadoop2.测试代码1.统计字符数 一.Spark 配置 环境说明环境版本AnolisAnolis OS release 8.6Jdkjava version “11.0.19” 2023-04-18 LTSSpark3.4.1 1.Spark 下载 Spark 下载 2.单机测试环境配置 ## 1.创建目录 mkdir -p /usr/local/spark ## 2.解压 sprak 到指定目录 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /usr/local/spark/ ## 3.进入安装目录可将解压后文件夹重命名为 spark 即可 cd /usr/local/spark/spark-3.4.1-bin-hadoop3/ ## 4.修改环境变量并更新 echo export SPARK_HOME/usr/local/spark/spark-3.4.1-bin-hadoop3 /etc/profile echo PATH${SPARK_HOME}/bin:${PATH} /etc/profile source /etc/profile ## 5.复制 spark 配置 cd $SPARK_HOME/conf cp spark-env.sh.template spark-env.sh ## 6.测试 cd $SPARK_HOME/bin ./run-example SparkPi## 1.启动 ./spark-shellUI访问控制打印地址为虚拟机域名Windows 未添加 Host 解析直接通过IP地址访问## 1.停止 scala :quit## 1.交互分析 cd $SPARK_HOME/bin cat /home/test.txt ./spark-shell ## 2.取文件 var filesc.textFile(file:///home/test.txt) ## 3.打印行数和第一行信息 file.count() file.first() ## 4.过滤 var hellofile.filter(lineline.contains(Hello)) hello.count()3.集群配置 域名地址类别nn192.168.1.6masternd1192.168.1.7slavend2192.168.1.8slave 同单机配置在 nd1 、nd2 部署 spark并设置环境变量也可利用 scp 命令将住节点下配置好的文件拷贝到从节点 ## 1.修改 nn 配置此处旧版本为 slave cd $SPARK_HOME/conf cp workers.template workers vim workers ## 2.添加主从节点域名 echo nn workers echo nd1 workers echo nd2 workers ## 3.保存并将配置文件分发到 nd1、nd2 scp workers rootnd1:$SPARK_HOME/conf/ scp workers rootnd2:$SPARK_HOME/conf/ ## 4.增加 spark 配置 echo export JAVA_HOME/usr/local/java/jdk-11.0.19/ spark-env.sh echo export SPARK_MASTER_HOSTnn spark-env.sh echo export SPARK_MASTER_PORT7077 spark-env.sh ## 5.将配置分发到 nd1、nd2 scp spark-env.sh rootnd1:$SPARK_HOME/conf/ scp spark-env.sh rootnd2:$SPARK_HOME/conf/workers 文件配置内容如下 ## 1.修改 host 将本机域名与IP地址绑定 vim /etc/hosts ## 2.启动 cd $SPARK_HOME/sbin/ ./start-all.sh ## 3.停止 ./stop-all.shHost 配置 启动日志 查看集群 UIhttp://192.168.1.6:8080/二.Java 访问 Spark 当前测试环境为 VM Ware 虚拟机本地为 WIN 10 IDEA 调试问题记录Spark 回调本机超时Win 防火墙未关闭端口不通Lamdba 语法 cannot assign instance of java.lang.invoke.SerializedLambda本地 Jdk 版本和 Spark 集群环境 Jdk 版本要一致String Serialized 序列化问题Java 依赖包和 Spark Jar 包版本要一致Jdk 版本过高某些类解析提示 unnamed可以在 IDEA 启动命令配置上–add-exports java.base/sun.nio.chALL-UNNAMED域名 由于虚拟机原因本机存在虚拟网卡虚拟机内访问本地会通过域名默认本地主机名访问要注意服务回调端口绑定的地址是虚拟网卡地址还是真实网卡地址并将该地址配置配置到虚拟机的 Hosts | Linux 配置域名解析 vim /etc/hosts 1.Pom 依赖 ?xml version1.0 encodingUTF-8? project xmlnshttp://maven.apache.org/POM/4.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsdmodelVersion4.0.0/modelVersiongroupIdorg.example/groupIdartifactIdspark-demo/artifactIdversion1.0-SNAPSHOT/versionpackagingjar/packagingpropertiesmaven.compiler.source11/maven.compiler.sourcemaven.compiler.target11/maven.compiler.targetproject.build.sourceEncodingUTF-8/project.build.sourceEncoding/propertiesdependenciesdependencygroupIdorg.apache.spark/groupIdartifactIdspark-core_2.12/artifactIdversion3.4.1/version/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-sql_2.12/artifactIdversion3.4.1/version/dependency/dependenciesbuildfinalNamemySpark/finalName/build /project2.测试代码 1.计算 π package org.example;import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.sql.Dataset; import org.apache.spark.sql.Row; import org.apache.spark.sql.RowFactory; import org.apache.spark.sql.SQLContext; import org.apache.spark.sql.types.DataTypes; import org.apache.spark.sql.types.StructField; import org.apache.spark.sql.types.StructType;import java.util.ArrayList; import java.util.Arrays; import java.util.List;import static org.apache.spark.sql.functions.col;/*** author Administrator*/ public class SparkApp {public static void main(String[] args) throws Exception {SparkConf conf new SparkConf().setAppName(MySpark)//远程连接时需要将本地包分发到 worker 否则可能报错: cannot assign instance of java.lang.invoke.SerializedLambda.setJars(new String[]{E:\\IdeaProjects\\spark-demo\\target\\mySpark.jar}).setMaster(spark://192.168.1.6:7077);JavaSparkContext jsc new JavaSparkContext(conf);getPi(jsc);}/*** 计算 pi* 即(0,1)随机数落在 1/4 圆占单位正方形的概率 (1/4 * (Pi*1^2))/(1^2) Pi/4 count/numSamples*/public static void getPi(JavaSparkContext jsc){int numSamples 1000000;ListInteger l new ArrayList(numSamples);for (int i 0; i numSamples; i) {l.add(i);}//统计命中数long count jsc.parallelize(l).filter(i - {double x Math.random();double y Math.random();return x*x y*y 1;}).count();System.out.println(Pi is roughly 4.0 * count / numSamples);} }三.Spark 配置 Hadoop 1.配置 Hadoop ## 1.停止 spark 服务 修改主节点 spark 配置基于前面教程搭建的 Hadoop 集群 echo export HADOOP_CONF_DIR/usr/local/hadoop/hadoop-3.3.6/etc/hadoop $SPARK_HOME/conf/spark-env.sh ## 2.启动 Hadoop 服务 $HADOOP_HOME/sbin/start-all.sh ## 3.启动 Spark 服务 $SPARK_HOME/sbin/start-all.sh ## 4.查看 Hadoop 文件 hadoop fs -cat /log/test.txt2.测试代码 1.统计字符数 package org.example;import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext;/*** author Administrator*/ public class SparkApp {public static void main(String[] args) throws Exception {SparkConf conf new SparkConf().setAppName(MySpark)//远程连接时需要将本地包分发到 worker 否则可能报错: cannot assign instance of java.lang.invoke.SerializedLambda.setJars(new String[]{E:\\IdeaProjects\\spark-demo\\target\\mySpark.jar}).setMaster(spark://192.168.1.6:7077);JavaSparkContext jsc new JavaSparkContext(conf);dataFrame(jsc);}/*** DataFrame API examples*/public static void dataFrame(JavaSparkContext jsc){// Creates a DataFrame having a single column named lineJavaRDDString lines jsc.textFile(hdfs://192.168.1.6:9000/log/test.txt);JavaRDDInteger lineLengths lines.map(s - s.length());int totalLength lineLengths.reduce((a, b) - a b);System.out.println(totalLength);}}
http://www.sadfv.cn/news/435109/

相关文章:

  • 网站建设的相应技术枣庄网站开发
  • 江干区住房和城乡建设局网站聊城市 网站制作
  • 理县网站建设有网站做点什么好
  • 网站ui设计基础网页设计的最佳尺寸
  • zencart 网站安装商城免费建站系统
  • 苏州画廊网站建设阳江seo
  • 洛阳网站建设汉狮报价新闻发稿发布平台
  • 自适应网站建设软件网站开发 word文件预览
  • 用wordpress做外贸网站广州 网站建设 制作
  • 外贸电商网站制作如何创建微信公众号平台
  • 哪个网站可以免费下载电视剧看济南做网站找哪家好
  • 郑州做网站服务器阿里云电影网站建设教程
  • 网站建设优化公司成都公司注册核名
  • 做网站有哪些技术设计一个自己的电商网站
  • 建设网站图网站建设需要注意哪些事项
  • 营销网站建设的步骤过程网站建设的关注点
  • 苏州网站 制作 公司怎样做网站测评
  • 潜江建设局网站114啦网址导航官网
  • 新手如何做网站推广在线名片制作网站开发
  • 做模板网站怎么放视频教程临沂免费自助建站模板
  • 租空间开网站手机特效视频制作软件免费
  • 做个产品网站要多少钱会计可以做网站么
  • 恩城seo的网站给个能用的网址谢谢
  • 那个软件可以做网站wordpress局域网404
  • 南宁京象建站公司公司网站建设价格低
  • 梧州网站建设中关村手机排行榜
  • 需要做网站的公司在哪些wordpress中文翻译插件
  • 注册了域名后怎么设计网站关键词都有哪些
  • 支持付费下载系统的网站模板或建站软件宁波网站建设网站
  • 南阳网站建设xihewh互动平台论坛