当前位置: 首页 > news >正文

上海网站建设找哪家wordpress 实现

上海网站建设找哪家,wordpress 实现,检察内网门户网站建设,网站建设发展Hadoop 之 Spark 配置与使用 一.Spark 配置1.Spark 下载2.单机测试环境配置3.集群配置 二.Java 访问 Spark1.Pom 依赖2.测试代码1.计算 π 三.Spark 配置 Hadoop1.配置 Hadoop2.测试代码1.统计字符数 一.Spark 配置 环境说明环境版本AnolisAnolis OS release 8.6Jdkjava versi… Hadoop 之 Spark 配置与使用 一.Spark 配置1.Spark 下载2.单机测试环境配置3.集群配置 二.Java 访问 Spark1.Pom 依赖2.测试代码1.计算 π 三.Spark 配置 Hadoop1.配置 Hadoop2.测试代码1.统计字符数 一.Spark 配置 环境说明环境版本AnolisAnolis OS release 8.6Jdkjava version “11.0.19” 2023-04-18 LTSSpark3.4.1 1.Spark 下载 Spark 下载 2.单机测试环境配置 ## 1.创建目录 mkdir -p /usr/local/spark ## 2.解压 sprak 到指定目录 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /usr/local/spark/ ## 3.进入安装目录可将解压后文件夹重命名为 spark 即可 cd /usr/local/spark/spark-3.4.1-bin-hadoop3/ ## 4.修改环境变量并更新 echo export SPARK_HOME/usr/local/spark/spark-3.4.1-bin-hadoop3 /etc/profile echo PATH${SPARK_HOME}/bin:${PATH} /etc/profile source /etc/profile ## 5.复制 spark 配置 cd $SPARK_HOME/conf cp spark-env.sh.template spark-env.sh ## 6.测试 cd $SPARK_HOME/bin ./run-example SparkPi## 1.启动 ./spark-shellUI访问控制打印地址为虚拟机域名Windows 未添加 Host 解析直接通过IP地址访问## 1.停止 scala :quit## 1.交互分析 cd $SPARK_HOME/bin cat /home/test.txt ./spark-shell ## 2.取文件 var filesc.textFile(file:///home/test.txt) ## 3.打印行数和第一行信息 file.count() file.first() ## 4.过滤 var hellofile.filter(lineline.contains(Hello)) hello.count()3.集群配置 域名地址类别nn192.168.1.6masternd1192.168.1.7slavend2192.168.1.8slave 同单机配置在 nd1 、nd2 部署 spark并设置环境变量也可利用 scp 命令将住节点下配置好的文件拷贝到从节点 ## 1.修改 nn 配置此处旧版本为 slave cd $SPARK_HOME/conf cp workers.template workers vim workers ## 2.添加主从节点域名 echo nn workers echo nd1 workers echo nd2 workers ## 3.保存并将配置文件分发到 nd1、nd2 scp workers rootnd1:$SPARK_HOME/conf/ scp workers rootnd2:$SPARK_HOME/conf/ ## 4.增加 spark 配置 echo export JAVA_HOME/usr/local/java/jdk-11.0.19/ spark-env.sh echo export SPARK_MASTER_HOSTnn spark-env.sh echo export SPARK_MASTER_PORT7077 spark-env.sh ## 5.将配置分发到 nd1、nd2 scp spark-env.sh rootnd1:$SPARK_HOME/conf/ scp spark-env.sh rootnd2:$SPARK_HOME/conf/workers 文件配置内容如下 ## 1.修改 host 将本机域名与IP地址绑定 vim /etc/hosts ## 2.启动 cd $SPARK_HOME/sbin/ ./start-all.sh ## 3.停止 ./stop-all.shHost 配置 启动日志 查看集群 UIhttp://192.168.1.6:8080/二.Java 访问 Spark 当前测试环境为 VM Ware 虚拟机本地为 WIN 10 IDEA 调试问题记录Spark 回调本机超时Win 防火墙未关闭端口不通Lamdba 语法 cannot assign instance of java.lang.invoke.SerializedLambda本地 Jdk 版本和 Spark 集群环境 Jdk 版本要一致String Serialized 序列化问题Java 依赖包和 Spark Jar 包版本要一致Jdk 版本过高某些类解析提示 unnamed可以在 IDEA 启动命令配置上–add-exports java.base/sun.nio.chALL-UNNAMED域名 由于虚拟机原因本机存在虚拟网卡虚拟机内访问本地会通过域名默认本地主机名访问要注意服务回调端口绑定的地址是虚拟网卡地址还是真实网卡地址并将该地址配置配置到虚拟机的 Hosts | Linux 配置域名解析 vim /etc/hosts 1.Pom 依赖 ?xml version1.0 encodingUTF-8? project xmlnshttp://maven.apache.org/POM/4.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsdmodelVersion4.0.0/modelVersiongroupIdorg.example/groupIdartifactIdspark-demo/artifactIdversion1.0-SNAPSHOT/versionpackagingjar/packagingpropertiesmaven.compiler.source11/maven.compiler.sourcemaven.compiler.target11/maven.compiler.targetproject.build.sourceEncodingUTF-8/project.build.sourceEncoding/propertiesdependenciesdependencygroupIdorg.apache.spark/groupIdartifactIdspark-core_2.12/artifactIdversion3.4.1/version/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-sql_2.12/artifactIdversion3.4.1/version/dependency/dependenciesbuildfinalNamemySpark/finalName/build /project2.测试代码 1.计算 π package org.example;import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.sql.Dataset; import org.apache.spark.sql.Row; import org.apache.spark.sql.RowFactory; import org.apache.spark.sql.SQLContext; import org.apache.spark.sql.types.DataTypes; import org.apache.spark.sql.types.StructField; import org.apache.spark.sql.types.StructType;import java.util.ArrayList; import java.util.Arrays; import java.util.List;import static org.apache.spark.sql.functions.col;/*** author Administrator*/ public class SparkApp {public static void main(String[] args) throws Exception {SparkConf conf new SparkConf().setAppName(MySpark)//远程连接时需要将本地包分发到 worker 否则可能报错: cannot assign instance of java.lang.invoke.SerializedLambda.setJars(new String[]{E:\\IdeaProjects\\spark-demo\\target\\mySpark.jar}).setMaster(spark://192.168.1.6:7077);JavaSparkContext jsc new JavaSparkContext(conf);getPi(jsc);}/*** 计算 pi* 即(0,1)随机数落在 1/4 圆占单位正方形的概率 (1/4 * (Pi*1^2))/(1^2) Pi/4 count/numSamples*/public static void getPi(JavaSparkContext jsc){int numSamples 1000000;ListInteger l new ArrayList(numSamples);for (int i 0; i numSamples; i) {l.add(i);}//统计命中数long count jsc.parallelize(l).filter(i - {double x Math.random();double y Math.random();return x*x y*y 1;}).count();System.out.println(Pi is roughly 4.0 * count / numSamples);} }三.Spark 配置 Hadoop 1.配置 Hadoop ## 1.停止 spark 服务 修改主节点 spark 配置基于前面教程搭建的 Hadoop 集群 echo export HADOOP_CONF_DIR/usr/local/hadoop/hadoop-3.3.6/etc/hadoop $SPARK_HOME/conf/spark-env.sh ## 2.启动 Hadoop 服务 $HADOOP_HOME/sbin/start-all.sh ## 3.启动 Spark 服务 $SPARK_HOME/sbin/start-all.sh ## 4.查看 Hadoop 文件 hadoop fs -cat /log/test.txt2.测试代码 1.统计字符数 package org.example;import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext;/*** author Administrator*/ public class SparkApp {public static void main(String[] args) throws Exception {SparkConf conf new SparkConf().setAppName(MySpark)//远程连接时需要将本地包分发到 worker 否则可能报错: cannot assign instance of java.lang.invoke.SerializedLambda.setJars(new String[]{E:\\IdeaProjects\\spark-demo\\target\\mySpark.jar}).setMaster(spark://192.168.1.6:7077);JavaSparkContext jsc new JavaSparkContext(conf);dataFrame(jsc);}/*** DataFrame API examples*/public static void dataFrame(JavaSparkContext jsc){// Creates a DataFrame having a single column named lineJavaRDDString lines jsc.textFile(hdfs://192.168.1.6:9000/log/test.txt);JavaRDDInteger lineLengths lines.map(s - s.length());int totalLength lineLengths.reduce((a, b) - a b);System.out.println(totalLength);}}
http://www.yutouwan.com/news/435109/

相关文章:

  • 云主机做网站域名打不开mstsc做网站
  • 电脑宽带网站找工作哪个网站好找
  • 邢台网站制作市场怎样把网站做的更好
  • 织梦模板下载商城网站模板(高端大气上档次:带数据)工业设计公司简介
  • 做外贸的网站有哪几个济南建设网站企业
  • 公司做网站比较好的平台如何在电脑登录wordpress
  • 富德生命人寿保险公司官方网站网络推广工作能长久吗
  • 网站建设后还有什么费用拖拽式wordpress建站
  • 免费开源的企业建站系统免费推广网址注册
  • 聊城网站建设公司跨境电商信息服务平台有哪些
  • 公司网站开发工具百度网站排名seo
  • 深圳住房和建设局网站办事跟踪苏州软件开发公司哪家好
  • 网站建设及维护服务做网站要什么步骤
  • 重庆网站备案企业宣传app
  • thinkphp做直播网站sanitize_user wordpress
  • 网站统计器软件系统开发的大概步骤
  • 做网站卖东西赚钱么中国专业做鞋子的网站
  • 如何给别人做网站挣钱中国品牌网官方网站
  • 类似淘宝的网站怎么做百度快照投诉中心官网
  • 中国城乡建中国城乡建设部网站中国住建部
  • 网站建设邀约话术南昌南昌县网站建设
  • 大连做网站 选领超科技单页面的网站模板免费下载
  • 哈市住房和建设局网站系统优化的方法哲学
  • 查国外企业信息的网站互联网公司的网络运营
  • 做交友信息网站可行么美工做图详情页设计
  • 网站设计制作需要多少钱坂田网站建设多少钱
  • 手机网站被做跳转马关县网站建设
  • 网站开发是培训太原在线制作网站
  • 公司邮箱怎么进入seo优化培训机构
  • 国内网页设计网站网站加百度商桥