网站制作和维护费用,wordpress手动安装插件,搭建网页步骤,延吉有没有做网站的MaxCompute#xff08;原ODPS#xff09;是阿里云自主研发的具有业界领先水平的分布式大数据处理平台, 尤其在集团内部得到广泛应用#xff0c;支撑了多个BU的核心业务。 MaxCompute除了持续优化性能外#xff0c;也致力于提升SQL语言的用户体验和表达能力#xff0c;提高…MaxCompute原ODPS是阿里云自主研发的具有业界领先水平的分布式大数据处理平台, 尤其在集团内部得到广泛应用支撑了多个BU的核心业务。 MaxCompute除了持续优化性能外也致力于提升SQL语言的用户体验和表达能力提高广大ODPS开发者的生产力。
MaxCompute基于ODPS2.0新一代的SQL引擎显著提升了SQL语言编译过程的易用性与语言的表达能力。我们在此推出MaxCompute(ODPS2.0)重装上阵系列文章
第一弹 - 善用MaxCompute编译器的错误和警告第二弹 - 新的基本数据类型与内建函数第三弹 - 复杂类型第四弹 - CTEVALUESSEMIJOIN
上次向您介绍了CTEVALUESSEMIJOIN本篇向您介绍MaxCompute对其他脚本语言的支持 - SELECT TRANSFORM。 场景1 我的系统要迁移到MaxCompute平台上系统中原来有很多功能是使用脚本来完成的包括pythonshellruby等脚本。 要迁移到MaxCompute上我需要把这些脚本全部都改造成UDF/UDAF/UDTF。改造过程不仅需要耗费时间人力还需要做一遍又一遍的测试从而保证改造成的udf和原来的脚本在逻辑上是等价的。我希望能有更简单的迁移方式。 场景2SQL比较擅长的是集合操作而我需要做的事情要对一条数据做更多的精细的计算现有的内置函数不能方便的实现我想要的功能而UDF的框架不够灵活并且Java/Python我都不太熟悉。相比之下我更擅长写脚本。我就希望能够写一个脚本数据全都输入到我的脚本里来我自己来做各种计算然后把结果输出。而MaxCompute平台就负责帮我把数据做好切分让我的脚本能够分布式执行负责数据的输入表和输出表的管理负责JOINUNION等关系操作就好了。
上述功能可以使用SELECT TRANSFORM来实现
SELECT TRANSFORM 介绍
此文中采用MaxCompute Studio作展示首先安装MaxCompute Studio导入测试MaxCompute项目创建工程建立一个新的MaxCompute脚本文件, 如下 提交作业可以看到执行计划全部展开后的视图 Select transform允许sql用户指定在服务器上执行一句shell命令将上游数据各字段用tab分隔每条记录一行逐行输入shell命令的stdin并从stdout读取数据作为输出送到下游。Shell命令的本质是调用Unix的一些utility因此可以启动其他的脚本解释器。包括pythonjavaphpawkruby等。
该命令兼容Hive的Transform功能可以参考Hive的文档。一些需要注意的点如下 1. Using 子句指定的是要执行的命令而非资源列表这一点和大多数的MaxCompute SQL语法不一样这么做是为了和hive的语法保持兼容。 2. 输入从stdin传入输出从stdout传出 3. 可以配置分隔符默认使用 \t 分隔列用换行分隔行 4. 可以自定义reader/writer但用内置的reader/writer会快很多 5. 使用自定义的资源脚本文件数据文件等可以使用 set odps.sql.session.resourcesfoo.sh,bar.txt; 来指定。可以指定多个resource文件用逗号隔开因此不允许resource名字中包含逗号和分号。此外我们还提供了resources子句可以在using 子句后面指定 resources foo.sh, bar.txt 来指定资源两种方式是等价的参考“用odps跑测试”的例子 6. 资源文件会被下载到执行指定命令的工作目录可以使用文件接口打开./bar.txt文件。
目前odps select transform完全兼容了hive的语法、功能和行为包括 input/output row format 以及 reader/writer。Hive上的脚本大部分可以直接拿来运行部分脚本只需要经过少许改动即可运行。另外我们很多功能都用比hive更高执行效率的语言 (C) 重构用以优化性能。
应用场景举例
理论上select transform能实现的功能udtf都能实现但是select transform比udtf要灵活得多。且select transform不仅支持java和python还支持shellperl等其它脚本和工具。 且编写的过程要简单特别适合adhoc功能的实现。举几个例子 1. 无中生有造数据
span stylecolor:#24292espan stylecolor:#f8f8f2code classlanguage- language-undefinedselect transform(script) using sh as (data) from
(select for i in seq 1 50; do echo $i; done as script
) t;
/code/span/span
或者使用python
span stylecolor:#24292espan stylecolor:#f8f8f2code classlanguage- language-undefinedselect transform(for i in xrange(1, 51): print i;) using python as (data);
/code/span/span
上面的语句造出一份有50行的数据表值是从1到50; 测试时候的数据就可以方便造出来了。功能看似简单但以前是odps的一个痛点没有方便的办法造数据就不方便测试以及初学者的学习和探索。当然这也可以通过udtf来实现但是需要复杂的流程进入ide-写udtf-打包-add jar/python-create function-执行-drop function-drop resource。 2. awk 用户会很喜欢这个功能
span stylecolor:#24292espan stylecolor:#f8f8f2code classlanguage- language-undefinedselect transform(*) using awk //{print $2} as (data) from src;
/code/span/span
上面的语句仅仅是把value原样输出但是熟悉awk的用户从此过上了写awk脚本不写sql的日子 3. 用odps跑测试
span stylecolor:#24292espan stylecolor:#f8f8f2code classlanguage- language-undefinedselect transform(key, value) using java -cp a.jar org.junit.runner.JUnitCore MyTestClass resources a.jar
from testdata;
/code/span/span
或者
span stylecolor:#24292espan stylecolor:#f8f8f2code classlanguage- language-undefinedset odps.sql.session.resourcesa.jar;
select transform(key, value) using java -cp a.jar org.junit.runner.JUnitCore MyTestClass
from testdata;
/code/span/span
这个例子是为了说明很多java的utility可以直接拿来运行。java和python虽然有现成的udtf框架但是用select transform编写更简单并且不需要额外依赖也没有格式要求甚至可以实现离线脚本拿来直接就用。 4. 支持其他脚本语言
span stylecolor:#24292espan stylecolor:#f8f8f2code classlanguage- language-undefinedselect transform (key, value) using perl -e while($input STDIN){print $input;} from src;
/code/span/span
上面用的是perl。这其实不仅仅是语言支持的扩展一些简单的功能awk, python, perl, shell 都支持直接在命令里面写脚本不需要写脚本文件上传资源等过程开发过程更简单。另外由于目前我们计算集群上没有php和ruby所以这两种脚本不支持。 5. 可以串联着用使用 distribute by和 sort by对输入数据做预处理
span stylecolor:#24292espan stylecolor:#f8f8f2code classlanguage- language-undefinedselect transform(key, value) using cmd2 from
(select transform(*) using cmd1 from (select * from data distribute by col2 sort by col1) t distribute by key sort by value
) t2;
/code/span/span
或者用mapreduce的关键字会让逻辑显得清楚一些
span stylecolor:#24292espan stylecolor:#f8f8f2code classlanguage- language-undefineda : select * from data distribute by col2 sort by col1;
b : map * using cmd1 distribute by col1 sort by col2 from a;
reduce * using cmd2 from b;
/code/span/span
理论上OpenMR的模型都可以映射到上面的计算过程。注意使用map,reduce,select transform这几个语法其实语义是一样的用哪个关键字哪种写法不影响直接过程和结果。
性能
性能上SELECT TRANSFORM 与UDTF 各有千秋。经过多种场景对比测试数据量较小时大多数场景下select transform有优势而数据量大时UDTF有优势。由于transform的开发更加简便所以select transform非常适合做adhoc的数据分析。
UDTF的优势
UDTF是有类型而Transform的子进程基于stdin/stdout传输数据所有数据都当做string处理因此transform多了一步类型转换Transform数据传输依赖于操作系统的管道而目前管道的buffer仅有4KB且不能设置, transform读/写 空/满 的pipe会导致进程被挂起;UDTF的常量参数可以不用传输而Transform没办法利用这个优化。
SELECT TRANSFORM 的优势
子进程和父进程是两个进程而UDTF是单线程的如果计算占比比较高数据吞吐量比较小可以利用服务器的多核特性数据的传输通过更底层的系统调用来读写效率比java高SELECT TRANSFORM支持的某些工具如awk是natvie代码实现的和java相比理论上可能会有性能优势。
小结
MaxCompute基于ODPS2.0的SQL引擎提供了SELECT TRANSFORM功能可以明显简化对脚本代码的引用与此同时也提高了性能我们推荐您尽量使用SELECT TRANSFORM。
标注
注一USING 后面的字符串在后台是直接起的子进程来调起命令没有起shell所以shell的某些语法如输入输出重定向管道等是不支持的。如果用户需要可以以 shell 作为命令真正的命令作为数据输入参考“无中生有造数据”的例子注二JAVA 和 PYTHON 的实际路径可以从JAVA_HOME 和 PYTHON_HOME 环境变量中得到作业原文链接 本文为云栖社区原创内容未经允许不得转载。