做网站的费用入什么科目,台州做网站设计的公司,网站 内容 营销,gae安装wordpress转载自 海量数据处理 - 10亿个数中找出最大的10000个数#xff08;top K问题#xff09; 前两天面试3面学长问我的这个问题#xff08;想说TEG的3个面试学长都是好和蔼#xff0c;希望能完成最后一面#xff0c;各方面原因造成我无比想去鹅场的心已经按捺不住了#xff…转载自 海量数据处理 - 10亿个数中找出最大的10000个数top K问题 前两天面试3面学长问我的这个问题想说TEG的3个面试学长都是好和蔼希望能完成最后一面各方面原因造成我无比想去鹅场的心已经按捺不住了这个问题还是建立最小堆比较好一些。 先拿10000个数建堆然后一次添加剩余元素如果大于堆顶的数10000中最小的将这个数替换堆顶并调整结构使之仍然是一个最小堆这样遍历完后堆中的10000个数就是所需的最大的10000个。建堆时间复杂度是Omlogm算法的时间复杂度为Onmlogmn为10亿m为10000。 优化的方法可以把所有10亿个数据分组存放比如分别放在1000个文件中。这样处理就可以分别在每个文件的10^6个数据中找出最大的10000个数合并到一起在再找出最终的结果。 以上就是面试时简单提到的内容下面整理一下这方面的问题
top K问题 在大规模数据处理中经常会遇到的一类问题在海量数据中找出出现频率最好的前k个数或者从海量数据中找出最大的前k个数这类问题通常被称为top K问题。例如在搜索引擎中统计搜索最热门的10个查询词在歌曲库中统计下载最高的前10首歌等。 针对top K类问题通常比较好的方案是分治Trie树/hash小顶堆就是上面提到的最小堆即先将数据集按照Hash方法分解成多个小数据集然后使用Trie树活着Hash统计每个小数据集中的query词频之后用小顶堆求出每个数据集中出现频率最高的前K个数最后在所有top K中求出最终的top K。
eg有1亿个浮点数如果找出期中最大的10000个 最容易想到的方法是将数据全部排序然后在排序后的集合中进行查找最快的排序算法的时间复杂度一般为Onlogn如快速排序。但是在32位的机器上每个float类型占4个字节1亿个浮点数就要占用400MB的存储空间对于一些可用内存小于400M的计算机而言很显然是不能一次将全部数据读入内存进行排序的。其实即使内存能够满足要求我机器内存都是8GB该方法也并不高效因为题目的目的是寻找出最大的10000个数即可而排序却是将所有的元素都排序了做了很多的无用功。 第二种方法为局部淘汰法该方法与排序方法类似用一个容器保存前10000个数然后将剩余的所有数字——与容器内的最小数字相比如果所有后续的元素都比容器内的10000个数还小那么容器内这个10000个数就是最大10000个数。如果某一后续元素比容器内最小数字大则删掉容器内最小元素并将该元素插入容器最后遍历完这1亿个数得到的结果容器中保存的数即为最终结果了。此时的时间复杂度为Onm^2其中m为容器的大小即10000。 第三种方法是分治法将1亿个数据分成100份每份100万个数据找到每份数据中最大的10000个最后在剩下的100*10000个数据里面找出最大的10000个。如果100万数据选择足够理想那么可以过滤掉1亿数据里面99%的数据。100万个数据里面查找最大的10000个数据的方法如下用快速排序的方法将数据分为2堆如果大的那堆个数N大于10000个继续对大堆快速排序一次分成2堆如果大的那堆个数N大于10000个继续对大堆快速排序一次分成2堆如果大堆个数N小于10000个就在小的那堆里面快速排序一次找第10000-n大的数字递归以上过程就可以找到第1w大的数。参考上面的找出第1w大数字就可以类似的方法找到前10000大数字了。此种方法需要每次的内存空间为10^6*44MB一共需要101次这样的比较。 第四种方法是Hash法。如果这1亿个书里面有很多重复的数先通过Hash法把这1亿个数字去重复这样如果重复率很高的话会减少很大的内存用量从而缩小运算空间然后通过分治法或最小堆法查找最大的10000个数。 第五种方法采用最小堆。首先读入前10000个数来创建大小为10000的最小堆建堆的时间复杂度为Omlogmm为数组的大小即为10000然后遍历后续的数字并于堆顶最小数字进行比较。如果比最小的数小则继续读取后续数字如果比堆顶数字大则替换堆顶元素并重新调整堆为最小堆。整个过程直至1亿个数全部遍历完为止。然后按照中序遍历的方式输出当前堆中的所有10000个数字。该算法的时间复杂度为Onmlogm空间复杂度是10000常数。 实际运行 实际上最优的解决方案应该是最符合实际设计需求的方案在时间应用中可能有足够大的内存那么直接将数据扔到内存中一次性处理即可也可能机器有多个核这样可以采用多线程处理整个数据集。
下面针对不容的应用场景分析了适合相应应用场景的解决方案。
1单机单核足够大内存 如果需要查找10亿个查询次每个占8B中出现频率最高的10个考虑到每个查询词占8B则10亿个查询次所需的内存大约是10^9 * 8B8GB内存。如果有这么大内存直接在内存中对查询次进行排序顺序遍历找出10个出现频率最大的即可。这种方法简单快速使用。然后也可以先用HashMap求出每个词出现的频率然后求出频率最大的10个词。
2单机多核足够大内存 这时可以直接在内存总使用Hash方法将数据划分成n个partition每个partition交给一个线程处理线程的处理逻辑同1类似最后一个线程将结果归并。 该方法存在一个瓶颈会明显影响效率即数据倾斜。每个线程的处理速度可能不同快的线程需要等待慢的线程最终的处理速度取决于慢的线程。而针对此问题解决的方法是将数据划分成c×n个partitionc1每个线程处理完当前partition后主动取下一个partition继续处理知道所有数据处理完毕最后由一个线程进行归并。
3单机单核受限内存 这种情况下需要将原数据文件切割成一个一个小文件如次啊用hash(x)%M将原文件中的数据切割成M小文件如果小文件仍大于内存大小继续采用Hash的方法对数据文件进行分割知道每个小文件小于内存大小这样每个文件可放到内存中处理。采用1的方法依次处理每个小文件。
4多机受限内存 这种情况为了合理利用多台机器的资源可将数据分发到多台机器上每台机器采用3中的策略解决本地的数据。可采用hashsocket方法进行数据分发。 从实际应用的角度考虑1234方案并不可行因为在大规模数据处理环境下作业效率并不是首要考虑的问题算法的扩展性和容错性才是首要考虑的。算法应该具有良好的扩展性以便数据量进一步加大随着业务的发展数据量加大是必然的时在不修改算法框架的前提下可达到近似的线性比算法应该具有容错性即当前某个文件处理失败后能自动将其交给另外一个线程继续处理而不是从头开始处理。 top K问题很适合采用MapReduce框架解决用户只需编写一个Map函数和两个Reduce 函数然后提交到Hadoop采用Mapchain和Reducechain上即可解决该问题。具体而言就是首先根据数据值或者把数据hash(MD5)后的值按照范围划分到不同的机器上最好可以让数据划分后一次读入内存这样不同的机器负责处理不同的数值范围实际上就是Map。得到结果后各个机器只需拿出各自出现次数最多的前N个数据然后汇总选出所有的数据中出现次数最多的前N个数据这实际上就是Reduce过程。对于Map函数采用Hash算法将Hash值相同的数据交给同一个Reduce task对于第一个Reduce函数采用HashMap统计出每个词出现的频率对于第二个Reduce 函数统计所有Reduce task输出数据中的top K即可。 直接将数据均分到不同的机器上进行处理是无法得到正确的结果的。因为一个数据可能被均分到不同的机器上而另一个则可能完全聚集到一个机器上同时还可能存在具有相同数目的数据。 以下是一些经常被提及的该类问题。 1有10000000个记录这些查询串的重复度比较高如果除去重复后不超过3000000个。一个查询串的重复度越高说明查询它的用户越多也就是越热门。请统计最热门的10个查询串要求使用的内存不能超过1GB。
2有10个文件每个文件1GB每个文件的每一行存放的都是用户的query每个文件的query都可能重复。按照query的频度排序。
3有一个1GB大小的文件里面的每一行是一个词词的大小不超过16个字节内存限制大小是1MB。返回频数最高的100个词。
4提取某日访问网站次数最多的那个IP。
510亿个整数找出重复次数最多的100个整数。
6搜索的输入信息是一个字符串统计300万条输入信息中最热门的前10条每次输入的一个字符串为不超过255B内存使用只有1GB。
7有1000万个身份证号以及他们对应的数据身份证号可能重复找出出现次数最多的身份证号。 重复问题 在海量数据中查找出重复出现的元素或者去除重复出现的元素也是常考的问题。针对此类问题一般可以通过位图法实现。例如已知某个文件内包含一些电话号码每个号码为8位数字统计不同号码的个数。 本题最好的解决方法是通过使用位图法来实现。8位整数可以表示的最大十进制数值为99999999。如果每个数字对应于位图中一个bit位那么存储8位整数大约需要99MB。因为1B8bit所以99Mbit折合成内存为99/812.375MB的内存即可以只用12.375MB的内存表示所有的8位数电话号码的内容。