Linux下如何实现给大文件排序去重
Admin 2022-07-27 群英技术资讯 846 次浏览
这篇文章主要介绍了Linux下如何实现给大文件排序去重相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Linux下如何实现给大文件排序去重文章都会有所收获,下面我们一起来看看吧。有一道校招生的面试题,是要给一个很大的文件(不能全部放内存,比如1T)按行来排序和去重。
一种简单解决方案就是分而治之,先打大文件分词大小均匀的若干个小文件,然后对小文件排好序,最后再Merge所有的小文件,在Merge的过程中去掉重复的内容。
在Linux下实现这个逻辑甚至不用自己写代码,只要用shell内置的一些命令: split, sort就足够了。我们把这个流程用脚本串起来,写到shell脚本文件里。文件名叫sort_uniq.sh.
#!/bin/bash
lines=$(wc -l $1 | sed 's/ .*//g')
lines_per_file=`expr $lines / 20`
split -d -l $lines_per_file $1 __part_$1
for file in __part_*
do
{
sort $file > sort_$file
} &
done
wait
sort -smu sort_* > $2
rm -f __part_*
rm -f sort_*
使用方法:./sort_uniq.sh file_to_be_sort file_sorted
这段代码把大文件分词20或21个小文件,后台并行排序各个小文件,最后合并结果并去重。
如果只要去重,不需要排序,还有另外一种思路:对文件的每一行计算hash值,按照hash值把该行内容放到某个小文件中,假设需要分词100个小文件,则可以按照(hash % 100)来分发文件内容,然后在小文件中实现去重就可以了。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
猜你喜欢
CentOS 7.4 使用源码包编译安装MySQL 5.7.20
unix和linux的区别:1、UNIX是商业化的,而Linux是开源的,是免费、公开源代码的;2、UNIX系统大多是与硬件配套的,也就是说无法安装在x86服务器和个人计算机上的,而Linux则可以运行在多种硬件平台上。
之前有遍文章介绍过了at这个命令,它用来设置只执行一次的定时任务。今天,和大家看看周期性执行的定时任务。工作中,周期性的定时任务会经常用到,比如系统文件的定时备份、数据库文件的定时备份、处理那些长时间没付款的订单等等。
安装的linux不是全屏的解决方法:1、点击系统左侧菜单栏的“设置”按钮,并在设置界面中点击硬件菜单中的“显示”;2、在显示界面中,选择一个合适的分辨率更改后点击“应用”即可。
首先需要知道的是,这个CIDR是用来解决什么问题的。我们知道,刚开始IP是被划分为5类的,并且能够我们用的只要前三类,但是这三类的划分有很大的问题。
成为群英会员,开启智能安全云计算之旅
立即注册关注或联系群英网络
7x24小时售前:400-678-4567
7x24小时售后:0668-2555666
24小时QQ客服
群英微信公众号
CNNIC域名投诉举报处理平台
服务电话:010-58813000
服务邮箱:service@cnnic.cn
投诉与建议:0668-2555555
Copyright © QY Network Company Ltd. All Rights Reserved. 2003-2020 群英 版权所有
增值电信经营许可证 : B1.B2-20140078 粤ICP备09006778号 域名注册商资质 粤 D3.1-20240008