搞定MySQL大量数据去重的简单方法
发布时间:2023-10-16 16:03:37 所属栏目:MySql教程 来源:
导读:下面讲讲关于处理MySQL大量数据去重的简单方法,文字的奥妙在于贴近主题相关。所以,闲话就不谈了,我们直接看下文吧,相信看完处理MySQL大量数据去重的简单方法这篇文章你一定会有所受益。
因为有大量的
因为有大量的
下面讲讲关于处理MySQL大量数据去重的简单方法,文字的奥妙在于贴近主题相关。所以,闲话就不谈了,我们直接看下文吧,相信看完处理MySQL大量数据去重的简单方法这篇文章你一定会有所受益。 因为有大量的重复数据,所以选择的去重方法是通过聚合函数建立一个新的表,然后重命名。sql代码如下: create table tmp select * from table_name group by column1,column2; 然后呢,因为删除过大量数据,所以id都快到600000了。。。看着太碍眼了,所以把id变成从1 开始了。方法是先把id字段删除了,然后再增加id字段并设为自增长,好了,终于看着舒心了。。。三十多万的数据去重后大概十八条数据,用时70s,估计几千万数据的时候我就该哭了,anyway,到时再说,继续想想有什么好办法。 注意:如果之前是按id排序的,改为从1开始后,不会和之前的顺序一样。会按照第二个字段重新排序的。 (编辑:聊城站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐