转载自: 如何充分发挥 SQL 能力?
阿里妹导读
如何充分发挥 SQL 能力,是本篇文章的主题。本文尝试独辟蹊径,强调通过灵活的、发散性的数据处理思维,就可以用最基础的语法,解决复杂的数据场景。
一、前言
1.1 初衷
如何高效地使用 MaxCompute(ODPS)SQL ,将基础 SQL 语法运用到极致。
在大数据如此流行的今天,不只是专业的数据人员,需要经常地跟 SQL 打交道,即使是产品、运营等非技术同学,也会或多或少地使用到 SQL ,如何高效地发挥 SQL 的能力,继而发挥数据的能力,变得尤为重要。 MaxCompute(ODPS)SQL 发展到今天已经颇为成熟,作为一种 SQL 方言,其 SQL 语法支持完备,具有非常丰富的内置函数,支持开窗函数、用户自定义函数、用户自定义类型等诸多高级特性,可以高效地应用在各种数据处理场景。
如何充分发挥 SQL 能力,是本篇文章的主题。本文尝试独辟蹊径,强调通过灵活的、发散性的数据处理思维,就可以用最基础的语法,解决复杂的数据场景。
1.2 适合人群
不论是初学者还是资深人员,本篇文章或许都能有所帮助,不过更适合中级、高级读者阅读。
本篇文章重点介绍数据处理思维,并没有涉及到过多高阶的语法,同时为了避免主题发散,文中涉及的函数、语法特性等,不会花费篇幅进行专门的介绍,读者可以按自身情况自行了解。
1.3 内容结构
本篇文章将围绕数列生成、区间变换、排列组合、连续判别等主题进行介绍,并附以案例进行实际运用讲解。每个主题之间有轻微的前后依赖关系,依次阅读更佳。
1.4 提示信息
本篇文章涉及的 SQL 语句只使用到了 MaxCompute(ODPS)SQL 基础语法特性,理论上所有 SQL 均可以在当前最新版本中运行,同时特意注明,运行环境、兼容性等问题不在本篇文章关注范围内。
二、数列
数列是最常见的数据形式之一,实际数据开发场景中遇到的基本都是有限数列。本节将从最简单的递增数列开始,找出一般方法并推广到更泛化的场景。
2.1 常见数列
2.1.1 一个简单的递增数列
首先引出一个简单的递增整数数列场景:
- 从数值 0 开始;
- 之后的每个数值递增 1 ;
- 至数值 3 结束;
如何生成满足以上三个条件的数列?即 [0,1,2,3] 。 实际上,生成该数列的方式有多种,此处介绍其中一种简单且通用的方案。
-- SQL - 1select t.pos as a\_nfrom ( select posexplode(split(space(3), space(1), false))) t;
通过上述 SQL 片段可得知,生成一个递增序列只需要三个步骤:
1)生成一个长度合适的数组,数组中的元素不需要具有实际含义; 2)通过 UDTF 函数 posexplode 对数组中的每个元素生成索引下标; 3)取出每个元素的索引下标。以上三个步骤可以推广至更一般的数列场景:等差数列、等比数列。下文将以此为基础,直接给出最终实现模板。
2.1.2 等差数列
若设首项
,公差为
SQL 实现:
-- SQL - 2select a + t.pos \* d as a\_nfrom ( select posexplode(split(space(n - 1), space(1), false))) t;
2.1.3 等比数列
若设首项
,公比为
,则等比数列的通项公式为
。
SQL 实现:
-- SQL - 3select a \* pow(q, t.pos) as a\_nfrom ( select posexplode(split(space(n - 1), space(1), false))) t;
提示:亦可直接使用 MaxCompute(ODPS)系统函数 sequence 快速生成数列。
-- SQL - 4select sequence(1, 3, 1);
-- result[1, 2, 3]
2.2 应用场景举例
2.2.1 还原任意维度组合下的维度列簇名称
在多维分析场景下,可能会用到高阶聚合函数,如 cube 、 rollup 、 grouping sets 等,可以针对不同维度组合下的数据进行聚合统计。
场景描述
现有用户访问日志表 visit_log ,每一行数据表示一条用户访问日志。
-- SQL - 5with visit\_log as ( select stack ( 6, '2024-01-01', '101', '湖北', '武汉', 'Android', '2024-01-01', '102', '湖南', '长沙', 'IOS', '2024-01-01', '103', '四川', '成都', 'Windows', '2024-01-02', '101', '湖北', '孝感', 'Mac', '2024-01-02', '102', '湖南', '邵阳', 'Android', '2024-01-03', '101', '湖北', '武汉', 'IOS' ) -- 字段:日期,用户,省份,城市,设备类型 as (dt, user\_id, province, city, device\_type))select \* from visit\_log;
现针对省份 province , 城市 city, 设备类型 device_type 三个维度列,通过 grouping sets 聚合统计得到了不同维度组合下的用户访问量。问: 1)如何知道一条统计结果是根据哪些维度列聚合出来的? 2)想要输出 聚合的维度列的名称,用于下游的报表展示等场景,又该如何处理?
解决思路
可以借助 MaxCompute(ODPS)提供的 GROUPING__ID 来解决,核心方法是对 GROUPING__ID 进行逆向实现。
详细步骤如下:
一、准备好所有的 GROUPING__ID 。
生成一个包含
个数值的递增数列,将每个数值转为 2 进制字符串,并展开该 2 进制字符串的每个比特位。
| GROUPING__ID | bits | | 0 | { ..., 0, 0, 0 } | | 1 | { ..., 0, 0, 1 } | | 2 | { ..., 0, 1, 0 } | | 3 | { ..., 0, 1, 1 } | | ... | ... | | 2n2n | ... |
其中
为所有维度列的数量,
即为所有维度组合的数量,每个数值表示一种 GROUPING__ID。
二、准备好所有维度名称。
生成一个字符串序列,依次保存
个维度列的名称,即
{ dim\_name\_1, dim\_name\_2, ..., dim\_name\_n }
三、将 GROUPING__ID 映射到维度列名称。 对于 GROUPING__ID 递增数列中的每个数值,将该数值的 2 进制每个比特位与维度名称序列的下标进行映射,输出所有对应比特位 0 的维度名称。例如:
GROUPING\_\_ID:3 => { 0, 1, 1 }维度名称序列:{ 省份, 城市, 设备类型 }
映射:{ 0:省份, 1:城市, 1:设备类型 }
GROUPING\_\_ID 为 3 的数据行聚合维度即为:省份
SQL 实现
-- SQL - 6with group\_dimension as ( select -- 每种分组对应的维度字段 gb.group\_id, concat\_ws(",", collect\_list(case when gb.placeholder\_bit = 0 then dim\_col.val else null end)) as dimension\_name from ( select groups.pos as group\_id, pe.\* from ( select posexplode(split(space(cast(pow(2, 3) as int) - 1), space(1), false)) ) groups -- 所有分组 lateral view posexplode(regexp\_extract\_all(lpad(conv(groups.pos,10,2), 3, "0"), '(0|1)')) pe as placeholder\_idx, placeholder\_bit -- 每个分组的bit信息 ) gb left join ( -- 所有维度字段 select posexplode(split("省份,城市,设备类型", ',')) ) dim\_col on gb.placeholder\_idx = dim\_col.pos group by gb.group\_id)select group\_dimension.dimension\_name, province, city, device\_type, visit\_countfrom ( select grouping\_id(province, city, device\_type) as group\_id, province, city, device\_type, count(1) as visit\_count from visit\_log b group by province, city, device\_type GROUPING SETS( (province), (province, city), (province, city, device\_type) )) tjoin group\_dimension on t.group\_id = group\_dimension.group\_idorder by group\_dimension.dimension\_name;
| dimension_name | province | city | device_type | visit_count | | 省份 | 湖北 | NULL | NULL | 3 | | 省份 | 湖南 | NULL | NULL | 2 | | 省份 | 四川 | NULL | NULL | 1 | | 省份,城市 | 湖北 | 武汉 | NULL | 2 | | 省份,城市 | 湖南 | 长沙 | NULL | 1 | | 省份,城市 | 湖南 | 邵阳 | NULL | 1 | | 省份,城市 | 湖北 | 孝感 | NULL | 1 | | 省份,城市 | 四川 | 成都 | NULL | 1 | | 省份,城市,设备类型 | 湖北 | 孝感 | Mac | 1 | | 省份,城市,设备类型 | 湖南 | 长沙 | IOS | 1 | | 省份,城市,设备类型 | 湖南 | 邵阳 | Android | 1 | | 省份,城市,设备类型 | 四川 | 成都 | Windows | 1 | | 省份,城市,设备类型 | 湖北 | 武汉 | Android | 1 | | 省份,城市,设备类型 | 湖北 | 武汉 | IOS | 1 |
三、区间
区间相较数列具有不同的数据特征,不过在实际应用中,数列与区间的处理具有较多相通性。本节将介绍一些常见的区间场景,并抽象出通用的解决方案。
3.1 常见区间操作
3.1.1 区间分割
已知一个数值区间
,如何将该区间均分成
段子区间?
该问题可以简化为数列问题,数列公式为
,其中
,具体步骤如下:
1)生成一个长度为
的数组;
2)通过 UDTF 函数 posexplode 对数组中的每个元素生成索引下标;
3)取出每个元素的索引下标,并进行数列公式计算,得出每个子区间的起始值与结束值。
SQL 实现:
-- SQL - 7select a + t.pos \* d as sub\_interval\_start, -- 子区间起始值 a + (t.pos + 1) \* d as sub\_interval\_end -- 子区间结束值from ( select posexplode(split(space(n - 1), space(1), false))) t;
3.1.2 区间交叉
已知两个日期区间存在交叉 ['2024-01-01', '2024-01-03'] 、 ['2024-01-02', '2024-01-04']。问:
1)如何合并两个日期区间,并返回合并后的新区间?
2)如何知道哪些日期是交叉日期,并返回该日期交叉次数?
解决上述问题的方法有多种,此处介绍其中一种简单且通用的方案。核心思路是结合数列生成、区间分割方法,先将日期区间分解为最小处理单元,即多个日期组成的数列,然后再基于日期粒度做统计。具体步骤如下:
1)获取每个日期区间包含的天数; 2)按日期区间包含的天数,将日期区间拆分为相应数量的递增日期序列; 3)通过日期序列统计合并后的区间,交叉次数。
SQL 实现:
-- SQL - 8with dummy\_table as ( select stack( 2, '2024-01-01', '2024-01-03', '2024-01-02', '2024-01-04' ) as (date\_start, date\_end))select min(date\_item) as date\_start\_merged, max(date\_item) as date\_end\_merged, collect\_set( -- 交叉日期计数 case when date\_item\_cnt > 1 then concat(date\_item, ':', date\_item\_cnt) else null end ) as overlap\_datefrom ( select -- 拆解后的单个日期 date\_add(date\_start, pos) as date\_item, -- 拆解后的单个日期出现的次数 count(1) over (partition by date\_add(date\_start, pos)) as date\_item\_cnt from dummy\_table lateral view posexplode(split(space(datediff(date\_end, date\_start)), space(1), false)) t as pos, val) t;
| date_start_merged | date_end_merged | overlap_date | | 2024-01-01 | 2024-01-04 | ["2024-01-02:2","2024-01-03:2"] |
🤔增加点儿难度!
如果有多个日期区间,且区间之间交叉状态未知,上述问题又该如何求解。即:
1)如何合并多个日期区间,并返回合并后的多个新区间? 2)如何知道哪些日期是交叉日期,并返回该日期交叉次数?
SQL 实现:
-- SQL - 9with dummy\_table as ( select stack( 5, '2024-01-01', '2024-01-03', '2024-01-02', '2024-01-04', '2024-01-06', '2024-01-08', '2024-01-08', '2024-01-08', '2024-01-07', '2024-01-10' ) as (date\_start, date\_end))select min(date\_item) as date\_start\_merged, max(date\_item) as date\_end\_merged, collect\_set( -- 交叉日期计数 case when date\_item\_cnt > 1 then concat(date\_item, ':', date\_item\_cnt) else null end ) as overlap\_datefrom ( select -- 拆解后的单个日期 date\_add(date\_start, pos) as date\_item, -- 拆解后的单个日期出现的次数 count(1) over (partition by date\_add(date\_start, pos)) as date\_item\_cnt, -- 对于拆解后的单个日期,重组为新区间的标记 date\_add(date\_add(date\_start, pos), 1 - dense\_rank() over (order by date\_add(date\_start, pos))) as cont from dummy\_table lateral view posexplode(split(space(datediff(date\_end, date\_start)), space(1), false)) t as pos, val) tgroup by cont;
| date_start_merged | date_end_merged | overlap_date | | 2024-01-01 | 2024-01-04 | ["2024-01-02:2","2024-01-03:2"] | | 2024-01-06 | 2024-01-10 | ["2024-01-07:2","2024-01-08:3"] |
3.2 应用场景举例
3.2.1 按任意时段统计数据
场景描述
现有用户还款计划表 user_repayment ,该表内的一条数据,表示用户在指定日期区间内 [date_start, date_end] ,每天还款 repayment 元。
-- SQL - 10with user\_repayment as ( select stack( 3, '101', '2024-01-01', '2024-01-15', 10, '102', '2024-01-05', '2024-01-20', 20, '103', '2024-01-10', '2024-01-25', 30 ) -- 字段:用户,开始日期,结束日期,每日还款金额 as (user\_id, date\_start, date\_end, repayment))select \* from user\_repayment;
如何统计任意时段内(如:2024-01-15至2024-01-16)每天所有用户的应还款总额?
解决思路
核心思路是将日期区间转换为日期序列,再按日期序列进行汇总统计。
SQL 实现
-- SQL - 11select date\_item as day, sum(repayment) as total\_repaymentfrom ( select date\_add(date\_start, pos) as date\_item, repayment from user\_repayment lateral view posexplode(split(space(datediff(date\_end, date\_start)), space(1), false)) t as pos, val) twhere date\_item >= '2024-01-15' and date\_item <= '2024-01-16'group by date\_itemorder by date\_item;
| day | total_repayment | | 2024-01-15 | 60 | | 2024-01-16 | 50 |
四、排列组合
排列组合是针对离散数据常用的数据组织方法,本节将分别介绍排列、组合的实现方法,并结合实例着重介绍通过组合对数据的处理。
4.1 常见排列组合操作
4.1.1 排列
已知字符序列 [ 'A', 'B', 'C' ] ,每次从该序列中可重复地选取出 2 个字符,如何获取到所有的排列?
借助多重 lateral view 即可解决,整体实现比较简单。
-- SQL - 12select concat(val1, val2) as permfrom (select split('A,B,C', ',') as characters) dummylateral view explode(characters) t1 as val1lateral view explode(characters) t2 as val2;
| perm | | AA | | AB | | AC | | BA | | BB | | BC | | CA | | CB | | CC |
4.1.2 组合
已知字符序列 [ 'A', 'B', 'C' ] ,每次从该序列中可重复地选取出 2 个字符,如何获取到所有的组合?
借助多重 lateral view 即可解决,整体实现比较简单。
-- SQL - 13select concat(least(val1, val2), greatest(val1, val2)) as combfrom (select split('A,B,C', ',') as characters) dummylateral view explode(characters) t1 as val1lateral view explode(characters) t2 as val2group by least(val1, val2), greatest(val1, val2);
| comb | | AA | | AB | | AC | | BB | | BC | | CC |
提示:亦可直接使用 MaxCompute(ODPS)系统函数 combinations 快速生成组合。
-- SQL - 14select combinations(array('foo', 'bar', 'boo'),2);
-- result[['foo', 'bar'], ['foo', 'boo']['bar', 'boo']]
4.2 应用场景举例
4.2.1 分组对比统计
场景描述
现有投放策略转化表,该表内的一条数据,表示一天内某投放策略带来的订单量。
-- SQL - 15with strategy\_order as ( select stack( 3, '2024-01-01', 'Strategy A', 10, '2024-01-01', 'Strategy B', 20, '2024-01-01', 'Strategy C', 30 ) -- 字段:日期,投放策略,单量 as (dt, strategy, order\_cnt))select \* from strategy\_order;
如何按投放策略建立两两对比组,按组对比展示不同策略转化单量情况?
| 对比组 | 投放策略 | 转化单量 | | Strategy A-Strategy B | Strategy A | xxx | | Strategy A-Strategy B | Strategy B | xxx |
解决思路
核心思路是从所有投放策略列表中不重复地取出 2 个策略,生成所有的组合结果,然后关联 strategy_order 表分组统计结果。
SQL 实现
-- SQL - 16select /\*+ mapjoin(combs) \*/ combs.strategy\_comb, so.strategy, so.order\_cntfrom strategy\_order sojoin ( -- 生成所有对比组 select concat(least(val1, val2), '-', greatest(val1, val2)) as strategy\_comb, least(val1, val2) as strategy\_1, greatest(val1, val2) as strategy\_2 from ( select collect\_set(strategy) as strategies from strategy\_order ) dummy lateral view explode(strategies) t1 as val1 lateral view explode(strategies) t2 as val2 where val1 <> val2 group by least(val1, val2), greatest(val1, val2)) combs on 1 = 1where so.strategy in (combs.strategy\_1, combs.strategy\_2)order by combs.strategy\_comb, so.strategy;
| 对比组 | 投放策略 | 转化单量 | | Strategy A-Strategy B | Strategy A | 10 | | Strategy A-Strategy B | Strategy B | 20 | | Strategy A-Strategy C | Strategy A | 10 | | Strategy A-Strategy C | Strategy C | 30 | | Strategy B-Strategy C | Strategy B | 20 | | Strategy B-Strategy C | Strategy C | 30 |
五、连续
本节主要介绍连续性问题,重点描述了常见连续活跃场景。对于静态类型的连续活跃、动态类型的连续活跃,分别阐述了不同的实现方案。
5.1 普通连续活跃统计
场景描述
现有用户访问日志表 visit_log ,每一行数据表示一条用户访问日志。
-- SQL - 17with visit\_log as ( select stack ( 6, '2024-01-01', '101', '湖北', '武汉', 'Android', '2024-01-01', '102', '湖南', '长沙', 'IOS', '2024-01-01', '103', '四川', '成都', 'Windows', '2024-01-02', '101', '湖北', '孝感', 'Mac', '2024-01-02', '102', '湖南', '邵阳', 'Android', '2024-01-03', '101', '湖北', '武汉', 'IOS' ) -- 字段:日期,用户,省份,城市,设备类型 as (dt, user\_id, province, city, device\_type))select \* from visit\_log;
如何获取连续访问大于或等于 2 天的用户? 上述问题在分析连续性时,获取连续性的结果以超过固定阈值为准,此处归类为 连续活跃大于 N 天阈值的普通连续活跃场景统计。
SQL 实现
基于相邻日期差实现( lag / lead 版)
整体实现比较简单。
-- SQL - 18select user\_idfrom ( select \*, lag(dt, 2 - 1) over (partition by user\_id order by dt) as lag\_dt from (select dt, user\_id from visit\_log group by dt, user\_id) t0) t1where datediff(dt, lag\_dt) + 1 = 2group by user\_id;
| user_id | | 101 | | 102 |
基于相邻日期差实现(排序版)
整体实现比较简单。
-- SQL - 19select user\_idfrom ( select \*, dense\_rank() over (partition by user\_id order by dt) as dr from visit\_log) t1where datediff(dt, date\_add(dt, 1 - dr)) + 1 = 2group by user\_id;
| user_id | | 101 | | 102 |
基于连续活跃天数实现
可以视作 基于相邻日期差实现(排序版) 的衍生版本,该实现能获取到更多信息,如连续活跃天数。
-- SQL - 20select user\_idfrom ( select \*, -- 连续活跃天数 count(distinct dt) over (partition by user\_id, cont) as cont\_days from ( select \*, date\_add(dt, 1 - dense\_rank() over (partition by user\_id order by dt)) as cont from visit\_log ) t1) t2where cont\_days >= 2group by user\_id;
| user_id | | 101 | | 102 |
基于连续活跃区间实现
可以视作 基于相邻日期差实现(排序版) 的衍生版本,该实现能获取到更多信息,如连续活跃区间。
-- SQL - 21select user\_idfrom ( select user\_id, cont, -- 连续活跃区间 min(dt) as cont\_date\_start, max(dt) as cont\_date\_end from ( select \*, date\_add(dt, 1 - dense\_rank() over (partition by user\_id order by dt)) as cont from visit\_log ) t1 group by user\_id, cont) t2where datediff(cont\_date\_end, cont\_date\_start) + 1 >= 2group by user\_id;
| user_id | | 101 | | 102 |
5.2 动态连续活跃统计
场景描述
现有用户访问日志表 visit_log ,每一行数据表示一条用户访问日志。
-- SQL - 22with visit\_log as ( select stack ( 6, '2024-01-01', '101', '湖北', '武汉', 'Android', '2024-01-01', '102', '湖南', '长沙', 'IOS', '2024-01-01', '103', '四川', '成都', 'Windows', '2024-01-02', '101', '湖北', '孝感', 'Mac', '2024-01-02', '102', '湖南', '邵阳', 'Android', '2024-01-03', '101', '湖北', '武汉', 'IOS' ) -- 字段:日期,用户,省份,城市,设备类型 as (dt, user\_id, province, city, device\_type))select \* from visit\_log;
如何获取最长的 2 个连续活跃用户,输出用户、最长连续活跃天数、最长连续活跃日期区间? 上述问题在分析连续性时,获取连续性的结果不是且无法与固定的阈值作比较,而是各自以最长连续活跃作为动态阈值,此处归类为 动态连续活跃场景统计。
SQL 实现
基于 普通连续活跃场景统计 的思路进行扩展即可,此处直接给出最终 SQL :
-- SQL - 23select user\_id, -- 最长连续活跃天数 datediff(max(dt), min(dt)) + 1 as cont\_days, -- 最长连续活跃日期区间 min(dt) as cont\_date\_start, max(dt) as cont\_date\_endfrom ( select \*, date\_add(dt, 1 - dense\_rank() over (partition by user\_id order by dt)) as cont from visit\_log) t1group by user\_id, contorder by cont\_days desclimit 2;
| user_id | cont_days | cont_date_start | cont_date_end | | 101 | 3 | 2024-01-01 | 2024-01-03 | | 102 | 2 | 2024-01-01 | 2024-01-02 |
六、扩展
引申出更复杂的场景,是本篇文章前面章节内容的结合与变种。
6.1 区间连续(最长子区间切分)
场景描述
现有用户扫描或连接 WiFi 记录表 user_wifi_log ,每一行数据表示某时刻用户扫描或连接 WiFi 的日志。
-- SQL - 24with user\_wifi\_log as ( select stack ( 9, '2024-01-01 10:01:00', '101', 'cmcc-Starbucks', 'scan', -- 扫描 '2024-01-01 10:02:00', '101', 'cmcc-Starbucks', 'scan', '2024-01-01 10:03:00', '101', 'cmcc-Starbucks', 'scan', '2024-01-01 10:04:00', '101', 'cmcc-Starbucks', 'conn', -- 连接 '2024-01-01 10:05:00', '101', 'cmcc-Starbucks', 'conn', '2024-01-01 10:06:00', '101', 'cmcc-Starbucks', 'conn', '2024-01-01 11:01:00', '101', 'cmcc-Starbucks', 'conn', '2024-01-01 11:02:00', '101', 'cmcc-Starbucks', 'conn', '2024-01-01 11:03:00', '101', 'cmcc-Starbucks', 'conn' ) -- 字段:时间,用户,WiFi,状态(扫描、连接) as (time, user\_id, wifi, status))select \* from user\_wifi\_log;
现需要进行用户行为分析,如何划分用户不同 WiFi 行为区间?满足: 1)行为类型分为两种:连接(scan)、扫描(conn); 2)行为区间的定义为:相同行为类型,且相邻两次行为的时间差不超过 30 分钟; 3)不同行为区间在满足定义的情况下应取到最长;
| user_id | wifi | status | time_start | time_end | 备注 | | 101 | cmcc-Starbucks | scan | 2024-01-01 10:01:00 | 2024-01-01 10:03:00 | 用户扫描了 WiFi | | 101 | cmcc-Starbucks | conn | 2024-01-01 10:04:00 | 2024-01-01 10:06:00 | 用户连接了 WiFi | | 101 | cmcc-Starbucks | conn | 2024-01-01 11:01:00 | 2024-01-01 11:02:00 | 距离上次连接已经超过 30 分钟,认为是一次新的连接行为 |
上述问题稍显复杂,可视作 动态连续活跃统计 中介绍的 最长连续活跃 的变种。可以描述为 结合连续性阈值与行为序列中的上下文信息,进行最长子区间的划分 的问题。
SQL 实现
核心逻辑:以用户、WIFI 分组,结合连续性阈值与行为序列上下文信息,划分行为区间。
详细步骤:
1)以用户、WIFI 分组,在分组窗口内对数据按时间正序排序; 2)依次遍历分组窗口内相邻两条记录,若两条记录之间的时间差超过 30 分钟,或者两条记录的行为状态(扫描态、连接态)发生变更,则以该临界点划分行为区间。直到遍历所有记录; 3)最终输出结果:用户、WIFI、行为状态(扫描态、连接态)、行为开始时间、行为结束时间;
-- SQL - 25select user\_id, wifi, max(status) as status, min(time) as start\_time, max(time) as end\_timefrom ( select \*, max(if(lag\_status is null or lag\_time is null or status <> lag\_status or datediff(time, lag\_time, 'ss') > 60 \* 30, rn, null)) over (partition by user\_id, wifi order by time) as group\_idx from ( select \*, row\_number() over (partition by user\_id, wifi order by time) as rn, lag(time, 1) over (partition by user\_id, wifi order by time) as lag\_time, lag(status, 1) over (partition by user\_id, wifi order by time) as lag\_status from user\_wifi\_log ) t1) t2group by user\_id, wifi, group\_idx;
| user_id | wifi | status | start_time | end_time | | 101 | cmcc-Starbucks | scan | 2024-01-01 10:01:00 | 2024-01-01 10:03:00 | | 101 | cmcc-Starbucks | conn | 2024-01-01 10:04:00 | 2024-01-01 10:06:00 | | 101 | cmcc-Starbucks | conn | 2024-01-01 11:01:00 | 2024-01-01 11:03:00 |
该案例中的连续性判别条件可以推广到更多场景,例如基于日期差值、时间差值、枚举类型、距离差值等作为连续性判别条件的数据场景。
结语
通过灵活的、散发性的数据处理思维,就可以用基础的语法,解决复杂的数据场景 是本篇文章贯穿全文的思想。文中针对数列生成、区间变换、排列组合、连续判别等常见的场景,给出了相对通用的解决方案,并结合实例进行了实际运用的讲解。
本篇文章尝试独辟蹊径,强调灵活的数据处理思维,希望能让读者觉得眼前一亮,更希望真的能给读者产生帮助。同时毕竟个人能力有限,思路不一定是最优的,甚至可能出现错误,欢迎提出意见或建议。
欢迎加入【阿里云开发者公众号】读者群
这是一个专门面向“阿里云开发者”公众号的读者交流空间 💡 在这里你可以探讨技术和实践,我们也会定期发布群福利和活动~ 欢迎扫码或者添加微信:argentinaliu 加入我们👇