pyspark如何实现相邻两行相减?
df.show(6)如下所示.
+--------------------+--------+
| MSID| etime|
+--------------------+--------+
|00E91B511D5E| 0|
|00E91B511D5E| 55|
|00E91B511D5E| 115|
|00E91B511D5E| 175|
|00E91B511D5E| 235|
|00E91B511D5E| 294|
前后etime相减,想要得到如下结果:
+--------------------+--------+---------+
| MSID| etime| order|
+--------------------+--------+---------+
|00E91B511D5E| 0| 55|
|00E91B511D5E| 55| 60|
|00E91B511D5E| 115| 60|
|00E91B511D5E| 175| 60|
|00E91B511D5E| 235| 60|
|00E91B511D5E| 294| -1|