PySpark:如何获取数据框中列的最大绝对值?

PySpark: how to get the maximum absolute value of a column in a data frame?

假设我有

+----+---+
|  v1| v2|
+----+---+
|-1.0|  0|
| 0.0|  1|
| 1.0|  2|
|-2.0|  3|
+----+---+

我想获得列 v1 的最大绝对值,即 2.0。谢谢!

aggmaxpyspark.sql.functions 中的 abs 结合使用:

import pyspark.sql.functions as F
df.agg(F.max(F.abs(df.v1))).first()[0]
# 2