PySpark:如何获取数据框中列的最大绝对值?
PySpark: how to get the maximum absolute value of a column in a data frame?
假设我有
+----+---+
| v1| v2|
+----+---+
|-1.0| 0|
| 0.0| 1|
| 1.0| 2|
|-2.0| 3|
+----+---+
我想获得列 v1
的最大绝对值,即 2.0
。谢谢!
将 agg
与 max
和 pyspark.sql.functions
中的 abs
结合使用:
import pyspark.sql.functions as F
df.agg(F.max(F.abs(df.v1))).first()[0]
# 2
假设我有
+----+---+
| v1| v2|
+----+---+
|-1.0| 0|
| 0.0| 1|
| 1.0| 2|
|-2.0| 3|
+----+---+
我想获得列 v1
的最大绝对值,即 2.0
。谢谢!
将 agg
与 max
和 pyspark.sql.functions
中的 abs
结合使用:
import pyspark.sql.functions as F
df.agg(F.max(F.abs(df.v1))).first()[0]
# 2