abs(col)
Описание
Функция abs()
вычисляет абсолютное значение числа.
Параметры
col
: Column - числовой столбец для вычисления абсолютного значения
Возвращаемое значение
Тип значения из указанного столбца - абсолютное значение числа
Пример использования abs
from pyspark.sql.functions import abs
from pyspark.sql import SparkSession
# Создаем SparkSession
spark = SparkSession.builder.appName("abs_example").getOrCreate()
# Создаем DataFrame
data = [
("A", 3.14159),
("B", -2.71828),
("C", 1.41421),
("D", -1.5)
]
df = spark.createDataFrame(data, ["id", "value"])
# Вычисляем абсолютные значения
result = df.select(
"id",
abs("value").alias("abs_value")
).show()
# Результат:
# +---+---------+
# |id |abs_value|
# +---+---------+
# |A |3.14159 |
# |B |2.71828 |
# |C |1.41421 |
# |D |1.5 |
# +---+---------+
Примечания
- Для округления в большую сторону используйте
ceil()
- Для округления в меньшую сторону используйте
floor()
- Для округления до указанного количества знаков после запятой используйте
round()
- Для генерации случайных чисел используйте
rand()
mathematical functions pyspark
- asin(col)
- atan(col)
- atan2(y, x)
- bin(col)
- bround(col, scale=0)
- cbrt(col)
- ceil(col)
- ceiling(col)
- conv(num, from_base, to_base)
- cos(col)
- cosh(col)
- cot(col)
- csc(col)
- e()
- exp()
- expm1()
- factorial()
- floor(col)
- hypot(col1, col2)
- log(col)
- log10(col)
- negative(col)
- pmod(dividend, divisor)
- positive(col)
- power(col1, col2)
- rand(seed=None)
- randn(seed=None)
- rint(col)
- round(col, scale=0)
- sec(col)
- sign(col)
- signum(col)
- tan(col)
- tanh(col)
- toDegrees(col)
- try_add()
- try_avg()
- try_divide()
- try_multiply()
- try_subtract()
- try_sum()
- try_to_number()