sliding_window(timeColumn, windowDuration, slideDuration)
Описание
Функция sliding_window()
создает скользящее окно для агрегации данных.
Параметры
timeColumn
: Column - столбец с временными меткамиwindowDuration
: str - длительность окна (например, "5 minutes", "1 hour", "1 day")slideDuration
: str - шаг скольжения (например, "1 minute", "15 minutes", "1 hour")
Возвращаемое значение
Column - метка времени начала окна
Пример использования
from pyspark.sql.functions import sliding_window, count, col
from pyspark.sql import SparkSession
# Создаем SparkSession
spark = SparkSession.builder.appName("sliding_window_example").getOrCreate()
# Создаем DataFrame с временными метками
data = [
("2023-01-01 10:00:00", 1),
("2023-01-01 10:05:00", 2),
("2023-01-01 10:10:00", 3),
("2023-01-01 10:15:00", 4),
("2023-01-01 10:20:00", 5)
]
df = spark.createDataFrame(data, ["timestamp", "value"])
# Преобразуем строки в метки времени
df = df.withColumn("timestamp", col("timestamp").cast("timestamp"))
# Агрегируем данные по скользящим окнам
result = df.groupBy(
sliding_window("timestamp", "10 minutes", "5 minutes")
).agg(
count("value").alias("count")
)
result.show(truncate=False)
# Результат:
# +------------------------------------------+-----+
# |window |count|
# +------------------------------------------+-----+
# |[2023-01-01 10:00:00, 2023-01-01 10:10:00]|2 |
# |[2023-01-01 10:05:00, 2023-01-01 10:15:00]|3 |
# |[2023-01-01 10:10:00, 2023-01-01 10:20:00]|3 |
# |[2023-01-01 10:15:00, 2023-01-01 10:25:00]|2 |
# |[2023-01-01 10:20:00, 2023-01-01 10:30:00]|1 |
# +------------------------------------------+-----+
Примечания
- Окна могут перекрываться
- Размер окна и шаг скольжения фиксированные
- Полезно для:
- Анализа трендов
- Сглаживания данных
- Выявления паттернов
- Связанные функции:
tumbling_window()
- фиксированное окноwindow()
- общее окно