Use with Spark¶
本文檔快速介紹瞭如何將 🤗 數據集與 Spark 結合使用,特別關注如何將 Spark DataFrame
轉換成 Huggingface 的 Dataset
物件。
從那裡,您可以快速訪問任何元素,並且可以將其用作數據加載器來訓練模型。
Load from Spark¶
Dataset 物件是 Apache Arrow table 的 wrapper,它允許從數據集中的 array 快速讀取到 PyTorch、TensorFlow 和 JAX 張量。 Arrow table 是從磁盤映射的內存,它可以加載大於可用 RAM 的數據集。
您可以使用 Dataset.from_spark()
從 Spark DataFrame
獲取數據集:
from datasets import Dataset
df = spark.createDataFrame(
data=[[1, "Elia"], [2, "Teo"], [3, "Fang"]],
columns=["id", "name"],
)
ds = Dataset.from_spark(df)
Spark worker 線程將數據集作為 Arrow 文件寫入磁盤上的緩存目錄中,並從那裡加載數據集。
或者,您可以使用 IterableDataset.from_spark()
,它返回一個 IterableDataset
:
from datasets import IterableDataset
df = spark.createDataFrame(
data=[[1, "Elia"], [2, "Teo"], [3, "Fang"]],
columns=["id", "name"],
)
ds = IterableDataset.from_spark(df)
print(next(iter(ds)))
結果:
Caching¶
使用 Dataset.from_spark()
時,生成的 Dataset 會被緩存;如果您在同一個 DataFrame 上多次調用 Dataset.from_spark()
,它不會重新運行將數據集作為 Arrow 文件寫入磁盤的 Spark job。
您可以通過將 cache_dir=
傳遞給 Dataset.from_spark()
來設置緩存位置。確保使用您的 worker 和當前計算機(驅動程序)都可用的 disk。
Feature types¶
如果您的數據集由 images、audio 數據或 N 維陣列組成,您可以在 Dataset.from_spark()
(或 IterableDataset.from_spark()
)中指定 features=
參數:
from datasets import Dataset, Features, Image, Value
data = [(0, open("image.png", "rb").read())]
df = spark.createDataFrame(data, "idx: int, image: binary")
# Also works if you have arrays
# data = [(0, np.zeros(shape=(32, 32, 3), dtype=np.int32).tolist())]
# df = spark.createDataFrame(data, "idx: int, image: array<array<array<int>>>")
features = Features({"idx": Value("int64"), "image": Image()})
dataset = Dataset.from_spark(df, features=features)
print(dataset[0])
結果:
您可以查看 Features 文檔以了解所有可用的 feature types。