FiftyOne
FiftyOne 是一个用于整理、可视化管理非结构化视觉数据的开源工具包。该库简化了以数据为中心的工作流,从查找低置信度预测到识别低质量样本,再到发现数据中的隐藏模式。该库支持各种视觉数据,从图像和视频到 PDF、点云和网格。
FiftyOne 支持目标检测、关键点、折线和自定义架构。
FiftyOne 与 Hugging Face Hub 集成,因此你可以直接从 Hub 加载和共享 FiftyOne 数据集。
🚀 在 Colab 中尝试 FiftyOne 🤝 Hugging Face 集成!
先决条件
hf auth login
确保已安装 fiftyone>=0.24.0:
pip install -U fiftyone
从 Hub 加载视觉数据集
使用 FiftyOne 的 Hugging Face utils 中的 load_from_hub(),你可以加载:
- 上传到 Hub 的任何 FiftyOne 数据集
- 存储在 Parquet 文件中的大多数基于图像的数据集(这是通过
datasets库上传到 Hub 的数据集的标准)
从 Hub 加载 FiftyOne 数据集
任何以 FiftyOne 的支持的常见格式之一推送到 Hub 的数据集都应该在其 Hub 上的数据集仓库中包含所有必要的配置信息,因此你可以通过指定其 repo_id 来加载数据集。例如,要加载 VisDrone 检测数据集:
import fiftyone as fo
from fiftyone.utils import load_from_hub
## load from the hub
dataset = load_from_hub("Voxel51/VisDrone2019-DET")
## visualize in app
session = fo.launch_app(dataset)

你可以自定义下载过程,包括要下载的样本数量、创建的数据集对象名称,或者是否持久化到磁盘。
你可以使用以下方式列出 Hub 上所有可用的 FiftyOne 数据集:
from huggingface_hub import HfApi
api = HfApi()
api.list_datasets(tags="fiftyone")
使用 FiftyOne 从 Hub 加载 Parquet 数据集
你也可以使用 load_from_hub() 函数从 Parquet 文件加载数据集。类型转换会自动处理,如果需要,图像会从 URL 下载。
通过此功能,你可以加载以下任何内容:
- FiftyOne 兼容的图像分类数据集,如 Food101 和 ImageNet-Sketch
- FiftyOne 兼容的目标检测数据集,如 CPPE-5 和 WIDER FACE
- FiftyOne 兼容的分割数据集,如 SceneParse150 和 Sidewalk Semantic
- FiftyOne 兼容的图像字幕数据集,如 COYO-700M 和 New Yorker Caption Contest
- FiftyOne 兼容的视觉问答数据集,如 TextVQA 和 ScienceQA
例如,我们可以将 WikiArt 数据集 的前 1,000 个样本加载到 FiftyOne:
import fiftyone as fo
from fiftyone.utils.huggingface import load_from_hub
dataset = load_from_hub(
"huggan/wikiart", ## repo_id
format="parquet", ## for Parquet format
classification_fields=["artist", "style", "genre"], ## columns to treat as classification labels
max_samples=1000, # number of samples to load
name="wikiart", # name of the dataset in FiftyOne
)

将 FiftyOne 数据集推送到 Hub
你可以使用以下方式将数据集推送到 Hub:
import fiftyone as fo
import fiftyone.zoo as foz
from fiftyone.utils.huggingface import push_to_hub
## load example dataset
dataset = foz.load_zoo_dataset("quickstart")
## push to hub
push_to_hub(dataset, "my-hf-dataset")
当你调用 push_to_hub() 时,数据集将上传到你的用户名下指定仓库名称的仓库,如果需要,将创建该仓库。将自动生成