Meta 继续发力推出DINOv2 视觉模型、FACET视觉测试和Belebele语言理解测试集
Meta AI 相当高产啊,开源了 DINOv2 视觉模型和FACET(计算机视觉公平性评估)测试。
DINOv2 是一种计算机视觉模型,通过自我监督学习进行训练,可产生通用特征。发布了一系列基于 DINOv2 的密集预测模型,用于语义图像分割和单目深度估计。
FACET(计算机视觉评估公平性),这是一个新的综合基准,用于评估计算机视觉模型在分类、检测、实例分割和视觉基础任务方面的公平性。该数据集由包含 50,000 人的 32,000 张图像组成。
DINOv2 论文:https://arxiv.org/abs/2304.07193
DINOv2 代码:https://github.com/facebookresearch/dinov2
DINOv2 演示:https://dinov2.metademolab.com/
FACET 论文:https://ai.meta.com/research/publications/facet-fairness-in-computer-vision-evaluation-benchmark/
获取 FACET 数据集:https://ai.meta.com/datasets/facet/
之后几天又推出了 Belebele,这是第一个多语言阅读理解数据集。该数据集对于 122 种语言变体是并行的,可以用来直接比较模型对不同语言的理解程度。
了解和使用Belebele:https://github.com/facebookresearch/belebele
© 版权声明
文章版权归作者所有,未经允许请勿转载。