❀数据集❀情绪识别数据集

1.FER2013

Fer2013 包含大约 30,000 张不同表情的面部 RGB 图像,尺寸限制为 48×48,其主要标签可分为 7 种类型:0=愤怒,1=厌恶,2=恐惧,3=快乐,4=悲伤, 5=惊喜,6=中性。Disgust 表达式的图像数量最少 – 600 个,而其他标签每个都有近 5,000 个样本。

数据集描述:只有一个fer2013.csv文件

数据处理后分为测试集,训练集,每个文件下有7个表情分类,无单独anno

2.ck+

Extended Cohn-Kanade (CK+) 数据集包含来自 123 个不同主题的 593 个视频序列,这些主题的年龄从 18 岁到 50 岁不等,具有各种性别和传统。每个视频都显示了从中性表情到目标峰值表情的面部转变,以每秒 30 帧 (FPS) 的速度录制,分辨率为 640×490 或 640×480 像素。在这些视频中,有 327 个被标记为七种表达类别之一:愤怒、蔑视、厌恶、恐惧、快乐、悲伤和惊讶。CK+ 数据库被广泛认为是可用的最广泛使用的实验室控制的面部表情分类数据库,并用于大多数面部表情分类方法。

3.ExpW

Expression in-the-Wild (ExpW)数据集用于面部表情识别,包含 91,793 张用表情手动标记的面部。每个人脸图像都被注释为七个基本表情类别之一:“愤怒”、“厌恶”、“恐惧”、“快乐”、“悲伤”、“惊讶”或“中性”。

4.JAFFE(日本女性面部表情)

JAFFE数据集包含来自 10 个不同日本女性受试者的213 张不同面部表情的图像。每个受试者被要求做 7 个面部表情(6 个基本面部表情和中性表情),并且由 60 个注释者对每个面部表情的平均语义等级进行注释。

5.FERG(面部表情研究组数据库)

FERG是一个带有注释面部表情的卡通人物数据库,包含 6 个字符的 55,769 个注释面部图像。每个字符的图像分为 7 种主要表达方式,即。愤怒、厌恶、恐惧、喜悦、中性、悲伤和惊讶。

6.AffectNet

AffectNet是一个大型面部表情数据集,包含大约 40 万张手动标记的图像,其中包含八种(中性、快乐、愤怒、悲伤、恐惧、惊讶、厌恶、蔑视)面部表情以及效价和唤醒的强度。

7.FER+(面部表情识别加数据集)

FER+数据集是原始 FER 数据集的扩展,其中图像已被重新标记为 8 种情绪类型之一:中性、快乐、惊讶、悲伤、愤怒、厌恶、恐惧和轻蔑。

8.RAF-DB(真实世界的情感面孔)

真实世界的情感面孔数据库(RAF-DB) 是用于面部表情的数据集。它包含 29672 张面部图像,由 40 个独立的标记器标记了基本或复合表情。该数据库中的图像在受试者的年龄、性别和种族、头部姿势、光照条件、遮挡(例如眼镜、面部毛发或自我遮挡)、后处理操作(例如各种滤镜和特殊效果)、等等。

9.SFEW(野外静态面部表情)

野生静态面部表情 (SFEW) 数据集是用于面部表情识别的数据集。它是通过基于面部点聚类计算关键帧从 AFEW 数据库中选择静态帧而创建的。最常用的版本 SFEW 2.0 是 EmotiW 2015 中 SReco 子挑战的基准数据。SFEW 2.0 分为三组:Train(958 个样本)、Val(436 个样本)和 Test(372 个样本)。每个图像都被分配到七种表情类别之一,即愤怒、厌恶、恐惧、中性、快乐、悲伤和惊讶。训练集和验证集的表达标签是公开的,而测试集的表达标签则由挑战组织者保留。

10.DISFA(自发面部动作的丹佛强度)

Denver Intensity of Spontaneous Facial Action(DISFA) 数据集由 27 个视频组成,每个视频 4844 帧,共有 130,788 张图像。动作单元注释处于不同的强度级别,在以下实验中将被忽略,动作单元要么设置要么未设置。DISFA 是从面部表情识别领域流行的更广泛的数据库中选择的,因为微笑的数量很多,即动作单元 12。详细地说,有 30,792 个有这个动作单元集,82,176 个图像有一些动作单元集48,612 张图像根本没有设置动作单元。

11.RaFD (Radboud Faces Database)

Radboud Faces Database(RaFD) 是一组包含 67 个模型(成人和儿童,男性和女性)的图片,展示了 8 种情感表情。

12.Oulu-CASIA(Oulu-CASIA NIR&VIS面部表情数据库)视频

Oulu-CASIANIR&VIS 面部表情数据库包含来自 80 名 23 至 58 岁人群的六种表情(惊讶、快乐、悲伤、愤怒、恐惧和厌恶)。73.8%的受试者是男性。受试者被要求以他/她在镜头前的方式坐在观察室的椅子上。相机与面部的距离约为 60 厘米。要求受试者根据图片序列中显示的表情示例做出面部表情。成像硬件以每秒 25 帧的速率工作,图像分辨率为 320 × 240 像素。

13. BP4D

BP4D_-Spontaneous dataset 是一个 3D 视频数据库,包含不同年轻人群的自发面部表情。使用经过充分验证的情绪诱导来引发情绪表达和副语言交流。使用面部动作编码系统获得面部动作的帧级地面实况。使用个人特定和通用方法在 2D 和 3D 域中跟踪面部特征。该数据库包括 41 名参与者(23 名女性,18 名男性)。他们的年龄为 18 至 29 岁;11 人是亚洲人,6 人是非裔美国人,4 人是西班牙裔,20 人是欧美人。情绪激发协议旨在有效地激发参与者的情绪。八项任务包括面试过程和一系列引发八种情绪的活动。该数据库由参与者构建。每个参与者与 8 个任务相关联。对于每个任务,都有 3D 和 2D 视频。此外,元数据包括手动注释的动作单元 (FACS AU)、自动跟踪的头部姿势和 2D/3D 面部标志。数据库大小约为 2.6TB(未压缩)。

14.MMI(MMI面部表情数据库)

MMI面部表情数据库包含超过 2900 个视频和 75 个主题的高分辨率静止图像。它针对视频中 AU 的存在进行了完整注释(事件编码),并在帧级别进行了部分编码,为每一帧指示 AU 是否处于中性、起始、顶点或偏移阶段。一小部分被注释为视听笑声。

15. Aff-Wild2

Aff-Wild2 是 Aff-Wild 数据集的扩展,用于情感识别。它大约使包含的视频帧数和主题数增加了一倍;因此,改善了所包含行为和相关人员的可变性。

16. 4DFAB

4DFAB 是一个大型动态高分辨率 3D 人脸数据库,其中包含在五年期间(2012 年至 2017 年)的四个不同会话中捕获的 180 个对象的记录,总共产生超过 1,800,000 个 3D 网格。它包含显示自发和摆姿势面部行为的受试者的 4D 视频。该数据库可用于面部和面部表情识别,以及行为生物识别。它还可用于学习非常强大的混合形状,以对面部行为进行参数化。

17. FEAFA+

FEAFA+是用于面部表情分析和 3D 面部动画的数据集。它包括来自 FEAFA 和DISFA的150 个视频序列,总共 230,184 帧使用表达式定量工具在 24 个重新定义的 AU 的浮点强度值上手动注释。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
扎眼的阳光的头像扎眼的阳光普通用户
上一篇 2022年4月9日 下午2:37
下一篇 2022年4月9日 下午2:47

相关推荐