眼动数据集调研
写于2025年12月8日 SEED-VII
- 简介:由上海交通大学 BCMI 实验室提供的多模态情感数据集,包含20名被试(10男10女,平均22.5岁)观看情感诱发视频时的脑电和眼动数据。刺激素材为80段精心挑选的影片片段,覆盖七种情绪类别(六种基本情绪:高兴、悲伤、恐惧、厌恶、愤怒、惊讶,加上中性状态)。每名被试分4次实验观看不同情绪的视频,并在每段视频后进行主观自评。
- 模态:62通道EEG脑电信号和Tobii Pro Fusion眼动仪记录的眼动数据(包括注视、扫视、眨眼、瞳孔直径等特征)。每段影片都有对应的目标情绪标签,受试者还给出了连续情绪评分(如通过SAM量表对诱发效果打分0~1)。
- 链接:申请中…
SEED-IV
- 简介:SEED-IV是SEED的扩展版本,由15名中国被试看影片片段时的数据构成。情绪类别扩展为四类(开心、高兴、悲伤和中性)。实验每位被试进行3个独立场次,每场观看24段影片(从72段预选影片中挑选),以诱发不同情绪。每段影片后受试者填写问卷进行情绪反馈。
- 模态:包含62通道EEG脑电信号和通过SMI眼动眼镜记录的眼动数据。眼动数据包括注视点、注视持续时间、扫视事件、眨眼计数、瞳孔直径变化等多种特征。每段影片对应一个离散情绪标签(快乐、悲伤、恐惧或中性)。
- 链接:https://www.kaggle.com/datasets/phhasian0710/seed-iv
EMOd
- 简介:由新加坡国立大学&明尼苏达大学联合创建的情感注意力图像数据集。包含1019张多样化的情绪诱发图像,每张图像均经过精心选择以激发不同的情绪反应。16名被试对这些图像进行了自由观看实验,同时记录了高精度的眼动数据。此外,每张图片还标注了丰富的图像上下文信息,如图中物体轮廓、物体的情感属性(正/负情绪倾向)、物体语义类别,以及图像的高层次属性(美感评分、引发的情绪类别等)。
- 模态:图像刺激及其对应的眼动追踪数据(包括16名观察者的注视点分布和注视顺序),图像级别的标注,包括每张图片主要引发的情绪(观察者主观报告的强烈情绪反应类别,如恐惧、高兴等)、物体情感标签和语义标签等。还提供该数据集上计算得到的显著性图(fixation map)以反映群体平均注视热点。
- 链接:https://github.com/Fanshaojing/emotionalattention?tab=readme-ov-file
eSEEd
- 简介:由欧洲FORTH研究所等机构发布的眼动情感状态评估数据集。包含49名被试在观看情感诱发视频时的眼动记录。每位被试观看10段情绪视频(随后紧跟1段中性视频用于恢复基线),视频内容旨在分别诱发特定情绪。被试在每段视频后对五种情绪进行评分:温馨(tenderness)、愤怒、厌恶、悲伤和中性,评分范围0~10。这些离散情绪评分随后被映射为情绪效价和唤醒度维度值,以提供连续情绪标签。
- 模态:眼动追踪数据(包括凝视轨迹、注视点序列、瞳孔大小变化等)及参与者的主观问卷(情绪评分和若干自评问卷结果)。研究者还从低层眼动原始指标中提取了多种眼动特征(如凝视特征、眨眼频率、瞳孔直径等)用于分析,并提供了对应的情绪标签(离散情绪评分和转换后的效价/唤醒度)。
- 链接:https://zenodo.org/records/7794625