暗中观察,没有「头环」:AI 摄像头就可以看出你上课是否走神

人工智能
2020
01/15
23:19
机器之心
分享
评论

机器之心报道

参与:张倩、蛋酱、Jamin

在 AI 摄像头走进课堂后,伪装认真听课也是越来越难了。近日,港科大、哈工程的研究者开发了一种用 AI 摄像头记录、分析学生情感变化的系统,不仅能知道学生什么时候开始走神,还能具体看到每个学生一整节课的「心路历程」。

关于 AI 在课堂上所能完成的监控工作,很多人已经习以为常。

「一位教授在授课结束后查看他的电脑。借助一款软件,他能看到这一整堂课中学生的情绪变化。在上课 30 分钟之后,大部分学生已经失去兴趣并开始走神,这也大概是他讲跑题的那个时间点。所以教授做了个记录,提醒自己以后不要跑题。」

现实中的课堂大多还不是这个样子,但随着技术的发展,这样的情景会越来越普遍。

近日,一篇有关课堂监控技术的论文刊登在《IEEE Transactions on Visualization and Computer Graphics》上。在论文中,来自香港科技大学、哈尔滨工程大学等机构的研究者提出了一种名为 EmotionCues 的系统。该系统主要关注如何记录学生面部表情,并据此来分析学生在课堂上的情绪变化、注意力集中程度。

作者之一、香港科技大学计算机教授屈华民介绍说,这个系统「为教师提供了一种更快速、更方便去衡量学生在课堂上参与度的方法。」

这项研究的初衷是「善意」的:依靠该系统去监控学生在课堂上的情绪反馈,判断学生在什么时候开始感到无聊,什么时候注意力更加集中,以此来提醒老师该如何改善课堂内容、提高授课质量。

研究团队在两间教室里对提出的系统进行了测试,一间教室是香港科技大学的学生,代表高校学生群体;另一间教室是日本某所幼儿园,代表低龄学生群体。

测试发现,这套视觉分析系统在检测那些「明显情绪」方面效果比较好,比如学习兴趣较为强烈时的愉悦感。但系统对于「愤怒」或者「悲伤」等表情的解读能力还是有所欠缺。学生们可能只是单纯地专注于课堂内容本身,仅仅因为深入思考而皱了一下眉头,却容易被系统解读为「愤怒」。

系统的工作流程

下图 2 展示了整个系统的工作流程,包括数据处理和视觉探索两大阶段。

图 2。

数据处理过程

第一阶段是处理一系列原始数据并利用计算机视觉算法提取出情感信息,包括面部检测、面部识别、情感识别、特征抽取等步骤。

在面部检测步骤中,研究者采用 MTCNN(多任务级联卷积网络,一种用于预测面部和 Landmark 位置的 卷积网络)去检测每个样本帧中的人脸。

在面部识别阶段,面部对比的通常方法是对图像进行矢量化操作。研究者采用了 facenet(一种在面部识别中较为完善的 学习模型),它可以直接学习从面部图像到紧致欧式空间的映射。

在情感识别阶段,研究者出于直观和可理解方面的考虑,选择使用了分类模型。他们微调了一个 CNN 模型(ResNet-50),采用了 FER 2013 数据集。这一数据集一直广泛用于面部表情识别。

考虑到情绪识别可能没那么准确,研究者挑出了一些影响因素(如人脸大小、遮挡情况、图像分辨率、照明情况等),并在系统中对它们进行了视觉编码,以此判断学生们的情感状况。

这些影响因素可能在系统情绪分析中起到了比较关键的作用。比如离摄像头比较远的人,他的脸部在视频中占据的面积比较小,就更容易被错误识别。除此之外,一个人的脸如果经常被他人遮挡,也会有更高的系统误判风险。研究者将这些因素整合到了系统分析流程之中,提供了更加丰富的交互功能来改进系统性能。

交互式的视觉系统

第二阶段是根据五大要求(细节见论文)设计一个交互式的视觉系统,该系统可以支持两种粒度的课堂视频视觉分析,包括学生的总体情感演变和某个学生单独的情感演变过程。

研究者基于 Vue.js 前端框架和 Flask 后端框架实现了一个基于 web 的系统,如下图 3 所示。该系统包括三大视图:摘要视图(summary view,图 3a-b);人物视图(character view,图 3c)和视频视图(video view,Fig. 3d)。

图 3。

为老师提供学生情感变化的总体情况非常重要,因此研究者设计了一个摘要视图,让老师看到学生情感的静态和动态演变数据。图 3(a)显示的是学生的情感档案,用于展示学生的情感分布(静态摘要);图 3(b)显示的是学生的情感变化曲线(动态摘要)。

人物视图通过肖像类标志符号,将所选定目标人物的情绪状态可视化地表现出来。不同情感肖像之间的差异使得用户能够识别和比较不同人物的特征。如下图 5 所示,研究者在设计中采用了定制化的饼状图:

图 5:情感变化的可视化图示。

通过这种定制化的饼状图设计,用户可以很容易地观察到详细的情感信息以及对其感兴趣的影响因素。同时,屏幕快照功能使得不同人之间的情感信息比较变得更加容易。如果用户希望查看详细信息,可以单击感兴趣的快照进行查看。快照的示例位于人物视图(图 3c)的左侧。

在系统中,研究者提供了原始视频以供用户在视频视图(图 3d)中浏览。同时,用户可以用不同速度播放视频,当用户将视频暂停时,每一帧中对应的面部都会被高亮显示。用户还可以根据自己对情感流的观察挑选出感兴趣的部分进行进一步的探索和挖掘。

「改善」教学,还是「监控」教学?

这项研究的初衷是帮助授课者收集学生反馈、提升教学质量。但事实真能如其所愿吗?

相比于依据视频记录去分析情绪,在国内的课堂中,还有更夸张的「智能头环」。

在浙江金华某小学的课堂之上,每一个座位上的学生都戴着一个状如「金箍」的黑色头环,专注时亮红灯,走神时亮蓝灯,这个注意力分数每 10 分钟发送一次到授课教师的电脑,并同步到家长微信群中,让身在校外的家长随时掌握孩子的上课状态。

但这种头环,或者此类课堂监控技术,面对着非常多的质疑。比如伦理问题:它暴露了学生在课堂中的个人情绪,让教师能够知道谁在课堂上专注或不专注。这涉及到学生的隐私问题。

另外,在一节 40 分钟的课程中,学生的注意力本就不可能保持全程专注,持续性监控学生的注意力并对任何注意力不专注的行为进行校正没有意义。

还有一方面,这种监控系统可能会分散教师和学生的注意力,因为身在其中的人会觉得有一双眼睛「无时无刻不在盯着自己」。如果是头戴金箍,这种情绪会变得更加明显。这种被实时监控的感觉会在一定程度上会影响课堂参与者自由发表意见。

参考链接:

https://spectrum.ieee.org/the-human-os/biomedical/devices/ai-tracks-emotions-in-the-classroom

https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8948010

1 月 16 日,新一期 AAAI 2020 线上分享,我们邀请到了旷视研究院算法研究员万昭祎,为我们介绍他们在论文中提出的高性能实时文字检测算法和更鲁棒的文字识别框架。

THE END
广告、内容合作请点击这里 寻求合作
业界
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

华为近日对组织架构进行新一轮调整,其中 Cloud&AI 升至华为第四大 BG。
业界
近日,哔哩哔哩 ( 简称 B 站 ) 公布年度弹幕数据,"AWSL" 以 3296443 次发送成为 2019 年 B 站年度弹幕。开启弹幕已经成为当前很多年轻人看剧时的习惯。有网友询问," 弹幕 " 是网民逆天创造力的体现,但...
业界
据产业链最新爆料称,Mate 30 系列的出货量已经突破了 1200 万台,而这个势头还在增长,预计整个系列在生命周期可以完成 2000 万台的出货量目标。之前余承东曾公开表示,Mate 30 系列上市 60 天,全球出货...
业界
周一法国一位高级官员表示,法国不会遵从美国的意志将华为设备排除在 5G 网络建设之外,但法国将保留对设备制造商审查的权利,以应对任何潜在的安全威胁。
业界
从金属一体成型设计,再到玻璃 - 金属 - 玻璃的三明治设计,智能手机变得越来越难以维修。即便是官方授权的服务中心,技术人员需要经过复杂的培训和专业的工具,才能开展维修任务。谷歌似乎在 Stadia 手柄...
业界

相关推荐

1
3
Baidu
map