近日,卡内基梅隆大学(CMU)的研究人员展示了一套EduSense计算机视觉系统,可以对视频和音频进行分析:
这套“EduSense”系统使用两台壁挂式摄像头(一台对着学生,一台对着老师),单个摄像头可以看到教室中的每个人,并自动识别信息,例如学生正在看的地方、举手的频率、老师是在讲台后面还是在教室中移动,以及老师在点名学生之前停留了多长时间等等。基本上教室内的一举一动都逃不过它的“火眼金睛”。
CMU的人机交互研究所(HCII)的助理教授克里斯·哈里森(Chris Harrison)表示:“今天,老师在教室里充当传感器的角色,但这种方法无法扩展。” 哈里森表示,近几十年来,教室规模越来越大,在大教室或者礼堂里讲课很难奏效。
系统使用另一个CMU项目OpenPose来确定身体位置。研究团队的成员Karan Ahuja说:“随着计算机视觉和机器学习的进步,以往需要数天甚至数月才能获得的人工观察结果,现在很快就可以获取。”。
哈里森说,使用高分辨率摄像机同时为许多课程播放4K视频是一个“计算恶梦”。为了跟上步伐,资源被弹性地分配以提供最佳的实时数据帧速率。
现在,研究小组已经证明他们能够捕捉数据,HCII的教职员工Amy Ogan说,团队目前的挑战是如何包装数据,并以一种在教育上有效的方式呈现数据。该团队将继续开发面向教师的应用程序,看看教师们能否将反馈整合到实践中。”我们一直致力于了解如何、何时、何地根据这些数据最好地提出反馈意见,以便帮助教师改进实践,”她说。
这一系统引发了不少的争议,一位网友twitter评论到:这一系统的发明者应该为自己感到羞耻。这就如同“银翼杀手”,只不过用在了教育上。在他看来,好的教学不能减少到可量化的程度,例如老师问问题后要等待多长时间。有效的教学不仅仅是其各个部分的总和。他的观点得到不少网友的认同。
但项目的指导人(ISR)副教授Yuvraj Agarwal表示,团队不想识别个别学生,EduSense也不想。项目不使用姓名或识别信息,而且由于摄像机数据是实时处理的,所以信息很快就会被丢弃。