科大研究揭示人类与人工智能互动的复杂性
人工智能(AI)近来备受瞩目,在AI迅速发展下,如何使其促进我们日常工作生活仍是一个许多科学家关注的复杂问题。最近,香港科技大学(科大)的研究团队对AI应用于教育方面,进行了一项展望性研究,探究了AI可以如何让评分更合理,同时观察了在拥有AI同伴的情况下,人类参与者的行为。团队发现,部分老师们乐于有AI的参与,但直到要决定人类或AI可担当主导地位时,则发生争论,相关情况非常类似人类互动过程中,一个新成员进入其他人的专业领域时的情形。
这项研究由科大计算机科学及工程学系博士生郑成博和四名团队成员,在副教授麻晓娟的指导下进行。他们开发了一个名为AESER(Automated Essay ScorER,自动作文评分器)的AI作文评审成员,并将20名英语教师分成十个小组,以研究AESER在小组讨论环境中的影响。AI与人类教师交换意见、协商、问答,甚至参与最终决策投票。基于受控式「绿野仙踪(Wizard of OZ Testing)」实验研究方法,AESER的行为受深度学习模型和一名人类研究员的共同左右,在线上会议中与其他参与者交换观点并讨论。
实验结果符合研究团队关于AESER能促进评分客观性,并提供独特观点的预期。但他们也同时发现了潜在问题。首先,AI可能引起从众行为。AI的参与会促使形成「多数派」,扼杀一些讨论。其次,AESER的发言被认为是相对僵硬,甚至固执。当参与者发现他们永远无法「赢得」争论时,他们会感到沮丧。此外,许多参与研究的教师认为,AI更适合成为助手,而不应该让AI的观点和人的观点拥有相同的权重。
麻晓娟副教授指出:「目前在某种程度上,AI在它的人类合作者眼里是『固执』的,这有好有坏。一方面,AI是固执的,所以它敢于坦率地表达自己的观点。另一方面,当人类无法有效地说服AI改变观点时,会感到挫败。而不同的人均对AI持不同的态度,有些人认为它是一个独立的智能个体,而有些人则认为AI是来自大数据集体智能的声音。因此,权力和偏见等问题值得再仔细讨论。」
研究团队下一步计划扩大实验范围,收集更多数据,为AI如何影响团队决策提供更精确的洞察。团队还希望引入大语言模型(LLMs),例如将ChatGPT加入到研究当中,冀为群体行为领域带来新发现和见解。
相关研究结果已于今年4月在国际电脑学会人机交互会议(ACM Conference on Human Factors in Computing Systems,CHI)上发表。
(原文于2023年7月13日在EurekAlert刊登。)