人才培养
首页 / 人才培养 / 正文
“伦理与挑战——与ChatGPT来一场深入对话”学术晚茶举行

南湖新闻网讯(通讯员 胡越 向美荣)6月1日晚,以“伦理与挑战——与ChatGPT来一场深入对话”为主题的学术晚茶在倍阅书店举行,马克思主义学院李思雯老师与现场50余位同学共探ChatGPT背后的伦理与挑战。

以“ChatGPT引爆的技术狂潮”这一话题为引,李思雯展开了对ChatGPT背后的伦理与挑战的探讨。她向在场同学抛出问题,“科学技术本具有中立性,而ChatGPT为何会给人类社会带来恐慌甚至灾难呢?”李思雯以ChatGPT的应用为例,结合“Cheating、Black Box、Bias、Interfering”四个现实案例,详细分析了ChatGPT带来的不可控性、数据偏见、认知侵蚀和权力争夺等伦理问题。她指出,“人们通常将伦理问题归咎于使用者而非技术本身,然而,随着人工智能的发展,情况发生了变化。生成式人工智能的每一个环节都与主体的价值观息息相关,每个数据都在表达不同人的价值观,这意味着这项技术不可能以中立的状态存在。”

在谈到为ChatGPT制定伦理准则时,李思雯表示,训练有道德的AI和有效的科技伦理治理是当下的两种路径。她谈到,从人文社科的视角,我们需要提出一套类似于人类行为的伦理准则,涵盖道德动机和意图、道德行为过程和后果等,以形成适应于人工智能的伦理规范。还需要与人工智能行业专家协作,将伦理准则转化为计算机的程序编程语言,用于训练人工智能成为有道德的机器人。

在互动交流环节,马克思主义学院研究生李雅静提问道:“在人工智能快速发展的时代,我们如何从AI的被动者转变为主动者?”她表示,“我们现在并不是要把自己的角色定位为主动还是被动,而是要实现交互或协同,这才更符合当今人工智能所导向的未来。现代技术的发展已经逐渐超越人类的控制,人类需要对技术的发展做出前瞻性限制,但结果一定是协同发展的。”

公共管理学院的康妙红同学进一步提出疑问:“我们今天对于ChatGPT的恐慌是不是源于核威胁的延续?”李思雯回答道:“我认为是类似的,无论是核威胁还是Chat GPT都存在不可控性,都可能带来的灾难性后果,但两者仍有所不同,国际上对于核威胁的管控态度已基本达成一致意见,但当前,生成式人工智能仍是新兴事物,技术不断膨胀发展,然而对技术的治理却尚未完善。我们可以将ChatGPT引发的恐慌视为一个阶段性问题,当下重要的是人类社会科技伦理治理水平需要跟上技术发展的速度,才能引导人工智能技术的良善发展。”

活动最后,李思雯说道:“人工智能的发展无法阻挡,人机协同极有可能成为未来的趋势,因此我们需要更多地思考如何与人工智能协同工作。”她表示,那些具备科学思维和批判性思维的行业是难以被ChatGPT取代的,并勉励同学们要努力培养科研能力和科学思维,回归本真。

审核人:镇志勇