2025年4月28日,高研院联合新生学院、本科生院举办了第五十六场新生学术午餐会。本次活动我们邀请南京大学哲学学院刘鹏老师做客午餐会,与大家讨论人工智能带来的社会伦理挑战及其对我们的影响。来自南京大学人文、信息与计算科学等专业的30余名同学参加了本次活动,南京大学哲学学院助理研究员史晨担任主持。
技术的发展对社会提出要求,往往价值中立观点使我们无法意识到技术的伦理问题的存在,人工智能(AI)的伦理问题是随着技术快速发展而日益凸显的核心议题,涉及技术设计、应用场景、社会影响以及人类价值观的复杂平衡。
刘老师从电车难题入手,指出机械工业时代的难题,传统电车难题的伦理困境在于:从功利主义的角度看,应该牺牲少数人拯救多数人;而义务论的原则要求禁止主动干预导致直接伤害,无论结果如何;还有道德运气的视角,即决策者的主观意图与客观结果的冲突。刘老师提问,如果这是一个人工智能驾驶的车,它会如何选择?电车难题模拟器AI的挑战在于如何将人类伦理原则转化为算法规则,那么是否存在普世的运算法则?当AI系统造成伤害(如自动驾驶事故、算法歧视)时,责任又应由谁承担?开发者、用户、企业还是算法本身?目前的法律体系尚未明确AI的“主体性”,传统法律框架面临挑战。
那么,我们应该如何看待人类智能与人工智能的区别?刘老师从感知、情感、审美、推理、道德五个方面给出回答。他认为,人类感知是具身性、主动建构的过程,而AI感知是机械性、被动接收的信号处理;人类情感是生物演化形成的生存机制,而AI情感是符号化建模的行为模仿,它以数据为基础,而数据无法对情感进行完全表征,更无法实现对情感的理解;人类审美是文化-认知-情感的综合投射,AI审美是数据分布的概率计算。此外,人类推理融合逻辑与直觉,AI推理受限于算法架构与训练数据。人类道德是自主意识与社会契约的产物,AI道德是程序设计的结果。因此,人类智能与AI并不能相互取代。
儿童科幻小说《卧底机器人》讲述了在未来的高科技世界,一个名为小朵的机器人接受了一项极具挑战性的任务:伪装成一个12岁的女学生,并在人类社会中生活一整年而不被发现。如果成功,她的研究团队将获得1亿美元的奖金,用于推进人工智能的研发。当前,这种人机共存现象屡见不鲜,在人与机器的深度共存中,必然引发价值观的冲突,如何将人类模糊、多元的伦理原则(如公平、隐私、安全)转化为可编程的算法规则?实际上,人工智能的伦理问题从根本上看是人类价值观在技术时代的投射。要解决这些问题的关建在于拒绝技术决定论,AI的发展方向应由社会共识而非资本或权力单方面主导,同时需要拥抱复杂性,接受伦理问题的无绝对解,通过持续迭代和多方博弈寻找动态平衡。最终,AI伦理的终极目标不是创造“完美机器”,而是确保技术始终服务于人性的尊严与社会的整体福祉。AI伦理问题的本质在于人类如何定义自己的道德边界。
讲座尾声,刘老师和同学们围绕着“如何面对人工智能伦理问题的文化差异、怎样面对全球性的伦理问题”“在未来伦理是否会随着科技的发展而改变”“人与技术的价值对齐,那么人与人之间的价值是否也要对齐”等问题展开讨论。
撰稿:郭芳洁