首页:>> 基金会动态 >>
  • 第三届中国科技伦理论坛开幕
  • 11月21日,由中国科技伦理学会(筹)主办,中国科协-复旦大学科技伦理与人类未来研究院、复旦大学哲学学院和中国科协创新战略研究院承办的第三届中国科技伦理论坛在复旦大学开幕。本届论坛以“人工智能时代的科技伦理”为主题,深刻剖析了当下人工智能发展浪潮下并存的机遇与挑战,为人工智能治理提供更具前瞻性与建设性的思路,为推动科技向善贡献学术力量。   

    中国科协党组成员、书记处书记王进展在论坛上指出,当前以人工智能为代表的新兴技术加速迭代,科技伦理挑战的复杂性、全球性愈发凸显。对此他提出三点建议:一是把握以人为本科技向善的基本原则,加强人工智能伦理规范建设;二是加快推进中国科技伦理学会建设,强化学术共同体支撑作用;三是系统构建科技伦理自主知识体系,提升国际话语权。相信在共同努力下,我国必将构建完善的科技伦理治理体系,为实现高水平科技自立自强保驾护航。   

    主旨报告环节中,复旦大学教授杨珉、首都师范大学教授王淑芹、中国人民大学教授龚群三位学者分别就人工智能安全、人工智能向善与人工智能道德风险等核心议题发表报告。杨珉认为,全球人工智能安全治理严重滞后于技术发展。为监测人工智能风险水位,首先需要对基础大模型进行安全评测,杨珉介绍了复旦白泽大模型动态安全合规测评平台,这项工作不仅能高效完成基础大模型评测,更能以此为抓手,为国家安全治理提供前瞻性的决策支撑。在人工智能风险预警方面,杨珉表示团队在对32款开源大模型的测试中发现已有11款大模型具备自主复制能力,揭示了大模型的潜在失控风险。基于此,他呼吁建立跨学科治理机制,确保人工智能在可控轨道上发展。王淑芹强调以人工智能技术为代表的现代科学技术已成为继政治、土地、资本之后影响人类命运的“第四种力量”,其工具价值必须始终受到人类目的价值的统领。她指出,智能体本质上是人的意图和目的的载体,价值对齐的责任最终落在人的身上,科技工作者应当使算法体现人类共识性的普遍价值原则。面对法律规制固有的滞后性,美德伦理发挥着不可或缺的补充作用。科技工作者需要在缺乏明确法规约束的灰色地带,以道德自觉抵御各类诱惑。同时,技术评审者也应秉持公平公正的美德,确保评审机制不被利益共谋所侵蚀,构建起法律与美德相辅相成的治理体系。龚群认为生成式人工智能的伦理风险根植于工具理性与价值理性的现代性冲突。他认为,目前生成式人工智能存在三大核心风险:黑箱的存在带来监管困境与伦理风险;机器幻觉造成事实与感知判断错误;平台收集个人信息带来隐私风险。面对这些挑战,龚群主张确认以人的责任为核心的治理体系,加强算法审计的制度建设,并关注个人数据权利保护,实现技术进步与人本价值的和谐统一。复旦大学哲学学院教授王国豫与华东师范大学终身教授袁振国在论坛上展开了一场主题对谈。两位学者聚焦“人工智能时代的教育重塑与伦理边界”这一议题,以近期引发学界热议的“华东师大首发AI‘主笔’论文征集”实验为切入点,深入辨析了人机协作中的责任归属难题与创造力的本质内涵。袁振国澄清,该举措实为一次面向AI创作力的极限探索,旨在通过全程记录人类如何通过提示工程主导人工智能协同创作,探索人工智能时代的人类新角色。谈及教育范式转型,袁振国提出“教师-学生-智能体”三元主体互动论,指出未来教育将突破物理围墙,形成个性化全时空学习场域。在对谈结尾,袁振国总结道:“人工智能时代教育的本质,即是教导师生在人机共生中做机器的主人。”最后,中国工程院院士、同济大学党委书记郑庆华带来题为“人机价值对齐问题的认识和思考”的特邀报告。

    目前,人工智能的价值对齐问题已是社会面临的核心挑战之一。郑庆华认为,人工智能技术快速发展伴随着算法偏见、人工智能幻觉与知识产权模糊等诸多风险,而这背后的根本症结在于人类价值观的复杂模糊与人工智能追求目标的精确性间存在冲突。关于如何破局,郑庆华提出,人与人工智能应双向对齐:人工智能需通过人类反馈强化学习实现价值观校准,而人类则需适应人机协同的新范式。最终实现人机价值对齐需构建一个多维度、持续演进的体系,推动技术、治理与文化三方携手共进。


    (来源:上海市科学技术协会网站)