共议人工智能时代新命题,第三届中国科技伦理论坛举行

11月21日,第三届中国科技伦理论坛在复旦大学吴文政报告厅开幕。本届论坛以“人工智能时代的科技伦理”为主题,由中国科技伦理学会(筹)主办,中国科协-复旦大学科技伦理与人类未来研究院、复旦大学哲学学院和中国科协创新战略研究院承办。

11月21日,第三届中国科技伦理论坛在复旦大学吴文政报告厅开幕。本届论坛以“人工智能时代的科技伦理”为主题,由中国科技伦理学会(筹)主办,中国科协-复旦大学科技伦理与人类未来研究院、复旦大学哲学学院和中国科协创新战略研究院承办。

论坛上,复旦大学教授杨珉、首都师范大学教授王淑芹、中国人民大学教授龚群三位学者分别就人工智能安全、人工智能向善与人工智能道德风险等核心议题发表报告。

杨珉指出全球人工智能安全治理严重滞后于技术发展。为监测人工智能风险水位,首先需要对基础大模型进行安全评测。在人工智能风险预警方面,杨珉表示团队在对32款开源大模型的测试中发现已有11款大模型具备自主复制能力,揭示了大模型的潜在失控风险。基于此,他呼吁建立跨学科治理机制,确保人工智能在可控轨道上发展。

王淑芹强调以人工智能技术为代表的现代科学技术已成为继政治、土地、资本之后影响人类命运的“第四种力量”,其工具价值必须始终受到人类目的价值的统领。她指出,智能体本质上是人的意图和目的的载体,价值对齐的责任最终落在人的身上,科技工作者应当使算法体现人类共识性的普遍价值原则。

龚群认为,目前生成式人工智能存在三大核心风险:黑箱的存在带来监管困境与伦理风险;机器幻觉造成事实与感知判断错误;平台收集个人信息带来隐私风险。面对这些挑战,龚群主张确认以人的责任为核心的治理体系,加强算法审计的制度建设,并关注个人数据权利保护,实现技术进步与人本价值的和谐统一。

主旨报告结束后,复旦大学哲学学院教授王国豫与华东师范大学终身教授袁振国展开了一场主题对谈。两位学者聚焦“人工智能时代的教育重塑与伦理边界”这一议题,以近期引发学界热议的“华东师大首发AI‘主笔’论文征集”实验为切入点,深入辨析了人机协作中的责任归属难题与创造力的本质内涵。袁振国澄清,该举措实为一次面向AI创作力的极限探索,旨在通过全程记录人类如何通过提示工程主导人工智能协同创作,探索人工智能时代的人类新角色。

此外,中国工程院院士、同济大学党委书记郑庆华在题为“人机价值对齐问题的认识和思考”的特邀报告中指出,人工智能技术快速发展伴随着算法偏见、人工智能幻觉与知识产权模糊等诸多风险,而这背后的根本症结在于人类价值观的复杂模糊与人工智能追求目标的精确性间存在冲突。关于如何破局,郑庆华提出,人与人工智能应双向对齐:人工智能需通过人类反馈强化学习实现价值观校准,而人类则需适应人机协同的新范式。最终实现人机价值对齐需构建一个多维度、持续演进的体系,推动技术、治理与文化三方携手共进。

THE END
责任编辑:赵智华
免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!