11月21日,第三届中国科技伦理论坛在复旦大学吴文政报告厅开幕。本届论坛以“人工智能时代的科技伦理”为主题,由中国科技伦理学会(筹)主办,中国科协-复旦大学科技伦理与人类未来研究院、复旦大学哲学学院和中国科协创新战略研究院承办。
论坛上,复旦大学教授杨珉、首都师范大学教授王淑芹、中国人民大学教授龚群三位学者分别就人工智能安全、人工智能向善与人工智能道德风险等核心议题发表报告。
杨珉指出全球人工智能安全治理严重滞后于技术发展。为监测人工智能风险水位,首先需要对基础大模型进行安全评测。在人工智能风险预警方面,杨珉表示团队在对32款开源大模型的测试中发现已有11款大模型具备自主复制能力,揭示了大模型的潜在失控风险。基于此,他呼吁建立跨学科治理机制,确保人工智能在可控轨道上发展。
王淑芹强调以人工智能技术为代表的现代科学技术已成为继政治、土地、资本之后影响人类命运的“第四种力量”,其工具价值必须始终受到人类目的价值的统领。她指出,智能体本质上是人的意图和目的的载体,价值对齐的责任最终落在人的身上,科技工作者应当使算法体现人类共识性的普遍价值原则。
龚群认为,目前生成式人工智能存在三大核心风险:黑箱的存在带来监管困境与伦理风险;机器幻觉造成事实与感知判断错误;平台收集个人信息带来隐私风险。面对这些挑战,龚群主张确认以人的责任为核心的治理体系,加强算法审计的制度建设,并关注个人数据权利保护,实现技术进步与人本价值的和谐统一。
主旨报告结束后,复旦大学哲学学院教授王国豫与华东师范大学终身教授袁振国展开了一场主题对谈。两位学者聚焦“人工智能时代的教育重塑与伦理边界”这一议题,以近期引发学界热议的“华东师大首发AI‘主笔’论文征集”实验为切入点,深入辨析了人机协作中的责任归属难题与创造力的本质内涵。袁振国澄清,该举措实为一次面向AI创作力的极限探索,旨在通过全程记录人类如何通过提示工程主导人工智能协同创作,探索人工智能时代的人类新角色。
此外,中国工程院院士、同济大学党委书记郑庆华在题为“人机价值对齐问题的认识和思考”的特邀报告中指出,人工智能技术快速发展伴随着算法偏见、人工智能幻觉与知识产权模糊等诸多风险,而这背后的根本症结在于人类价值观的复杂模糊与人工智能追求目标的精确性间存在冲突。关于如何破局,郑庆华提出,人与人工智能应双向对齐:人工智能需通过人类反馈强化学习实现价值观校准,而人类则需适应人机协同的新范式。最终实现人机价值对齐需构建一个多维度、持续演进的体系,推动技术、治理与文化三方携手共进。
访谈
更多护航视频监控网络安全 做物联网安全的守护者 ——专访天防安全总经理段伟恒
在万物互联时代,网络安全的重要性日益凸显,尤其在快速发展的城市建设中,搭建的巨大物联网络对其安全保障…
做行业赋能者 HID迎接数字化浪潮新机遇 破解新挑战
今年3月份,全球可信身份解决方案提供商HID发布了最新的《安防行业现状报告》(以下简称“报告”),该报告…
数字化浪潮下,安防厂商如何满足行业客户的定制化需求?
回顾近两年,受疫情因素影响,包括安防在内的诸多行业领域都遭受了来自市场 “不确定性”因素的冲击,市场…