“目前,人工智能技术正以惊人的速度发展。例如,DepSeek最近引领了低成本开发和使用大型模型的创新,这不仅为推动新创新提供了更多的可能性,而且带来了许多风险挑战。但在数据共享时代,加强国际合作尤为重要。”2月11日,在“人工智能技术及其应用进展”专题会议上,清华大学交叉信息研究所、人工智能学院院长姚提到了如何安全发展大型模型。
“2025巴黎人工智能行动峰会”期间,旨在讨论如何利用国际合作机构,缩小智能差距,确保所有中国都能从人工智能的快速发展中受益,希望推动建立开放包容、互利共赢的人工智能国际治理体系,共同迎接未来发展的挑战和机遇。
清华大学计算机系教授唐杰指出,大型模型探索的最终目标是教机器像人一样思考(即人工智能),这可能是长期的,也可能很快实现。对于2025年人工智能的发展方向,唐杰认为,具有代理能力的独立大型语言模型将成为日常生活和工作的核心,人与代理之间的合作潜力将成为变革的力量,科学研究领域将发生最突破性的变化。在“人工智能安全”问题上,他建议在模型、个人和国家层面制定全面的安全设置。他指出,人工智能还有很长的路要走,需要共同努力,实现安全、可控、无幻觉的稳步发展。
马克斯·泰格马克说,麻省理工学院教授和生命未来研究所的优势,世界大国和大型科技公司热衷于促进通用人工智能(AGI)它的实现,但忽略了对其控制系统的研究。有必要为先进的人工智能技术建立一个安全的“护栏”,以避免失控技术造成的极端和生存风险。因此,有必要促进企业与政府之间的合作,借鉴药品监督、核设施管理等当前监管模式的经验。在安排强大的人工智能系统之前,应通过安全标准审计和控制机制确保其安全可靠。同时,应提倡全球合作讨论,确保人工智能技术的发展符合人类的利益和思想。
清华大学文科高级教授、人工智能国际治理研究院院长薛兰提到,为实践2023年中国发布的《全球人工智能治理倡议》,“中国人工智能发展与安全研究网络”凝聚了中国人工智能发展与安全领域的优势力量和智力资源,对应于“人工智能安全研究所”,代表中国与各国人工智能安全研究机构进行对话与合作。会议将重点加强各方对中国人工智能发展和安全治理的了解,期待听取和增强其他国家对该领域发展建设的看法,帮助全球人工智能发展与治理的合作。
清华大学法学院教授、智能法治研究所所长沈卫星在讲话中指出,中国已经形成了人工智能立法的多层次综合结构。在定位方面,中国人工智能立法努力平衡创新与监管,确保法律的具体性,促进行业的发展,并与现行法律保持一致。在内容方面,中国人工智能立法需要明确人工智能的定义,包括人工智能法的基本原则,并与人工智能建立联系自我规范机制、风险管理机制、透明机制和损害救助机制。在《全球人工智能治理倡议》的指导下,中国还将加强国际合作,共同推进制定公平公正的全球人工智能治理规则,加强人工智能系统的安全性和可靠性促进了技术创新和包容性的发展。
国际治理创新中心全球人工智能风险倡议执行主任邓肯·卡斯·贝格斯指出,不同的场景和问题应该采用不同的国际治理机制。前沿人工智能失控等极端风险更依赖于掌握前沿技术的国家之间的协调;深度伪造、虚假信息等一般人工智能风险更依赖国内治理。国家政府应该利用外交政策共同设计国际合作机制,因为国家间的合作将对公民的福祉产生更大的影响。
据报道,“中国人工智能发展与安全研究网络”领导小组包括清华大学、北京大学、中国科学院、中国信息通信研究所、中国电子信息产业发展研究所、北京智能源人工智能研究所、上海人工智能实验室、上海智能研究所等。
赞一个