http://www.gkong.com 2023-10-16 11:07 来源:中国自动化学会专家咨询工作委员会
截至今年7月底,我国累计有130个人工智能大模型问世,其中,仅今年前7个月就有64个大模型发布。不久前,首批通过《生成式人工智能服务管理暂行办法》备案的11个大模型产品获批向全社会开放服务,引发关注。大模型进入高速发展期。当前,一个重要问题是如何统筹创新发展与安全应用,推动生成式人工智能高质量发展,持续激发人工智能“头雁”效应。
受益于庞大的数据、参数以及较好的学习能力,大模型增强了人工智能的通用性,有望成为人工智能技术及应用的新基座、生产生活的基础性工具,带来经济社会发展的深刻变革。同时,我们也不断完善监管方式,制定相应的分类分级监管规则或指引。例如,今年6月份通过的欧盟人工智能法案授权草案以风险为主线,严格规定了高风险人工智能系统的前置审查程序和履行合规义务。
对国产大模型而言,亟待解决的问题是多而不强。因底层技术突破难,很多公司选择调用较为成熟的大模型,直接赋能原有产品和服务,技术同质化严重,且缺乏源头创新,高质量落地应用较少。生成式人工智能的强人机交互范式导致生成内容的可信、可靠和可控性也面临挑战,伦理和安全风险的不确定性增加。因此,要抓住关键,整合资源,进一步在源头创新上苦练内功,在风险治理上打好基本功,在铸就大模型商业生态上勤修外功。
坚持源头创新,提高生成式人工智能的核心竞争力。制定高端算力芯片、计算架构、大模型算法等基础性原创性技术攻关的中长期专项规划,实现更多从“0”到“1”的理论与技术突破。出台算力基础设施和数据资源指导意见与实施细则,加快算力与数据资源统一调度、开放和运营进程,培育“生成式人工智能+公有云”的绿色低碳服务模式。建设一批国家级开源平台、代码托管及大模型开发测试平台,确保核心算法自主可控。
筑牢风险底线,健全生成式大模型分类分级监管体系。完善“政府—专业机构—社会”三位一体的风险监管体系,保障大模型可信可控。设立国家级生成式人工智能监管部门,基于大模型开发及应用全生命周期,制定内生和衍生风险的分类分级标准体系,明确监管对象、内容、职责、方式及原则,并实施大模型风险备案制度;聚焦金融、医疗、教育等热点领域,持续发布行业大模型监管细则和实施办法。遴选一批风险评估专业机构,开展风险监测及大模型合格评估。
加速应用落地,打造生成式大模型商业生态。构建算力、数据、开源社区三大平台资源协同的通用大模型要素市场生态,支持国家级创新联合体研发高质量通用大模型。探索“通用大模型+微调”的垂类大模型研发新范式,鼓励企业整合行业训练数据集,聚焦真实场景,进行轻量化、专业化的模型部署与商业化应用,培育“通用+垂类”大模型交互共生、迭代优化的模型生态。降低高校、研究机构使用算力和数据资源的门槛,加速顶尖人工智能人才引育,为全球人工智能发展与治理贡献中国方案。