当前位置: 主页 > 技术方案

智能算法与人工智能-张吉豫:生成式人工智能服务管理办法(征求意见稿)

发布时间:2023-06-10 09:10   浏览次数:次   作者:佚名

adas算法不需要人工标定_人工鱼群算法源代码_智能算法与人工智能

近日,由中国人民大学法学院、中国人民大学未来法治研究院主办的“生成式人工智能算法规制——《生成式人工智能服务管理办法(征求意见稿)》学术研讨会议”召开,来自政府相关部门、高校研究机构、人工智能产业界的专家参加了本次研讨会。

中国人民大学未来法治研究院张吉豫:

可以以发展、安全和法治三个关键词概括对ChatGPT为代表的大规模语言模型的系列关注。第一智能算法与人工智能,生成式人工智能技术是划时代的发展,大模型在互联网、数据等架构上可能形成新的层次,深刻影响产业的发展和未来技术的进步。第二,从数据、算法、系统集成等角度来看,生成式人工智能的发展、创新中伴随着风险与挑战。第三,为调节好发展和安全之间的冲突,构建以人民为中心的智能社会法律秩序,对于推动人工智能技术健康有序发展具有重要意义。

人工鱼群算法源代码_adas算法不需要人工标定_智能算法与人工智能

百度公司副总裁吴梦漪:

结合《生成式人工智能服务管理办法(征求意见稿)》的几个看法:一是将开放API和通过API调取功能认定为内容生产者可能提高了对合规义务的要求。二是将生成式人工智能认定为具有舆论属性和社会动员能力的互联网信息服务,可能泛化了适用范围。三是从实践的角度,内容生成的准确性与生成式人工智能技术原理存在冲突。因此,初始阶段监管层面的重点应从追求内容准确性转向对违法利用行为的打击。四是需要辩证看待数据的好坏。生成式人工智能具有一定的创作性智能算法与人工智能,海量的训练数据有利于提高技术的发展速度,希望监管的重点在于生成式人工智能产品的质量,不宜对训练数据和技术路线做过于详尽的规定。五是综合考虑生成式人工智能服务的人机对话特点,简化对真实身份信息要求的规定。

智能算法与人工智能_adas算法不需要人工标定_人工鱼群算法源代码

腾讯研究院首席数据法律政策专家王融:

对生成式人工智能的规制的几个建议。第一,生成式人工智能可能是未来新的信息时代最为基础的工具,超越了单纯的互联网信息服务,应以全新视角去看待。第二,制定规章是必要的,但是目前法律规范本身可能还需要进一步讨论新的问题;输出信息的质量方面有很强的市场自驱力;而大模型时代的底层网络安全和数据安全,发展更为优先。第三,三个月的模型优化训练期限在实践中难以落地,不妨考虑其他多种技术手段。最后,在AI发展领域,风险浮现是渐进式的,市场主体和监管主体应在共同目标和接近的立场下协同解决问题。

人工鱼群算法源代码_adas算法不需要人工标定_智能算法与人工智能

中国人民大学法学院教授王利明:

应正视ChatGPT引发的问题,思考法律上如何积极应对。首先,面对生成式人工智能引发的人格权和知识产权方面的问题,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或制定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。

adas算法不需要人工标定_智能算法与人工智能_人工鱼群算法源代码

对ChatGPT引发的侵权问题,提出五点建议:一是在价值取向上积极支持人工智能产品的开发。二是ChatGPT不同于自动驾驶等一般产品,让服务提供者承担无过错责任会阻碍技术发展,不符合鼓励技术创新的价值取向。三是可借鉴医疗事故责任的减免规则,因技术水平限制而导致难以消除的漏洞时,可以适当减轻甚至免除服务提供者的责任。四是加强和强化服务提供者对个人隐私信息的安全保障义务。五是关于ChatGPT的幻觉回答导致的侵权责任分配问题,应区别平台大规模生成与用户恶意诱导的情形。

中国社会科学院大学副教授刘晓春:

人工鱼群算法源代码_adas算法不需要人工标定_智能算法与人工智能

从四方面提出监管的建议。一是监管必要性,若在新技术场景下,原有体系能解决大部分问题,就缺乏专门规制的必要性。生成式人工智能的重要风险点在内容层面,如果生成的内容没有传播,是否存在风险仍存在疑问;如果已经传播,则要考虑原有的治理系统是否能够解决问题。二是监管有效性,其核心问题是公权力对产业的治理或干预是否能真实、有效地达到基于监管必要性的风险治理目的。三是结合我国现有产业背景考虑监管技术的应用场景。未必每个企业都研发大模型,但是在应用层面具有各自极大的拓展商业的可能性,应为应用层面的商业模式留出发展的空间。特别是在对内容生产者的定义上不应拓宽。四是从立法基础的角度考虑协调性。比如,在实名制问题上与网络安全法相协调,在算法的评估和备案问题上,也应基于现有的机制协调。

中国人民大学法学院教授万勇:

在生成式人工智能对著作权法合理使用制度的挑战方面,生成式人工智能可能涉及著作权法上的复制权、演绎权和向公众传播权。但是,目前的合理使用类型难以适用于人工智能技术。其次,为了解决相关的问题,应人工智能产业发展的合理使用制度改革,主要有两种解决方案:一是重塑理论基础,提出“作品性使用”与“非作品性使用”的概念,为了数据挖掘目的而使用作品,只有部分情形属于“非作品性使用”;二是改造制度规范,包括增设具体例外条款或引入开放式例外条款。建议修改《著作权法实施条例》,引入专门例外,兼顾产业发展和著作权人的权利。

中信所助理研究员刘鑫怡:

英国的监管框架是基于人工智能应用场景来规范人工智能应用,而非规范人工智能技术,并不为整个行业或技术设定规则或风险级别。在监管依据上,在不确定的技术应用和治理中探索可量化、可定性的成本收益及影响,这对我国监管政策的出台有启发意义。在目前的大模型监管上存在难点。主要包括三方面:一是技术的局限性导致目前难以达到治理的高标准;二是大模型治理的方式和限度难以把握;三是目前多样化治理工具没有完全发挥作用。随着多模态大模型的研发和广泛应用,未来的风险问题会逐步深化。建议在统筹发展与安全的基础上,构建全生命周期的差异化监管机制,加强人工智能重点领域关键环节监管。同时倡导“以技治技”,开展安全可信技术的治理。