灼见名家 | 谢祖墀:从政策与伦理角度探索 生成式人工智能技术的发展
文 | 谢祖墀
高风咨询公司CEO
2023-9-20
本文是高风咨询公司与金杜律师事务所联名发表的文章Navigating the Generative AI Frontier: Hard Policies and Soft Ethics的中文译本,于2023年9月20日发表在香港《灼见名家》网站。仅仅依靠法律规范无法从根本限制生成式AI对社会造成的负面影响。在这个时代,社会需要建立新的规范来适应生成式AI技术的发展,而人类的监督或许比法律的规范更加有效。
生成式人工智能(AI)作为我们这个时代最具变革性的技术进步之一,围绕它的讨论热度依然很高。以DALL-E 2、Stable Diffusion和ChatGPT为代表的的生成式大模型正在迅速地发展和进步。从根据提示词创造生动的图像到以自然语言进行复杂的对话,展现了这项技术能够在许多方面都带来巨大变革的潜力,包括在艺术、营销、新闻传播和新药研发等等不同垂直领域的应用。生成式AI在提高效率和创新方面的潜力是有目共睹的,但它日益增长的能力和影响力也引发了包括模型研发人员在内的公众对其在道德伦理、数据安全和监管方面的担忧。
近期就曾出现过一些反对使用生成式AI的抗议事件──荷里活最近的罢工活动就在抗议未经同意使用生成式AI技术模仿他人的声音和肖像的行为,这亦突显了人们对版权侵权和错误数据传播等问题的担忧。那么,随着生成式AI渗透到社会和人类生活的更多方面,我们应该如何平衡它的应用潜力及其潜在风险呢?
AI发展对监管能力提出新要求
生成式AI的快速发展以及其呈指数级增长的内容产出给虚假内容、负面信息、数据隐私和知识产权等方面的监管带来了新的挑战。
对于虚假信息的监管来说,由于生成式AI能在很短的时间内生成数量庞大的内容,全面监管生成的文本、图像品质及真实性会变得十分困难。目前,检测虚假信息的相关技术仍然在研究和开发的过程中,可靠的解决方案并不多。这也在无形之中增加了某些模型或生成的内容为既得利益服务,同时传播错误信息的风险。如果要更好地监管AI生成内容的质量和真实性,我们将需要更严格的监控和审核流程。在这个方面,我们还有很长的一段路要走。
此外,目前还存在一些数据问题亟待解决。一些生成式模型在未经许可采集训练数据时可能会涉及侵犯个人隐私。即便以某些公开数据训练,其中也可能会涉及隐私信息,这不但对法律法规的制定提出了新的要求,也需要人们提高相应的隐私保护意识。
除此以外,用于训练模型的数据也可能会带有偏见,这意味着模型最终可能会输出包含负面信息的内容。如果这些模型所依赖的训练数据本身就包含固有的偏见,那么其可能在不知不觉中加剧现有的社会偏见,并导致更大规模的负面影响。比如在招聘、晋升和贷款审批等领域加强歧视和不公平待遇。这个问题的解决方案可以是使用数据标记(data tagging)和数据增强(data argumentation)等技术手段,来帮助搭建更公平、更具代表性和包容性的训练数据集。
因此,我们需要建立严格的数据治理框架。包括对权利、许可、同意、目的、限制等方面更清晰的定义,并且确保治理条款仍然具有一定的包容性,以适应技术的持续发展。企业亦需要在内部持续监测与评估数据隐私和安全方面的风险。
在知识产权方面,生成式AI可能会对知识产权的保护带来新的挑战。例如,在未经允许的情况下,擅自使用受版权保护的作品来训练模型,将会引发版权问题。模仿他人知识产权风格的内容输出该怎样被定义,是否同样受到知识产权保护等,目前也属于另一个灰色地带,需要更清晰的法律规范。人们对于上述问题的态度也存在分歧:一些人认为这是非法利用知识产权,而另一些人则认为,这种未经授权的使用扩大了艺术家们的知名度,一些艺术家可能希望通过生成式AI扩大他们作品的传播范围。由此可见,在保护现有知识产权和培育创新之间保持平衡是一个复杂的问题。此外,AI生成的作品是否享有知识产权也是一个有争议的问题。许多司法管辖区的现有法律法规都不承认AI作为知识产权持有者。
由于商业的多元化,遵守不同国家跨境数据流程动的法律规定同样具有挑战性。许多生成式AI模型例如Stable Diffusion是利用大量来自全球的数据进行训练的,但这可能会违反一些国家关于数据本地化的法律,即要求特定类型的数据必须在本国存储。此外,公司还需要面对不同市场中针对AI生成内容的法律要求,这是跨境使用大模型的另一个挑战。
鉴于AI生成内容的数量庞大,对其进行审核将是一项艰巨的任务。这些不同地区的法律规定为想要在全球范围内部署生成式AI的企业带来了更加複杂的挑战。他们可能不得不对一些模型进行地域限制,或者开发符合各国法律规定的本地化版本。
跨境法规的冲突对国际上推广生成式AI技术亦构成了障碍。中国于2023年7月发布了全球最早、最详细的生成式AI规范文件,并于2023年8月15日起正式实施。该规范展示了中国在生成式AI产业发展的初步布局,其涵盖了生成式AI在学术研究和应用领域方面的规范条款,同时强调了该技术的发展要符合审慎的原则并遵循社会主义核心价值观。除了中国,2023年6月欧洲议会上也通过了欧盟历史上首个人工智能法规,即欧盟人工智能法案。该法案将对人工智能技术实行全面的监管制度。此外,在全球其他司法管辖区也有望制定更多人工智能技术的法律法规。事实上,大部分技术的发展往往超越法律监管的步伐,因此,对于生成式AI技术进步的速度而言,及时且完善的跨境监管将是一项巨大的挑战。
超越法规:伦理规范的必要性
仅仅依靠法律规范无法从根本限制生成式AI对社会造成的负面影响。在这个时代,社会需要建立新的规范来适应生成式AI技术的发展,而人类的监督或许比法律的规范更加有效。行业领导者呼吁在训练生成式AI模型方面提高透明度,设定恰当的问责机制和道德准则来监管生成式AI的技术发展。许多专家也强调开发商需要采取积极的合规措施,比如对新模型进行道德审查来减少其带来潜在的负面影响。
显然,人们需要在不扼杀创新的情况下防范生成式AI被用于有害的目的。因此,国际上通用的人工智能指导方针需指出开发商和运营商有义务从一开始就将公平、透明等正向价值观纳入系统中,并予以问责机制。与此同时,提高公众的道德意识也可以促进生成式AI被合理合法地使用。最终,一个植根于人类共同价值观的、基于社会治理原则的管理办法,才是最为有效的。
在动态中寻找平衡
企业领导者应该意识到“一个世界,两个系统”(One World, Two Systems)这种现象正在形成,对于生成式AI来说,它在中国市场与美国(和西方)市场之间可能会有不同的发展。跨国公司可能需要在不同的市场按照相应的合规流程分别开发和定制AI模型和系统。除此之外,各方也需要积极展开关于生成式AI伦理规范和法律监管等方面的跨境合作,以防止跨国企业由于市场体系不同而产生的风险,亦或是防止由此导致的生成式AI运营成本剧增。
展望未来,生成式AI亟需一个细致的、全球化的合作方法。这个方法应当起到鼓励创新的作用,同时遏制生成式AI用于有害的目的。企业──特别是跨国公司在不同市场经营业务时──必须为日益复杂的监管环境做好准备。我们不仅需要企业和监管机构的参与,公众也应当参与进来,通过多方的磨合和协调为政策或道德规范的建立添砖加瓦。随着政策和社会逐渐适应技术的不断发展,各国以及不同群体之间的协调和统一监管对生成式AI技术的发展至关重要。
高风管理咨询公司
高风管理咨询公司是一家全球专业的战略与管理咨询以及投资顾问公司,植根于中国,同时拥有全球视野、能力、以及广泛的资源网络
微信公众号:Gaofengadv
上海
电话:+86 021-63339611
传真:+86 021-63267808
香港
电话:+852 39598856
传真:+852 25883499
北京
电话:+86 010-84418422
传真:+86 010-84418423
邮箱:info@gaofengadv.com
官网:www.gaofengadv.com
微博:高风咨询公司
Previous:灼见名家 | 谢祖墀:跨国公司区域总部对香港的重要性