日前,浙江师范大学教育学院陈殿兵副教授、硕士研究生王伊宁在《中国教育报》刊发署名文章《为生成式人工智能制定行为规则》。文章在解读联合国教科文组织发布的《在教育和研究中使用生成式人工智能的指南》的基础上,从生成内容、政策法规、知识产权和数字鸿沟等六个层面分析了生成式人工智能可能带来的显性与隐性风险,并从政府、服务提供者、用户等层面提出具体举措防范其可能带来的风险。
文章指出,生成式人工智能并非新鲜事物,但是在其大规模应用于日常工作和学习之前,首先要明确这一技术本身可能带来的风险。智能模型本身不是建立在真正理解语言和现实社会的基础之上,其内容往往偏离人类社会的价值取向,容易产生误导性的术语和话语体系,导致信任赤字;技术立法往往落后于技术发展的步伐,缺少法规和条例的引导和规制,监督监管乏力;生成式人工智能模型是由大量数据构建的,来源未获授权,侵犯知识产权;生成式人工智能应用所输出的文本、图像和视频往往真伪难辨,模糊了真实与仿真界限的界限。
其次,文章进一步强调,生成式人工智能在带来显性风险的同时,由于技术本身的局限性,也会加深信息茧房、数字鸿沟等风险,加剧社会不公平现象。生成式人工智能模型数据来源于互联网,在缺乏数据的地区,他们的声音往往不被听到,使其存在进一步被边缘化的隐性风险。同时生成式人工智能作为一种新兴的技术,需要基于大量的数据与巨大的计算能力,这就意味着生成式人工智能只能在技术先进的国家和地区普及开来,科技弱势地区的话语权被忽视,其潜在的风险就是发达经济体的价值观广泛传播,数字鸿沟也会不可逆地加深。
最后,文章明确了防范生成式人工智能风险的一些重要举措。要提升外部监督监管的力度,在监管的同时给予人工智能创新的自由度,协同创造出更高质量的内容;强化生成式人工智能提供者的责任意识,提供生成式人工智能的公司要以负责任和合乎道德的态度,提供通用系统和应用程序以满足教学、学习和研究的需要;对生成式人工智能工具进行监管和定期审计,关注生成式人工智能运用到教育领域对于学生创造力和批判性思维造成的长期影响,对独立使用者设定最低年龄限制;个人用户要加强自我约束意识和行动,及时向监管机构报告非法应用程序,保证人工智能合法合规地运用于社会。