大型语言模型是一种深度学习算法。近年来,随着模型学习的语料库不断增加,训练方法日益完善,大型语言模型在文本的识别、理解、推理、翻译、预测和生成方面都取得了突破性进展。openai公司在2022年12月15日公开的chatgpt更是能够根据用户输入的提示,生成连贯、自然的文本,模仿人与人之间的对话。然而,chatgpt生成的有害言论和虚假信息,以及它背后的gpt-3.5模型内置的偏见性和安全性漏洞,引发了社会对人工智能伦理风险的广泛讨论。围绕大型语言模型可能导致的潜在伦理危害、人工智能技术生产者对利益相关者的道德责任、科技公司能否在创新和盈利的同时维护社会道德准则等话题,本报记者采访了相关学者。
语言模型存在道德风险
澳大利亚莫纳什大学信息技术研究员、澳大利亚联邦科学与工业研究组织研究员卓越(terry yue zhuo)表示,大型语言模型的主要应用场景包括生产创意内容和做决策。由大量书籍、文章和剧本语料库训练出的语言模型,能够熟练模仿文本的模式、结构和样式,从而生成类似的故事、诗歌、剧本、广告和营销文案等。此外,大型语言模型还能分析用户输入的文本所处的语境,给出理智的判断和建议、回答用户问题等。这类功能是聊天机器人、虚拟助手和基于文本的电子游戏等数字产品的重要组成部分。
先进的语言模型在创造机会的同时,也挑战了社会的伦理道德准则。卓越对记者谈道,chatgpt的道德危害主要体现在生产歧视和排斥的言论、传播错误信息、泄露重要信息这三方面。首先,全球有超过7000多种语言,其中chatgpt掌握的英语语料库(文本数据)最多,生成的英文作品或用英文做决定的准确度最高,而基于其他语言的创作都带有偏见。卓越担心,大型语言模型对多元文化的认知偏差可能会增强社会陈规定型观念,使社会各界代表性不足的群体遭受不公正的待遇。
加拿大英属哥伦比亚大学语言学博士生候选人伊菲·阿德巴拉(ife adebara)表示,消除语言模型中的偏见和歧视还有很长的路要走。与英语相比,斯瓦希里语、祖鲁语和约鲁巴语等非洲语言缺少高质量的语料库;自然语言处理技术的开发者无法为“低资源”语言构建类似gpt-3.5的大型语言模型。此外,许多语言与印欧语系的差异较大(例如至少80%的非洲语言是声调语言),这就需要开发者对此类语言数据进行不同的处理,大大增加开发的成本和难度。
其次,卓越表示,如果技术人员没有及时更新语言模型的知识储备,又不能投入更多时间训练模型,生成内容的准确性和广泛性就会逐渐降低。然而,chatgpt却以一种令人信服的口吻与用户对话,给用户制造了人工智能无所不知的幻觉。由chatgpt等生成式人工智能传播的错误信息和虚假信息将干预用户对客观事实的判断,尤其是老人和儿童等不经常核查事实的群体,可能导致用户作出有损伦理道德的临床和法律决策。
最后,由于chatgpt无法区分数据字段中夹带的恶意信息,一些用户利用这个漏洞,诱导模型生成有害言论,降低了模型安全性和健壮性(即系统能否在出现故障时自动修复或者忽略故障继续运行)。此外,随着语言模型不断增大,一些较小的模型中不存在的能力会突然出现在较大的模型里,因此被开发者认为是模型“突创”的能力。但是,具有突创能力的模型也更容易被恶意操纵,泄露训练数据中的个人信息,引发身份盗窃、跟踪和骚扰等风险。
卓越认为,不只是chatgpt,其他语言模型也会触发类似的伦理挑战和潜在的道德伤害。因此,不断提升语言模型的安全系数、维护道德标准是发展负责任的人工智能的长期目标。技术开发者的责任是建设遵守道德规范的语言模型。例如,将语言模型的可靠性、准确性、实际功效和效率一并列为开发重点、不断更新可供模型学习的文本数据、增加模型的训练时间和基准测试次数、进行权重编辑和偏见审计等。此外,科技公司需要披露使用数据的来源、处理数据前的准备工作以及模型的测试过程,从而保持人工智能研发和部署的透明度。
相比之下,用户的责任就是杜绝滥用或恶意攻击语言模型等不道德行为。例如,社区可以频繁开展人工智能的科普和应用培训,帮助大众了解人工智能的优势和局限性、明确使用人工智能技术的责任和伦理含义。除此之外,用户还应积极反馈数字科技产品的准确性、可靠性和伦理风险等问题,参与人工智能道德准则的公共讨论,推动相关法律法规的完善。
强化信息技术公司的责任意识
近年来,越来越多的公司向监管机构、产品用户和其他利益相关者保证,它们正在研发“负责任”的人工智能技术,其中不乏“道德洗白”的宣传。美国加利福尼亚大学圣芭芭拉分校马克库拉应用伦理中心互联网伦理项目主任伊莉娜·拉伊库(irina raicu)表示,当谈论“科技向善”的时候,人们往往关注科技所带来的最终结果,而不是科技的研发过程和使用方法是否符合伦理道德的标准。相对而言,“道德科技”从一开始就需要技术生产者从维护伦理道德的角度设计和开发功能,评估它们的包容性、可访问性、数据收集和删除的安全性等。
拉伊库认为,在作出影响伦理道德的决策之前,组织首先要明确利益相关者,即所有将受到该决策影响的个人和群体。这个步骤为后期分析科技产品的道德水准奠定了基础。但是openai似乎没有将学生和教育工作者作为它的利益相关者。例如,openai在介绍chatgpt的局限性时,承认该产品“过于啰唆、过度地使用某些词组……这些问题源于数据在训练过程中产生的偏见(数据训练师更认可那些看起来更全面、句子更长的回复)”。然而,openai没有意识到的是,“更全面、句子更长的回复”还符合坏写作的特点。拉伊库认为,如果openai负责任地将chatgpt的介绍改成“我们的模型是为了优化对话体验,而不是追求表达的精准性或优秀的写作”,也许就能制止一些学生和其他利益相关者的滥用行为。
卓越对记者表示,openai秉承了开发安全友好的人工智能的精神,但是缺乏足够的善意和实际行动来处理由chatgpt带来的伦理危机。目前,openai的人工智能文本检测器的可靠度和实用性都不高,无法追踪所有由chatgpt生成的内容,更不用说排查其中的道德风险了。我们并不缺少保护学生和教育工作者等利益相关者的技术,比如,保护知识产权的数字水印就有助于检测模型的剽窃行为。真正的问题是,信息科技公司何时才能积极承担对人工智能的治理责任,完善道德决策的框架。
信息技术的创新离不开技术生产者的创造力和勇气,但也需要谦逊的态度和勇于担当的精神。拉伊库认为,针对信息技术的规制是必不可少的,但是法律不可能涵盖每一个道德决策。公司必须深入讨论开发和使用人工智能技术的伦理道德影响,让伦理分析和道德发展成为信息科技公司的第二“天性”。
将道德问责与科技创新相结合
美国普林斯顿大学公共和国际事务学院、人类价值观研究中心教授史蒂文·凯尔茨(steven kelts)表示,在追逐盈利目标的过程中,信息技术公司改变了用户的生活,促进了人与人的联系,甚至推动了新社区发展模式的出现,也对社会的道德观念造成了影响。由此可见,信息科技产品和服务蕴含着开发团队对提升人类福祉的设想,同时也向社会输出了员工的道德观。
然而,凯尔茨提出,信息技术公司面向未来的项目管理结构,让员工为产品承担道德责任充满了挑战。日本管理学家野中郁次郎的“知识创造理论”塑造了当代信息技术公司的创新模式。野中郁次郎在《知识创造公司》一书中指出,个人和组织同时具备“隐性知识”和“显性知识”。“隐性知识”指的是尚未被正规化的个人经验和无法被具体化的技能和直觉等。“显性知识”则是一切可以用形式化和制度化的语言和图像表达的客观知识。管理者匹配见解和职能不同的员工共同工作,鼓励员工深入挖掘平日积累的隐性知识,构思尚未被开发或未经改进的技术,并转化为具有独创性的产品,占据市场先机。
凯尔茨表示,人的责任理念具有回溯性。责任理念要求人们为已经出现过的错误,或者是当下能够预见到的错误,承担道德责任。因此,信息技术公司员工对创新科技产品的责任也必须具有预见性。这意味着员工必须不断明确现有知识在未来的用途,广泛地预测信息技术创新能为人类社会创造哪些福祉,而不仅仅是满足用户的需求和愿望。
凯尔茨呼吁,信息技术公司员工在开发技术的过程中要不断反思和讨论一个问题,即“我们的产品是否有利于人类的正向发展?”只有当组织和个人一并认识到自己的偏见和局限性,才能积极地承担道德责任,作出更合乎道德的决策,研发出维护道德准则的人工智能技术。