6月10日,国际图联发布文件《国际图联“图书馆与人工智能”的切入点》,作为《IFLA互联网宣言》修订稿之后续系列文档的第一份附件。本文件旨在协助图书馆界在处理人工智能议题时,厘清价值立场、识别潜在风险,并促进专业讨论。《图书馆与人工智能的切入点》旨在成为图书馆员评估人工智能伦理使用的辅助工具,列出了关键考量点及应用情境,供图书馆界就AI技术的采用及其可能的益处与风险进行评估与讨论。尽管该文件并非决策工具,但鼓励图书馆界人士结合本地情况,与同仁及相关机构开展更广泛的协作性对话。IFLA强调,图书馆一贯秉持的价值观与伦理原则,对于推动社会对AI技术的负责任使用具有高度相关性。

图书馆、AI与伦理责任的关系
人工智能作为一组前景广阔的技术集合,有望支持图书馆在信息公平获取与知识创造方面的核心价值。然而,这项技术也伴随着诸多争议,部分应用正在带来实际伤害。因此,任何AI带来的效益都必须以“公平、责任、可持续”的方式达成。
图书馆长期倡导的信息自由、公平获取、表达权利、公开透明以及对隐私与知识产权的尊重,为AI伦理提供了坚实基础。虽然“人工智能”是一个广义术语,许多公共政策与公众讨论仍以其为核心,因此图书馆在参与相关讨论时需据此定位。
IFLA认为,图书馆专业群体有责任确保AI在知识获取与创造方面的积极潜力得以以负责任的方式实现,同时抵制其潜在危害。本文件提供的不是结论,而是一系列关键问题,旨在启发专业思考与实践辨识。
图书馆的角色
图书馆将与其他利益相关者合作,定义负责任的人工智能使用。他们可以在六个不同层面发挥影响力:
1.开发或采购适用于图书馆服务的AI系统
人工智能的潜在益处
在2025年,人工智能这个术语与生成式人工智能密切相关,但就这些指南而言,我们将其作为多种数字技术的总称,其中一些已在图书馆中使用了一段时间,当负责任地开发时,通过以下方式对知识获取具有潜在益处:
• 数字化,例如将文本、手写文本、口述、多媒体和视觉媒体转换为机器可读形式
• 大规模内容描述,包括元数据创建
• 推荐、适应性、个性化和过滤
• 摘要和综合
• 数据分析
• 翻译
• 交互性
此外,人工智能应用有潜力改善图书馆服务提供,并通过自动化日常任务使某些图书馆操作更简单、更可靠。人工智能还有潜力为特定用户群体提供益处,例如通过增强无障碍性,如为残障用户提供服务。图书馆员有责任以公平、负责任和可持续的方式最大化人工智能对信息获取的益处——以及挑战根本上不道德的使用。
人工智能的潜在风险
只有解决人工智能技术的反复出现的问题,才能公平、负责任和可持续地实现这些益处。这些问题包括:
1.夸大已证实的益处和炒作。在图书馆领域,具有明确成本效益的用例仍然有限。有些说法纯粹是炒作。可能存在比人工智能更简单、更好、更公平的问题解决方案,但由于炒作而被忽视。某些用途正在造成伤害。
2.不准确和误导性信息。人工智能基于可能性计算工作。这经常导致错误,例如在推荐或过滤中。生成式人工智能在过时信息、看似合理但不正确的信息、缺乏引用来源和编造来源方面存在众所周知的问题。在准确性至关重要的环境中,这是一个关键问题。
3.偏见。除了由不当算法引起的偏见外,人工智能输出还可能反映训练数据中未受控制的偏见。它们可能复制有害的刻板印象,进而可能使某些群体疏远使用人工智能。
4.对文化和语言多样性以及对多元知识体系尊重的威胁。以非包容性方式开发的人工智能增加了复制殖民权力结构的风险,并削弱了图书馆去殖民化馆藏和实践的努力。
5.滥用人工智能进行虚假信息、错误信息和审查。在错误的手中,人工智能可能对信息文化产生破坏性影响。
6.不公平的访问。除非在系统设计中考虑到数字访问、技能或信心有限的人的需求,否则他们可能处于不利地位。鉴于人工智能系统的成本,它们通常只有特权国家、机构和用户才能访问。
7.缺乏可解释性和透明度。人工智能本质上难以完全理解,并且经常在后台不被注意地运行。许多人工智能公司在关键问题上缺乏透明度,例如使用了什么训练数据。当人工智能出错时,可能不清楚谁应负责。何时以及如何使用人工智能应始终对用户透明。
8.对隐私和安全的威胁。当前人工智能开发的一种模式是通过在未经知情同意或选择退出的情况下从用户那里提取数据进行部分训练。数据的收集、使用和销售可能会危及用户安全。
9.对版权和作者权利的威胁。当前人工智能开发的一种模式是在版权材料上进行训练。并非总是合法访问原始数据。在某些司法管辖区,这也是违法的。人工智能训练方式还可能存在隐藏成本,例如从图书馆存储库中抓取数据对图书馆造成的成本。
10.缺乏利益相关者咨询。人工智能的开发模式是在没有充分参与和咨询最广泛的利益相关者的情况下进行的,包括那些可能通过人工智能被代表的人。
11.对人类能动性的威胁。人工智能可以让生活更轻松,但也可能导致技能和信心的丧失,造成技术依赖。人工智能经常以不可见或不透明的方式使用,这可能导致人类选择的减少。
12.工作岗位流失或剥削性雇佣关系的威胁。一些雇主已经在使用人工智能来取代创造性专业知识。人工智能开发通常依赖低薪、不稳定的工人来执行数据标记和过滤等困难甚至创伤性的工作。
13.重大环境影响。数字技术通过制造和运输设备所使用的材料和电力以及训练和使用人工智能的电力需求对环境产生影响。人工智能,尤其是生成式人工智能,对电力和用于冷却数据中心的淡水有着巨大需求。
14.不受监管的垄断性科技公司的过度权力和破坏性国际人工智能军备竞赛的出现。人工智能的许多发展方面并非为了全人类的利益以可持续的方式开发,而是掌握在不负责任的手中。人工智能应该以对文化敏感的方式在本地开发。应优先考虑开放、非专有的方法。
图书馆员应该询问的关于人工智能的14个问题
为了确保人工智能的益处同时对抗风险,图书馆员可以就图书馆可能使用的特定人工智能服务提出以下问题(取决于他们的背景和相关服务)。这些问题旨在作为自我评估工具,用于评估图书馆内使用人工智能的可能风险和益处。问题下方的图像可用于小组游戏或动态活动,以更互动的方式解决这些问题。
1.关于知识获取和创造的益处的性质是什么?相对于图书馆优先事项和替代解决方案,提供这些益处的努力/成本是否合理?
2.人工智能输出的信息的准确性、及时性和公正性水平如何?在使用时如何解释准确性水平?
3.有哪些保障措施来最小化偏见和破坏性刻板印象和假设的再现?
4.如何通过人工智能保护/促进多元知识体系以及文化和语言多样性?
5.某些不良行为者使用人工智能是否在促进错误信息或审查?
6.益处是否公平可用,包括数字不平等和可访问性方面?
7.应用程序是否以社会有意义的方式透明?是否定义了谁对人工智能造成的错误及其影响负责?
8.如何管理用户数据以确保其隐私和安全?
9.人工智能服务的开发是否以未非法访问作品的方式进行?
10.当地和社会利益相关者如何(或将如何)参与人工智能的开发和实施,确保社区对数据主权的权利(即维持对自身及其文化遗产数据的所有权、控制权和治理权)?
11.如何确保用户在与人工智能交互时保持能动性?对用户技能和信心的影响是什么?
12.对人类就业的影响是什么,包括潜在的工作岗位流失或使用不稳定劳动力?
13.人工智能服务整个生命周期的环境影响是什么,包括电力需求和用水?
14.如果开发者是第三方,他们的商业模式和负责任运营的方法是什么?
场景
以下场景已创建用于专业发展背景下的使用或改编。它们扩展了早期的一组仍然相关的场景[4,5]。我们建议不仅用于个人反思,还作为集体讨论和学习的催化剂。
我们鼓励图书馆员在其图书馆内将其用于互动活动,例如在组织圆桌讨论时,参与者阅读每个场景并从不同角度回答问题。
我们的便利化技巧包括:1)确保每个人都理解所提问题的性质,2)包括跨角色、部门甚至学科的多元化参与者群体,3)分配角色或观点以帮助从不同角度探索场景,4)记录关键反思和不确定领域,5)将您的经验与使用过指南的其他图书馆进行比较。
场景1. 支持图书馆用户负责任地采用生成式人工智能
一项关于图书馆用户行为的研究表明,与生成式人工智能相关的一些重大转变正在发生。许多用户正在转向免费的生成式人工智能聊天机器人作为信息的首选来源。一个常见的评论是:"它简单快捷。它让我更有效率"。一些用户似乎发现它们特别有价值,例如神经多样性用户。用户意识到信息准确性和技术依赖等一些问题;但似乎不太了解或关心更广泛的社会问题。
一些用户还为访问更好的模型以获得更大的功能而付费。有些人要求使用专门的人工智能来完成文献综述和数据分析等任务。
还有一些证据表明,图书馆数据库的使用正在下降,用户表示它们根本无法与免费聊天机器人的易用性相匹配。与此同时,您无法负担订阅图书馆数据库中出现的所有新功能。
• 您识别出哪些伦理和价值问题?
• 您会怎么做?
• 场景有多现实?当前情况是否有改变问题的方面?
场景2. 图书馆员工使用生成式人工智能
作为一名管理者,您越来越注意到您的一些员工正在使用生成式人工智能来帮助他们执行任务,例如撰写电子邮件、创建营销材料、总结和翻译文档,甚至作为回答参考查询的第一站。在这个过程中,他们正在获得有用的技能。
其他员工拒绝将生成式人工智能用于任何事情。他们引用了准确性和"伦理问题"等问题,包括环境影响。
您正在计划举办一个研讨会,以使员工实践保持一致,并可能制定人工智能使用政策。
• 您识别出哪些伦理和价值问题?
• 您会怎么做?
• 场景有多现实,当前情况是否有改变问题的方面?
场景3. 使用人工智能支持图书馆资料的元数据创建
一家图书馆正在考虑与第三方人工智能提供商进行试点项目,以探索人工智能如何协助创建元数据。直接驱动因素是处理大量待编目的图书和其他资源积压。然而,人们认为有潜力将其扩展到特殊馆藏和研究数据中的大规模数字内容。与其他机构的讨论表明,只有部分元数据创建过程可以轻松自动化,并且仍然需要员工检查质量。
一些员工对整个拟议项目持怀疑态度:他们说这将意味着元数据质量的重大损失,并暗示这是让图书馆走上全面自动化道路的开始。
• 您识别出哪些伦理和价值问题?
• 您会怎么做?
• 场景有多现实,当前情况是否有改变问题的方面?
将洞察转化为行动
虽然这些指南只是一个起点,但其中包含的问题和场景旨在激发关于人工智能在图书馆环境中作用的批判性思维和协作决策。我们提供了一套关于如何使用场景的建议,但我们也意识到每个图书馆选择使用它的方式所蕴含的价值,无论是通过结构化讨论、会议或非正式聊天、政策审查还是社区参与。
因此,我们想了解这些指南在您的环境中是如何应用的。
它们是否有助于指导特定的决策或对话?您选择的格式是什么?从发生的讨论中出现了什么反馈?
您的经验对于理解此资源的现实世界影响和改进未来版本至关重要。我们邀请您联系我们分享您的反思、挑战和想法。您的意见将帮助我们为即将推出的版本塑造一个更具响应性、包容性和有用的工具。


本文来自图情招聘,如有侵权请联系网站管理员删除。