近年来,全球流离失所人口急剧增加,国际救援委员会(IRC)面临着巨大的挑战。为了提高救援效率,IRC 正积极探索人工智能技术的应用,希望以此更好地服务于需要帮助的人群。
利用人工智能提升人道主义援助效率
自2015年以来,IRC 一直致力于 Signpost 项目,这是一个包含移动应用程序和社交媒体渠道的组合,能够以多种语言解答处于危险境地的人们的疑问。该项目已惠及1800万人,但IRC 希望能通过人工智能技术显著扩大其影响范围,前提是能够安全有效地运用这项技术。
冲突、气候紧急情况和经济困境导致对人道主义援助的需求激增。联合国难民署的数据显示,2024年全球共有超过1.17亿人被迫流离失所。面对需求与资源之间的巨大差距,IRC 将目光转向了人工智能技术。
为了在三年内实现帮助一半流离失所人口的目标,IRC 正在测试一个由人工智能聊天机器人组成的网络。这些聊天机器人旨在增强人道主义工作人员和直接通过 Signpost 为人们提供服务的当地组织的能力。目前,该试点项目在萨尔瓦多、肯尼亚、希腊和意大利运行,支持11种语言,并结合了来自OpenAI、Anthropic和谷歌等大型科技公司的多种大型语言模型。
该聊天机器人系统还利用Zendesk的客户服务软件,并获得谷歌和思科系统的其他支持。如果试点项目效果良好,IRC 计划免费将其技术基础设施扩展到其他非营利性人道主义组织,创建共享技术资源,帮助技术能力较弱的组织避免直接与科技公司谈判或管理部署风险。
人工智能在人道主义援助中的应用:谨慎乐观
IRC 首席研究和创新官 Jeannie Annan 表示:“我们努力明确指出合理的担忧,同时也要对机遇保持乐观态度,不能让服务对象被潜在的规模化解决方案所抛弃。”
Signpost 聊天机器人提供的信息和回复会经过当地组织的审核,以确保其及时性和对人们困境的敏感性。例如,一个来自萨尔瓦多的妇女带着儿子从墨西哥前往美国,寻求住所和儿童服务,聊天机器人就能为其提供所在区域的服务机构清单。复杂的或敏感的问题则会转由人工处理。
人工智能应用的风险与挑战
人工智能技术应用也存在潜在风险。首先,如果实况发生变化而聊天机器人未能及时更新信息,则可能提供错误甚至危险的信息。其次,这些工具可能会收集关于弱势群体的宝贵数据,成为恶意行为者的目标。黑客可能窃取个人信息,或数据可能意外泄露给压迫性政府。
IRC 表示,已与科技供应商达成协议,不会使用IRC、当地组织或服务对象生成的数据来训练任何AI模型。他们还对数据进行了匿名化处理,包括删除个人信息和位置信息。
除了聊天机器人,Signpost.AI 项目还在测试其他工具,例如数字自动化辅导和可以整合多种数据的地图,以帮助应对危机。
负责任地使用人工智能:多方协作与伦理考量
非营利性研发公司MITRE的Cathy Petrozzino指出,人工智能工具具有巨大的潜力,但也存在高风险。负责任地使用这些工具,组织需要自问:技术是否有效?是否公平?数据和隐私是否得到保护?
她强调,组织需要召集各方面人士来帮助治理和设计项目,不仅包括技术专家,还包括对当地情况有深入了解的人员、法律专家以及将使用这些工具的群体的代表。她还提到许多好的模型都“死在了人工智能的坟墓里”,因为它们没有与用户群体一起开发。
CDAC 网络执行董事 Helen McElhinney 补充道,与流离失所者或人道主义组织服务的对象进行咨询,虽然可能会增加设计工具所需的时间和精力,但缺乏他们的意见会带来许多安全和伦理问题,同时也会错过获取当地知识的机会。
她强调,应该告知接受人道主义组织服务的人群,是否会有人工智能模型分析他们提供的信息,即使目的是为了帮助组织更好地做出回应。这需要有意义且知情的同意。他们还应该知道,人工智能模型是否会对资源分配做出改变生活的重要决定,以及这些决定的责任应该由谁承担。
Adeso首席执行官 Degan Ali 指出,少数当地组织有能力参加讨论人工智能伦理的大型人道主义会议,许多组织缺乏能够参与这些讨论的高级和知识渊博的工作人员。她警告说,必须格外小心,避免通过技术复制权力失衡和偏见。“最复杂的问题总是需要当地的、具体的和亲身体验来以有意义的方式回答。”
原创文章,作者:讯知在线,如若转载,请注明出处:http://m.xzxci.cn/2024/11/16/15716.shtml