图片源于:https://itif.org/publications/2024/08/12/how-experts-china-united-kingdom-view-ai-risks-collaboration/
近年来,人工智能(AI)的最新进展为社会、经济和科学进步带来了诸多重要益处。
一个重要的发展因素是开源人工智能:其源代码和数据可供他人自由使用、研究、修改和分发的AI技术。
开源人工智能在通过协作开发加速创新、减少冗余和民主化AI能力方面至关重要。
由于其对任何人开放,它促进了经济发展和社会进步,使任何人能够针对特定任务调整和微调高效能AI模型。
此外,全球的研究人员、开发者和用户在开源AI上的合作,推动了共享AI项目的集体进步,并促进了透明度、问责制和伦理指南及最佳实践的发展。
最后,通过可获取的代码和数据,开源人工智能增强了透明性和问责制,帮助识别和解决AI中的偏见、错误和伦理问题,让用户理解科技如何运作。
中国和英国在开源社区活跃,并在人工智能领域居于领先地位。
这种历史使得它们在开源人工智能领域崭露头角。
例如,总部位于英国的Stability AI开发了许多流行的开源生成AI工具,用于创作图像、音频、3D模型和代码。
而中国则生产了一些世界顶尖的开源大型语言模型(LLM),如阿里巴巴的Qwen和01.AI的Yi。
这些开源AI项目为专有(或“闭源”)AI提供了竞争,因为后者的开发者限制公众对底层技术的访问。
然而,开源人工智能也带来了独特的挑战。
首先,与专有AI不同,专有AI的开发者可以监督用户对其技术的使用,但一旦开发者公开发布开源AI,他们对他人使用其技术几乎没有控制权。
恶意行为者可能会篡改开源AI,移除安全保障、操纵结果和生成不准确信息。
此外,恶意行为者可能会利用该技术进行网络攻击、传播虚假信息、实施欺诈、制造违禁品以及参与其他非法活动。
第二点是,与专有AI不同,开发者对技术负有责任,开源AI项目往往没有明确负责的人。
这导致技术可能存在已知的缺陷或安全漏洞,而没有得到解决。
同样,开源AI可能在没有任何保证或担保的情况下提供。
例如,用户可能无法得知开发者是否基于低质量或非法数据对开源AI模型进行了训练。
最后,开源产品的开发实践可能带来未知风险,例如攻击者可能会暗中试图向开源项目引入恶意代码或数据。
解决人工智能的风险是全球关注的问题,英国和中国在这一问题上始终走在前列,尽管它们都寻求支持各自企业的发展和使用人工智能。
2023年,英国召开了AI安全峰会,许多国家参加,包括中国。
峰会以布莱切利宣言结束,参与国决议“维持包容性的全球对话,参与现有国际论坛和其他相关倡议,并以开放的方式为更广泛的国际讨论贡献内容。”
习近平主席随后在旧金山与美国总统的双边会议上重申了在人工智能等共同利益领域进行互利合作的呼吁。
中国外交部还在2023年10月发布了一份声明,呼吁“全球合作,促进人工智能的健康发展,分享人工智能知识,并使人工智能技术在开源条款下向公众开放。”
尽管有这些高层的政府声明,但尚不清楚英国和中国是否能够将其在人工智能领域的合作愿望转化为有意义的行动。
要理解这种伙伴关系的可行性,重要的是更好地了解AI专家在政府外的关注和优先事项是否一致,以及他们在合作方面的经验。
本报告旨在提供对这些问题的见解。