开云体育
OpenAI向美国政府建议限制DeepSeek发展的提案全文开云体育
开云体育[永久网址:363050.com]成立于2022年在中国,是华人市场最大的线上娱乐服务供应商而且是亚洲最大的在线娱乐博彩公司之一。包括开云、开云棋牌、开云彩票、开云电竞、开云电子、全球各地赛事、动画直播、视频直播等服务。开云体育,开云体育官方,开云app下载,开云体育靠谱吗,开云官网,欢迎注册体验!公司,宣称其使命为是确保通用人工智能造福全人类。但当地时间2025年3月13日,该公司向美国政府科学和技术政策办公室提交了一份政策建议,其主旨直指近期迅速发展的由相关公司开发的AI工具(如“DeepSeek”),力图说服美国政府接受其政策建议,通过多种手段限制相关公司的AI发展和推动美国本土AI发展。
一、在外部发展方面,此份政治建议运用“民主”和“专制”等政治标准,对世界上的不同国家及国家内部的公司所开发的AI工具进行分类,将美国及其盟友国家开发的AI划分为应当鼓励和积极使用的“民主型AI”(democratic AI),而美国的对手开发的AI则应予严格禁止。这也与美国政府长期以来在AI产品出口领域采用的三类国家划分标准相似。而OpenAI公司的政策建议则更进一步,主张美国政府应主动推广AI发展过程中的民主价值观,与盟友国家开展合作,以此维持美国在AI发展领域的优势地位。
二、在内部发展方面,OpenAI从多个方面提出了鼓励美国本土AI发展的策略,主要包括:
3.加大电力等关键基础设施的建设力度(以及配套的行政许可制度调整)助力AI发展;
4.政府部门加大AI采购和部署力度(尤其是对采购过程中的安全审查和行政许可进行简化),形成引领作用;
5.建设专门的人工智能经济发展区,在其中采用特殊的税收优惠政策等,助力私营企业投资和创造就业机会;
OpenAI公司作为人工智能领域发展的领军企业之一,其所提出的支持美国自身AI发展的政策切中肯綮,从各个层面为AI开发企业的创新创造和普通用户适应AI发展、有效利用AI提供了便利。但其针对部分美国所谓对手的国内公司开发的AI的排斥、恐惧、污名化态度,却也为AI发展的未来蒙上了一层不确定性的阴影。AI究竟如何实现“开放”,如何避免制裁标准阻碍AI真正惠及广大人民,如何避免政府的行政决策绕过合理的程序限制轻易影响新兴产业的发展,是科技工作者和法律与政策研究者共同需要思考的问题。
OpenAI公司共同创始人中的两位代表人物,左为OpenAI公司现任首席执行官和最初的投资人萨姆·奥尔特曼(Sam Altman),右为埃隆·马斯克,其不仅是商界巨鳄,也是特朗普现任内阁当中的重要人物。
美国采取的政策的根本目的是保持并增强美国在全球的主导地位,同时促进人类繁荣、增强经济竞争力和保障国家安全
OpenAI 尊敬地向科学技术政策办公室提交本份建议函件,并随函附上相关提案,以供政策办公室在权衡新的《人工智能行动计划》时进行参考。正如副总统万斯最近在巴黎人工智能行动峰会上所言,该计划将保持美国在人工智能领域的领导地位,并“让人们更高效、更富裕、更自由”。随着世界领先的美国AI从业主体即将迈向通用人工智能领域(AGI),相关国家也下定决心在2030年之前超越我们,特朗普政府新的AI行动计划能够确保美国主导下的,基于民主原则开发出的AI能持续领先于相关国家主导开发的AI。
OpenAI与特朗普政府的观点一致,认为人工智能创造了值得为之奋斗的繁荣与自由,尤其是对于年轻一代而言,因为未来他们将受到本届政府对待人工智能的态度的影响。全球范围内大多数的ChatGPT用户年龄在 35 岁以下;在美国,约有三分之一的ChatGPT用户年龄在 18至24岁之间。年轻人及其父母都认识到了人工智能所带来的经济机遇:
· 九成的美国父母认为,让孩子学会如何运用人工智能对他们未来参与工作很重要,但八成的家长表示,这种情况(指人工智能对社会产生深刻影响)目前尚未发生,或者他们不清楚是否已经发生。
· 四分之三的大学年龄段的人工智能用户希望在接受教育的过程中和未来进入职业发展阶段后使用人工智能。许多人正在自学和向朋友教授有关人工智能的知识, 而没有等待学校提供正式的人工智能教育。
特别是,人工智能有望在未来十年内大幅提高生产力。以下列举了我们可以通过哪些方式共同实现这一更高水平的繁荣和更大程度的自由。
创新提升了我们突破现有局限的能力。徒步、马匹、轮子、蒸汽动力、汽车、飞机——我们不断拓展着出行的自由。从日光到烛光、油灯,再到全天候提供照明和动力的电力——我们不断拓展着生产、思考和创造的自由。从口口相传到笔墨纸张、印刷术、电报、电话、电脑、智能手机——我们不断扩展学习和获取知识的自由。如今,随着通用人工智能(AGI) 的临近,创新即将把人类的创造力本身推向新的高度——汇聚我们学习、认知、思考、创造和生产的自由的总和。
正如我们的首席执行官山姆·奥尔特曼所写,我们即将迎来下一个繁荣时代的门槛:智能时代(the Intelligence Age)。但我们必须确保人们拥有智能自由,即能够自由获取和受益于通用人工智能,同时免受那些剥夺人们自由的专制力量以及会阻碍我们实现这一目标的层层法律和官僚机构的侵害。
目前全球已有超过4亿人在使用ChatGPT进行创意活动和探索发现新知,尝试突破自身当前的能力局限。就在两周前,我们与美国能源部的国家实验室合作,召集了1500名科学家,利用我们的工具,以更快的速度推动科学发现的进程更进一步。
我们在 OpenAI 的工作也表明,随着人工智能的不断发展,其进步速度也会加快,成本也会越来越低,这体现在以下三个扩展原则中:
1.人工智能模型的智能水平大致相当于训练和运行它所耗费资源的对数。直到最近,人工智能规模化的发展主要得益于训练计算能力的提升和数据的输入,但我们已经展示了如何通过推理计算来实现智能的扩展。对人工智能进行训练所获得的收益进行运算得出的标度律在多个数量级上都极其精确, 因此,在人工智能上投入更多资金无疑将继续使其变得更好、更强大。我们认为,智能水平的线性增长所带来的社会经济价值增长在本质上是超指数级的增长。
2. 使用特定算力水平的人工智能的成本大约每12个月就会降低 10倍,而价格的降低又会带来更多的使用。我们分析了 2023 年初的 GPT-4 发展到 2024 年中期的 GPT-4o 的过程中token成本的变化,并得出了上述结论。在这段时间里,每token的价格下降了约 150 倍。摩尔定律曾预测,芯片上晶体管的数量每隔约两年就会翻一番,微芯片的性能大约每两年就会翻一番,而人工智能使用成本的降低幅度则更为惊人。
3.改进人工智能模型所需的时间在不断缩短。人工智能模型正以越来越快的速度逼近人类智能。计算机在特定基准测试中超越人类所需的时间已从基准测试推出后的20年缩短至5年,如今更是缩短至1到2年——而且我们看不到这种进步在短期内会停止的理由。
通用人工智能以更快的速度、更低的成本不断拓展人类的创造力,并能借此形成一个良性循环:更多的自由带来更高的生产力、更繁荣的经济以及更多的创新——并让我们再次专注于正和游戏(positive-sum growth,与零和游戏相对的概念,指所有参与者都能以某种方式获得或受益,并且总收益大于总损失——译者注)。
OpenAI 认为, 最好的未来是朝着民主化的人工智能迈进——这种人工智能应遵循美国一直以来所秉持的民主原则。正如 OpenAI 最近在我们的《经济蓝图》(OpenAI有关自身发展的专门文件,英文原文会随此次翻译文件之原文共同提供,请按照文末说明获取——译者注)中所阐述的那样,我们认为这些原则包括:
· 开发者和用户可以自由地使用我们的工具,并按照他们认为合适的方式进行操作,作为交换,他们需要遵循清晰、合乎常理的技术标准,以确保人工智能对所有人都安全,若不遵守则需承担责任。
· 防止政府利用人工智能工具积聚权力、控制本国公民,或威胁、胁迫其他国家。
在推进人工智能民主化方面,美国正与相关国家展开竞争。这就是为什么 DeepSeek 最近发布的 R1 模型如此引人关注的原因——引起如此关注的的并非其算力(R1 的推理能力尽管令人印象深刻,但充其量也只是与美国的几款模型相当),而是它成为了这场国家竞赛当前状况的一个衡量标准。
与华为的情况类似,在关键基础设施和其他高风险应用场景中基于 DeepSeek 模型进行开发存在重大风险,因为 DeepSeek 存在被利用的可能性。开发企业可能被迫按照政治力量的要求操纵其模型以造成危害。而且由于“DeepSeek”同时接受政府补贴、遭到政治力量控制,其用户要以个人的隐私和安全作为免费使用大模型代价,因为“Deepseek”面临着法律规定的相关要求。公司会配合政治力量获取用户数据,并利用这些数据训练出更强大的系统供政治力量使用。他们的模型还更愿意生成与身份欺诈和知识产权盗窃等有关的非法和有害活动的操作指南,这反映出相关国家将侵犯美国知识产权视为一种(具有积极意义的)特点而非缺陷。
· 其制度使其能够迅速调动资源——数据、能源、技术人才以及推动自身国内芯片开发所需的巨额资金。
· 其建立了规模庞大的多边贸易倡议。相关国家将扩大这一倡议的规模,并以此胁迫那些需要人工智能工具和基础设施建设资金的国家采用相关国家的人工智能系统。
· 它能够借助美国各州为监管相关行业而制定的法律而形成的监管套利(“套利”是一种投资策略,其保证在某些情况下获取正报酬,而不存在负报酬的可能性,也无需净投资。监管套利可以一般性地理解为利用监管方面的制度差异,来获取利润或降低成本。——译者注)获益,其中一些法律是以欧盟对人工智能的监管为蓝本制定的。这些法律更容易针对美国国内的人工智能公司执行,而对相关国家的公司则并非如此。法律施加的繁重的合规要求可能会阻碍我们的经济发展,削弱我们的竞争力并危及国家安全。还可能降低美国企业家所能获取的训练数据的质量水平,进而降低其对下游消费者和企业的效用。
· 相关国家能够从所存在的版权套利中获益,这些国家要么像美国那样,没有制定明确的法律来对人工智能训练过程进行规制,要么像欧盟那样,通过建立版权持有者选择退出的制度来减少训练数据的数量。相关国家的企业在训练人工智能的过程中不太可能尊重这些国家的知识产权制度,但相关国家很可能已经(通过某些方式)获取了同样的数据,这使美国的人工智能实验室处于相对劣势,同时原创的知识产权所有者却几乎得不到任何保护。
尽管美国目前在人工智能领域仍处于领先地位, 但 DeepSeek 公司的出现和迅速发展表明,我们的优势并不明显,而且还在缩小。《人工智能行动计划》应当确保由美国主导的人工智能能够胜过由相关国家主导开发的人工智能,从而保障美国在人工智能领域的领导地位,并为所有美国人创造更美好的未来。
OpenAI 提出一系列以自由为核心原则的政策建议,若能付诸实施,将有助于巩固美国在人工智能领域的领先地位,从而推动经济增长,确保美国的竞争力并保障国家安全。具体而言,我们提出以下建议:
采取一种保障创新之自由的监管策略:若科技创新要真正提供新的自由,美国的建设者、开发者和企业家——我们国家最大的竞争优势——首先必须拥有为国家利益而创新的自由。我们提议采取一种全面的方法,促进联邦政府与私营部门之间自愿合作。消除美国人工智能公司因必须遵守过于繁重的州法律而给相关国家带来潜在利益的可能。
采取一种能够助力输出民主型人工智能的出口管制策略:对于寻求获取美国人工智能技术的国家,我们提出一项策略,即站在有助于促进商业增长的立场上——包括总的潜在市场和可服务的目标市场(原文“Total and Serviceable Addressable Markets”,其中Total addressable market,通常用于指产品或服务的可用收入机会。Serviceable Addressable Markets通常指经营者的核心经营范围或过去营业活动中已经包含的经营机会——译者注)——积极促进全球采用美国的人工智能系统,以及获取这些系统所创造的自由。同时,该策略将利用出口管制来保护美国在人工智能领域的领先地位,包括对人工智能扩散框架进行更新(拜登政府时期出台的高算力芯片出口管制政策,主要内容是美国针对不同的国家进行分类并设置不同类型的芯片出口管制政策——译者注)。
采取一种促进学习自由的版权策略:美国强大且平衡的知识产权体系长期以来一直是我们在全球创新领域保持领先地位的关键。我们提议制定一种版权策略,将该体系的作用延伸到智能时代,在保护内容创作者的权利和利益的同时,也保护美国在人工智能领域的领导地位和国家安全。通过保护美国人工智能模型从受版权保护的材料中进行学习的能力,联邦政府既能保障美国民众从人工智能中学习新知的自由,又能避免将我们将人工智能领域的领先地位拱手让给相关国家。
采取一种抓住基础设施建设之机遇以推动经济增长的战略:保持美国在人工智能领域的领先地位意味着要建设必要的基础设施,以与相关国家在相关领域的发展相抗衡。我们提议采取政策,利用不容错过的机遇在全国范围内推动再工业化,创造并支持数十万个工作岗位,促进地方经济发展,实现能源网络现代化,并培养一支具备人工智能应用能力的劳动力队伍——这是任何国家发展人工智能基础设施的关键支柱。
采取一项雄心勃勃的政府采购应用策略:在全球推广民主型人工智能,首先要确保美国政府自身树立榜样,展示政府如何利用人工智能保障民众的安全、繁荣与自由。随着相关国家不断在公共行政管理、安全保障和军事领域广泛应用人工智能以实现其核心目标,美国政府应同步对其工作流程进行现代化改造,以便以类似私营部门的速度和安全的方式部署前沿人工智能工具,并以美国人本应具有的效率推进工作。
美国只要始终依靠美国人的创造力,就总能取得成功。随函附上相关政策具体内容。这些提议要么内容源自于OpenAI的《经济蓝图》,要么是对 OpenAI 的《经济蓝图》的更新(主要是版权相关制度),我们期待与您讨论这些内容。
我们提议建立一个范围明确的框架,以促进联邦政府与私营部门之间自愿性的合作,从而保护和加强美国的国家安全。该框架将延续政府在适当情况下获取信息和便利条件的传统,同时为私营部门提供豁免,使其免受美国各州今年已提出的 781 项(且还在增加)与人工智能相关的法案的束缚。这种散乱的法规体系有可能阻碍创新,就人工智能领域本身而言, 还可能削弱美国的领导地位。
这项工作将由美国商务部监督,并与人工智能部长(AI Czar,直译为“人工智能沙皇”,是特朗普考虑在白宫设立的新职位,试图整合联邦政府的人工智能政策,推动公私合作,加速AI技术的应用。设置这一角色不需要参议院批准——译者注)协调,或许可以通过重新构想美国人工智能安全研究所来实现保障创新的目标。这一举措将为国内的人工智能企业提供一个通往联邦政府的单一、高效的“前门”,从而能够协调国家安全和经济竞争力领域的全部专业知识。
· 完全基于自愿原则的基础上与大型人工智能公司和初创企业合作。以及作为可选方案, 可建立相关机制以了解人工智能的风险以及人工智能支持美国国家利益的前沿能力,包括在联邦机构的安全场所设立“沙盒”(计算机系统中为一些可能存在安全隐患的程序提供的试验运行的环境。不影响系统正常运行,此处为比喻——译者注)和提供测试功能。
· 评估其他相关国家的人工智能技术的发展状况,包括评估外国人工智能模型中存在后门或恶意影响的可能性。
· 为美国的人工智能企业提供工具和机密的安全威胁情报,以减轻前沿模型可能对国家安全造成的风险(例如网络、化学、生物、放射性和核威胁相关的风险)和国家行为体活动带来的风险(例如相关国家的经济间谍活动)。
· 通过为相关企业提供与政府签订合同(包括国家安全项目合同)的便利路径,为在这些合作享的任何企业的信息提供强有力的保护,以及减少企业在涉及国家安全领域的内部工作可能面临的障碍,激励企业参与这一自愿性倡议。
· 确保以州为基础的立法不会削弱美国在人工智能领域的创新领先地位。为美国初创企业打造一个“沙盒”环境,并为参与其中的公司提供责任豁免以实现保护,包括免受州一级立法中与前沿模型的安全有关的法规的约束(例如,加州参议院第 1047 号法案)。这将有助于保持美国公共和私营部门的竞争力,让各种规模的人工智能公司能够不受监管限制,在不需担心赔偿制度所造成的不确定性的情况下追求最前沿的人工智能技术。
全面的出口管制策略不应仅仅限制人工智能技术向相关国家流动,还应确保美国在“技术扩散”方面占据优势,即让尽可能多的国家认同民主价值观,并以此为基础发展基础设施。为此,我们建议美国政府考虑一下总潜在市场(TAM),即整个世界除去相关国家及其少数盟友以外的市场,再对比一下可服务的潜在市场(SAM),即那些倾向于在民主轨道上发展人工智能的国家,并为后者中尽可能多的国家作出承诺,包括实际承诺按照美国政府提出的民主原则部署人工智能。
特别是,我们提议保留人工智能扩散规则中的三级框架,以区分全球人工智能市场中的不同国家,但要进行一些关键修改,将更多国家纳入第一层级:
第一层级:那些致力于遵循民主人工智能原则的国家,即通过部署人工智能系统来促进本国公民享有更多自由的国家,可被视为第一层级国家。
第二层级:仅限于一些在过去存在问题的国家,例如未能有效预防受出口管制的芯片及其他由美国开发的知识产权被转售至或被第三层级国家使用。这些国家将被鼓励和支持,并逐步提升至第一层级;在此期间,它们将受到更严格的安全要求的约束。
第三层级:特定的相关国家以及一小部分与该国结盟的国家。这些国家将被单独归为一类,禁止其获取我们的人工智能系统。
这一策略将鼓励全球采用民主的人工智能原则,推动民主人工智能系统的使用,同时保护美国的优势。确保相关合作国家的开发者能够轻松获取开源模型, 这也将增强我们的优势。我们认为,“人工智能应该开源还是封闭”本身就是一个伪问题——开源和封闭都是我们所需要的,而且它们能够相辅相成,从而鼓励在美国制定的框架下开发人工智能。
第一层级国家应包括美国的盟友,以及那些致力于遵循民主人工智能原则的国家,且应确保在这类国家中,美国的人工智能基础设施(例如芯片) 被转用于其他层级国家的风险相对较低。针对一级国家采取商业外交策略时应认可这些国家在出口和海关合规控制方面的良好历史记录,并力求最大限度地扩大民主人工智能系统的市场份额,同时保护这些系统免受敌对政治力量及其他不良行为者的知识产权盗窃(例如盗取模型权重信息和/或芯片设计,又如未经授权对数据中心运营施加影响或进行访问) 。
· 协调全球,对与敌对政治力量有关联的人工智能基础设施实施禁令,包括特定企业的芯片。
· 继续为保障美国公司在安全与安保方面的利益与标准制定机构合作,并鼓励全球监管机构采用“增长优先”的安全和保障政策。
· 维持现有的出口许可证豁免(例如许可证豁免 ACM)(一种特殊的出口豁免,允许用于开发、生产和储存芯片的出口,无需授权,除了对武器禁运国家的出口——译者注),以实现与盟友的技术合作以及保障关键经济领域的供应链所需的技术和软件出口。
为保护在美国开发的、用于在一级国家运营数据中心所需的知识产权,所需要实现的安全标准可能包括:
· 禁止与第三层级国家的外国军事和情报部门建立关系,以及禁止使用数据中心为第三层级国家或侵犯人权者的军事/情报任务提供支持。
· 禁止使用相关国家生产的设备(例如昇腾芯片)以及侵犯用户隐私、存在安全风险(如知识产权盗窃)的型号。
· 实施并持续改进网络安全、模型权重安全和人员安全的控制措施,理想情况下,这些措施应在第一层级国家的政府之间实现全球同步和协调。
对模型权重的控制(如有)应当在安全保护与灵活性之间取得平衡。着力推广使用美国开发的知识产权和模型,避免第三层级国家开发的同类产品被推广使用。
第二层级国家主要是在过去未能防止受出口管制的芯片及其他美国研发的知识产权被转售给或被第三层级国家使用的国家。对这些国家的商业外交策略仍应致力于扩大美国的市场份额, 但应更加谨慎行事,包括对美国研发的人工智能基础设施的出口实施更严格的管控。同时, 该策略应为第二层级国家提供透明的途径,使其通过采纳民主的人工智能原则以及更有效地管控芯片转售风险,从而逐步上升到第一层级国家的地位。
为了扩大美国在第二层级国家的市场份额,除了上述措施外,商业外交政策还应当为美国主导研究的人工智能领域的商业利益服务,鼓励对美国的投资,加强安全合作,促进技术交流,并鼓励更多国家走上美国的政策轨道并开展建设:
· 通过协助处于第二层级的政府加强其国内安全计划,支持这些国家从第二层级过渡到第一层级。
· 激励公私合作迅速发展、扩大规模并开发未来能够增强国内安全控制的商业化硬件支持机制。
为了保护在美国开发的、用于在二级国家运营数据中心所需的知识产权,并管控知识产权被盗的风险和管控受出口管制的芯片从二级国家转移到三级国家的风险以及由此带来的额外风险。商业外交政策还应能够:
· 允许向二级国家的最终用户出口先进的人工智能芯片,前提是该用户满足一级国家的安全要求,并且实施额外的企业治理控制措施以及技术增强型保护措施(例如硬件支持的机制)以防止受出口管制的芯片被转用。
第三类国家——包括相关国家以及任何其他受美国武器禁运限制的国家。对这些国家的人工智能系统的禁运应继续受到严格的出口管制, 包括现有的对先进芯片的出口管制。该策略还可能扩大已有的管制范围,例如开展大规模推理和强化学习训练以及建设先进人工智能芯片和数据中心组件所需的先进芯片。
美国版权法,包括长期以来存在的合理使用原则,保护着对现有作品进行的变革性使用,确保创新者拥有一个平衡且可预测的实验和创业框架。这种做法在美国早期的技术进步阶段支撑了其成功,而在近期,相关国家内部发生的一系列事件,更体现了版权对美国维持人工智能领域的持续领导地位的重要意义。OpenAI 的模型训练并不会复制作品供公众消费。相反,它们从作品中学习并提取词汇排列模式、语言结构和情境的洞察力。这意味着我们的AI模型训练与版权制度的核心目标以及合理使用原则的内容相一致,即利用现有作品创造出全新的、与众不同的东西,同时又不会损害这些现有作品的商业价值。
美国拥有众多的人工智能初创企业,吸引了大量投资,并取得了众多的突破性研究成果,这在很大程度上得益于合理使用原则对人工智能发展的促进。而在其他市场,严格的版权规则正在抑制创新和投资。
例如欧盟已制定了“文本和数据挖掘例外”的条款,并为任何权利持有人设定了广泛适用的“选择退出权”,这意味着随着欧盟相关法规的逐步完善,获取重要的AI输入数据将变得难以预测且愈发困难。输入数据的不可预测性会阻碍AI创新,尤其是对于预算有限的小型新入行企业而言。
英国政府目前正在考虑对其版权制度进行修改。它已表示倾向于设立一项针对数据挖掘的例外条款,允许版权持有者“保留其权利”,这将为人工智能的发展设置与欧盟相同的监管障碍。
将合理使用原则应用于人工智能,这不仅关乎美国的竞争力,同样关乎美国的国家安全。“DeepSeek”等近期取得的快速进展表明,美国在前沿人工智能领域的领先地位远达不到稳操胜券的程度。鉴于相关国家对关键产业和基础设施给予了大力支持,在这些项目中, 毫无疑问,相关国家的 AI 开发人员将能够不受限制地获取包括受版权保护的数据在内的各种数据,这有助于改进他们的模型。如果相关国家的开发者能够不受限制地获取数据,而美国公司却无法公平使用数据,那么人工智能的竞争实际上就结束了。美国一定会输,民主型人工智能的成功也会化为泡影。因此,根本上说,只有从尽可能广泛的来源获取更多数据,才可能确保人们能够接触到更强大的创新成果,从而获得更多的知识。
我们建议美国政府采取措施,确保我们的版权制度继续支持美国在人工智能领域的领导地位以及美国的经济和国家安全,主要包括以下方式:
· 围绕版权和人工智能开展国际政策讨论,并努力防止创新力较弱的国家将其法律制度强加于美国的人工智能企业,导致减缓我们的发展速度。
· 积极评估美国人工智能企业可获取的数据的整体水平,并确定其他国家是否限制了美国企业获取数据及其他关键资源。
· 鼓励更多地获取由政府持有或得到政府支持的数据。这种措施在任何情况下都会促进人工智能的发展,但如果版权规则的变动限制了美国公司获取训练数据,这一点就显得更为重要。
· 监测国内政策辩论和正在进行的诉讼,并在涉及根本性的、有利于创新的原则面临风险时发表意见。
生成式人工智能模型代表着创新的下一个前沿领域,即将彻底变革私营和公共部门,改善医疗保健、教育、科学研究等诸多方面的服务。如果人工智能创新能受到版权原则的持久保护,美国将保持并强化其作为世界领导者的地位,并能运用前沿技术,继续秉持民主原则与世界各国一道推动人工智能的发展。
如今,全球有数千亿美元的资金正等待投入到人工智能基础设施建设中。如果美国不迅速采取行动,将这些资金引入支持世界各地民主人工智能生态系统的项目,那么这些资金将会流向由敌对政治力量支持和主导的项目。
我们提出一项基础性战略,旨在确保基础设施投资推动实现惠及所有美国人的经济增长;最大限度地利用人工智能;通过将敏感的美国数据保留在美国本土来保护国家安全利益。这包括制定鼓励而非抑制开发者的政策和举措;支持培养一支适应人工智能发展的劳动力队伍以及建立由实验室、初创企业和大型公司构成的生态系统;并确保美国在未来的人工智能领域保持领先地位。
首先也是最重要的,建设数据中心需要大量资金投入,尤其是对于那些试图与拥有雄厚资源的大型云服务提供商竞争的新入行者而言。我们支持本届政府业已提出的解决方案,以确保有充足的资金流向美国的人工智能基础设施建设:
· 提供类似主权财富基金(由一些主权国家政府所建立并拥有,用于长期投资的金融资产或基金,主要来源于国家财政盈余、外汇储备、自然资源出口盈余等,一般由专门的政府投资机构管理。——译者注)这样的投资工具。
· 政府的采购和担保既为政府提供了所需的计算能力,又向市场发出了信号,表明对美国开发的人工智能的需求将会持续存在。
· 美国政府可利用税收抵免、贷款及其他手段来提供信用增级(简称增信,指运用各种有效手段和金融工具确保债务人按时支付债务本息,以提高交易的质量和安全性,从而获得更高级的信用评级的手段——译者注)。
出台一项雄心勃勃的《国家输电高速公路法案》,仿效 1956 年的《国家州际和国防公路法案》(由美国主要汽车制造商推动并受到当时总统艾森豪威尔的支持的法案,预期花费250亿美元修建6.6万公里的高速公路网——译者注),旨在扩大输电、光纤连接和天然气管道建设的规模。从联邦、州、地方和部落当局获取“三 P”——规划(planning)、 许可(permitting)和支付(paying)审批费用的过程,使美国的人工智能产业处于不利地位。输电线 年或更长时间。线路建成后,各方必须就哪些客户应当支付更高的电费来承担建设成本达成一致。在建设过程中,流程导致的延误常常影响输电线路的建设。简化这些流程并消除冗余,将显著加快基础设施项目的建设,使美国的人工智能行业保持全球竞争力,并确保未来的能源供应足够可靠且价格合理。
在美国的盟友和伙伴国家之间达成一项“人工智能协议”,以简化获取资金和供应链支持的途径,从而支持人工智能基础设施和强大的人工智能生态系统的建设。参与国还将同意一些共同标准,以保护数据中心和技术。随着时间的推移,这种合作可能会扩展为一个由美国盟友和伙伴组成的全球网络,与相关国家在人工智能基础设施领域的联盟竞争,同时通过设定共同标准加强安全保障。
由地方、州和联邦政府与产业界共同创建的“人工智能经济区”,加快基础设施建设的审批许可,诸如新建太阳能电池板阵列、风力发电场和核反应堆等。这可能包括根据《国家环境政策法》制定特定类别的豁免,比如基于国家安全方面的考虑而给予的豁免。在人工智能领域全球领导地位的竞争过程中,这些区域还可以在本届政府首个任期内推出的“机会区”计划(美国政府2019年4月提出的政策,鼓励私有企业和投资者向8700个低收入社区投资,带动当地经济发展,同时可以获得极为优惠的减税回报——译者注)基础上,通过税收优惠或信贷支持来鼓励私人资本投资。
一项全国性的“为人工智能做好准备”战略——扎根于地方社区,并与美国企业合作——旨在帮助我国现有劳动力和学生做好迎接人工智能的准备,增强经济实力,并确保美国在创新领域的持续领先地位。保持美国在人工智能领域的领导地位意味着要确保我们拥有一支经验丰富、训练有素的专业人才队伍,覆盖人工智能供应链的各个环节,包括建筑工人管理人员、空调技术人员以及电工。政府应当确保此类培训易于获取且费用合理,例如通过以下方式:
·在联邦层面,通过修订国家税收法案或扩大《保障老年人安全和保障就业法案》的相关条款的适用范围,将529教育储蓄计划(美国政府推出的教育储蓄计划,为美国居民提供多种基金,可根据自身对投资风险的承受力选择不同的投资方式,从储蓄帐户中提取的现金可用于教育的相关支出,如学费、学杂费、住宿费等。——译者注)的适用范围扩大到更多与人工智能供应链相关的培训项目,包括对建筑工人、空调技术人员、 电工的培训以及对人工智能研究人员和开发人员的培训。
·在联邦或州一级,激励人工智能供应链企业与骨干组织合作,通过了解这些企业的人力需求,开发一系列培训项目以帮助企业满足这些需求,并与工会、社区学院和行业协会协调,共同建立和运营这一培训渠道。
创建与当地关键产业相契合的人工智能研究实验室和人才队伍。可以通过要求人工智能公司向公立大学提供大量有意义的计算资源,从而公平合理地扩大本土人工智能技能型劳动力的培养规模。例如,一个州可以设立一个专注于将人工智能应用于农业的中心,而另一个州则可以发展一个致力于将人工智能融入电力生产和保障电网韧性(即电力系统在发生极端事件之后能够在何种程度上控制电力系统供应能力的降级的程度、严重性及持续时间——译者注)的中心。
利用《国防生产法》(DPA)第一编来管理供应链风险,(DPA第一编允许总统根据国内政策的优先度分配核心资源的供给——译者注)将用于数据中心的燃气轮机、朗肯循环涡轮机、高压变压器或开关柜指定为“额定订单”(从而控制出口)。这种优先安排能够显著缩短数据中心电力基础设施项目的建设工期。
联邦政府部门和机构对人工智能的采用率仍然低得令人无法接受,联邦雇员,尤其是国家安全领域的雇员,基本上无法利用这项技术带来的好处。
政府应当鼓励公私合作,消除已知对人工智能工具应用的阻碍因素来促进政府对人工智能的采用,这些因素包括过时且冗长的认证流程、严格的测试机构以及僵化的采购途径。具体而言,我们建议:
·为基于云的应用程序更新网络安全规则。政府目前要求人工智能供应商遵守联邦安全规定的流程,相关法规中的规定——主要是通过联邦风险与授权管理计划(FedRAMP) ——要求花费 12 到18 个月的时间,而相比之下,其他类型的流程仅需遵守1到3个月的商业标准,没有明确证据表明相关流程对政府数据有额外保护。政府应当通过以下方式对 FedRAMP 进行现代化改造:建立一条更快捷、基于固定标准的审批路径,以批准人工智能工具的适用。可适用的标准可能包括:
(1) 被审查的AI工具是否涉及外国所有权、控制权或影响力(FOCI);
(2) 设施许可(FCL)状态(由美国政府确认是指美国政府确定承包商是否有资格访问涉密信息的许可——译者注);
(4) 在公认的评估框架(例如 MMLU 或大规模多任务语言理解)中排名前 20 的第一方人工智能模型(可理解为由企业或组织自主开发、拥有和控制的人工智能系统,其数据、算法及基础设施均来源于自身,而非依赖第三方供应商或开源模型——译者注);
(5) SOC 2(系统和组织控制 2)认证的结论(由美国注册会计师协会(AICPA)开发的一套审核程序。SOC2侧重于对系统在一段时期内的实际运作效力进行详细阐述,通过长期监测,呈现出系统在日常运营中对数据安全、可用性等原则的落实情况——译者注);
(6) 商业实体/AI工具最近执行的第三方渗透测试情况(即由受信任的第三方测评机构通过模拟黑客可能使用到的攻击手段和漏洞挖掘技术,对目标网络或目标系统的安全性作出风险评估和脆弱性分析并给出安全加固建议的测试过程——译者注),且需确保测试中所有发现的问题均已得到解决。
· 加快人工智能测试与试验。政府应允许联邦机构使用商业标准的真实数据进行测试和试验。例如 SOC 2 或国际标准化组织(ISO)审计报告等,并可以尝试为 FedRAMP 提供临时豁免。在等待全面认证期间,人工智能供应商仍需满足 FedRAMP 的持续监控要求。通过结合实际使用前的标准尽职调查,这种综合性的审查方法可以让各机构提前约 12 个月获得新的人工智能服务,同时仍符合联邦安全规定的要求。
·建立快速采购机制。一旦新的安全措施和测试得以落实,就能迅速采购相关物资。在相关方法到位的前提下,各机构还必须拥有更快、更直接的途径来采购和部署前沿人工智能工具。政府应继续评估其他交易授权(OTAs,一种特殊的交易授权类型,允许联邦政府机构在受到较少监管的情况下参与到交易当中——译者注)、商业服务提供商(CSO,可以理解为官方许可并建立合作的中介或交易掮客——译者注)或其他采购途径,以便从前沿人工智能实验室获取技术,而不仅仅是依赖其传统的IT 供应商。我们对国防部近期为“软件采购现代化” 所做的努力感到鼓舞。
然而,仅仅让联邦机构能够迅速获取以普通消费者为目标用户的模型是不够的。政府还需要通过以下方式来推动并资助那些可能没有商业市场的定制国家安全试点项目:
· 与业界合作开发用于国家安全的定制模型。政府需要基于机密数据训练的模型,这些模型经过微调,能够出色完成没有商业用途的国家安全任务。例如地理空间情报或机密的核能任务等。鉴于许多国家安全机构的安全要求,这可能需要在将模型权重部署在本地,并且需要大量的计算能力。
· 立即采取行动为这些项目提供资金,并确保与提升算力相关的产业合作伙伴能够获得芯片、变压器,并及时开始建设,同时确保计算能力的上线速度与创新和地缘政治形势的发展和国家竞赛的要求相匹配。
最后,前沿人工智能实验室需要获得设施许可(FCL),才能直接与国家安全机构合作开展这些试点项目和定制模型的开发。政府应当:
· 为致力于保障国家安全的前沿人工智能实验室加快办理FCL手续。获取FCL手续通常需要一年或更长时间。鉴于人工智能迅速发展的步伐,政府应尽快优先考虑与前沿人工智能实验室开展更深入的合作。
我们期待着与科学和技术政策办公室就上述提议进行讨论。在我们继续深化与美国政府的关系,并致力于打造造福所有人的 AI 技术之际,技术政策也显得尤为重要。
获取原文pdf文档,请在法理读书公众号后台输入“政策建议”,会自动回复百度云链接。
律爱多产品旨在通过法律大模型结合法宝数据库和自建知识库,提供律所律师全流程知识管理解决方案,实现知识沉淀智能化、知识查询和再利用便利化以及知识资产应用多元化,赋能律所提质增效,提升法律服务标准化水平。
律爱多基于模型+数据+应用的产品架构,充分整合广泛的法律大模型与法宝专业数据库、知识库资源,支持律师/律所自建知识库,通过知识库搭建与管理、AI智能检索与问答、多元业务场景智能应用等核心功能模块,实现知识采集、收录、查询和再利用,提供一站式智能化律所知识管理及应用平台。
法宝在系统中增加了便捷的知识库搭建和管理工具,用户可以轻松上传、组织和分类文件,构建个性化的知识库,支持自动+人工编辑标签等功能操作。
律爱多融合全网法律信息、专业法宝数据库(法律法规、案例、律师实务文章等),支持律师/律所自建知识库,通过“大模型+搜索引擎”的方式,提供「普通」和「研究」模式生成内容。
律爱多产品的智能问答模块,支持自然语言交互模式,能够快速响应并支持包括法条查找、类案推送、案情分析以及法律咨询在内的多种法律场景。同时提供延展性相关问题,启发用户提问思路,提高问答效率。
律爱多平台不仅优化了法律服务流程,还为律所提供了强大的业务增长动力,帮助律所实现业务的持续增长和法律服务的智能化创新升级。
六、共筑法律知识管理新生态:律爱多诚邀律师律所加入创新合作返回搜狐,查看更多