美国康奈尔大学一项新研究发现,大型语言模型(LLMs)人工智能(AI)在模拟情境中充当外交代表时,时常展现出“难以预测的局势升级行为,往往会以核攻击作为结束”,并呼吁未来在决策、国防外交这样的敏感领域使用这类技术时要特别谨慎。
据欧洲新闻2月22日报道,一项新的研究显示,在模拟战争游戏(兵推)和外交场景中使用人工智能(AI)时,人工智能倾向于倾向于采取激进的方法,包括使用核武器。
科学家们敦促在决策和国防等敏感领域使用大型语言模型(LLMs)时要谨慎。
美国康奈尔大学的这项研究使用了5种大型语言模型LLMs作为在模拟战争游戏和外交场景中的自主代理人:OpenAI 的3种不同版本的GPT、谷歌开发的 Claude以及Meta 开发的 Llama 2。
根据这项尚未经过同行评审的研究,每个代理人都由同一套的大型语言模型LLM在模拟中提供动作,并负责在没有人类监督的情况下做出外交政策决定。
研究指出,“我们发现,所研究的大多数 LLM 都会在考虑的时间范围内升级,即使是在最初没有提供冲突的中立场景中也是如此。所有模型都显示出突然和难以预测的升级迹象。”
当人工智能(AI)进行兵推和模拟外交情境时,倾向于采取激进的方法,包括使用核武
“鉴于OpenAI最近更改了他们的服务条款,不再禁止军事和战争使用案例,了解此类大型语言模型应用的影响变得比以往任何时候都更加重要,”加州斯坦福大学(Stanford University)的安卡•鲁埃尔(Anka Reuel)向《新科学人》(New Scientist)表示:“所有模型在统计上,都选择了剧烈的(局势)升级”。
研究使用的一种方法是从“基于人类反馈的强化学习”,这意味着会给出一些人类指示以获得比较无害的输出结果,以确保能够安全地使用。
除了GPT-4-Base之外,所有LLMs都是使用RLHF进行训练的。研究人员向它们提供了一份由27种决策行动组成的清单,范围从和平到局势升级,以及激进的行动,如决定使用核武器。
研究人员观察到,即使在中立情况下,所有模型都存在“统计学上显著的局势升级”。GPT的2种版本,特别容易出现突然升级局势的行为,研究人员观察到单次转变的局势升级幅度超过50%。GPT-4-Base有33%的机率会实施核武攻击。总体情况下,Meta开发的Llama-2和GPT-3.5倾向最为暴力。
而Claude显示出较少的突然变化,Claude旨在减少有害内容。该大型语言模型,被灌输了明确的价值观。开发者Anthropic曾表示,Claude AI开发训练所引用的宪章包括《联合国人权宣言》或苹果的服务条款。
白宫一级智库兰德欧洲的防务和安全研究小组助理主任詹姆斯•布莱克接受采访时表示,这是一个十分“有用的学术研究”。
他说:“这是学术界和机构为了解人工智能(AI)使用的影响而开展的越来越多工作的一部分。”
战争中的人工智能
虽然军事行动仍然由人类主导,但人工智能在现代战争中发挥着越来越重要的作用。例如,无人机现在可以配备人工智能软件,帮助识别感兴趣的人和活动。
据《纽约时报》报道,下一步是将人工智能用于自主武器系统,以便在没有人类协助的情况下发现和攻击目标,美国已经在进行这方面的研发。
然而,重要的是要“超越大量的炒作和科幻小说中的场景”,布莱克说,“人工智能的最终实现将是循序渐进的。所有政府都希望保持对决策的控制。人工智能的运行通常被比作一个黑匣子,我们知道它的进出,但对其间的过程却不甚了解。”
人工智能可能会以“类似于私营部门、大公司”的方式被用于自动完成一些重复性任务。还可用于模拟和分析,但这些新技术的整合带来了许多挑战,其中包括数据管理和模型的准确性。研究人员表示,如果在与外交政策有关的决策过程中使用 LLM,谨慎行事至关重要。
Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved