图灵奖得主激烈争论:人工智能,拯救还是灭绝人类?

图灵奖得主激烈争论:人工智能,拯救还是灭绝人类?

首页枪战射击人工灭绝更新时间:2024-04-29

近期,几位图灵奖得主、顶尖的人工智能(AI)专家在AI安全问题上展开了激烈的交锋。

10月24日,图灵奖得主Yoshua Bengio、Geoffrey Hinton、姚期智等人联合发表论文《人工智能飞速进步时代的风险管理》(Managing AI Risks in an Era of Rapid Progress),提出通过政府监管、投资以及企业负责任行为,以降低AI可能带来的伤害和风险。他们强调至少将1/3的AI研发资金用于确保AI系统的安全性和伦理使用。

Bengio和Hinton等人呼吁研究者在开发AI系统前采取紧急治理措施,并要求政府采取行动。他们提议的措施包括国家机构参与、模型注册、对举报人进行有效保护,以及对模型开发和超级计算机使用的监控。他们还支持对先进AI系统进行预先评估,以识别潜在风险。

Yann LeCun则持有不同观点,他对AI发展持乐观态度,并反对将AI视为对人类构成威胁。LeCun认为,Hinton和Bengio等人的AI威胁宣传活动如果成功,将导致少数公司控制AI。他和绝大多数学术界同行一样,支持开放式AI研发,并反对对AI研发(而非产品部署)进行监管。LeCun担忧,如果开源AI被限制,最终只有少数公司将控制AI平台,这个问题曾让他彻夜难眠。

吴恩达(Andrew Ng)也表达了对AI未来的关切:“我对人工智能未来最大的担忧是,过度炒作的风险(例如人类灭绝)可能会让科技游说者推动出台严格的法规,这些法规会抑制开源并扼*创新。”他提到,一些大型公司的游说者可能利用这些风险来推动严格法规,从而抑制开源AI的发展。

LeCun对吴恩达的看法表示赞同。

Hinton对这种观点提出了质疑:“那么,你认为如果人工智能没有得到严格的监管,它在未来30年内导致人类灭绝的概率是多少?如果你真的是一个贝叶斯信徒,你应该能给出一个数字。我目前的估计是0.1。我怀疑Yann LeCun的估计是小于0.01。”

LeCun回应称,这种概率远低于其他可能导致人类灭绝的原因,并提出AI可能反而帮助人类避免灭绝。

吴恩达也同意LeCun的观点,全球核战争、大流行病、低出生率/人口崩溃比AI失控更有可能导致人类灭绝。而AI可以帮助人类应对存在性问题,从而降低全因灭绝的风险。他认为,“如果希望人类在未来1000年内生存并繁荣,我宁愿加速人工智能的发展,而不是用繁重的法规减缓它的步伐。”

Geoffrey Hinton反驳了吴恩达关于大科技公司利用AI灭绝论的观点。他指出,自己离开谷歌就是为了更自由地讨论AI带来的潜在威胁,这与吴的观点不符。

Yann LeCun和吴恩达都回应了Hinton的言论。LeCun表示Hinton和Bengio无意中助长了那些希望通过禁止开放研究来垄断AI的人。他警告说,这种做法最终会导致不良后果。

吴恩达则强调,过度夸大AI灭绝的风险会带来实际伤害,如年轻学生因此避免进入AI领域,以及促进全球范围内的不良监管从而抑制创新。他对Hinton回复:“我知道你对人工智能和人类灭绝的担忧是真诚的。我只是在灭绝风险上恭敬地与你持不同意见,并且认为这些论点弊大于利,尽管你是真诚的。”

11月2日,Hinton继续发声,质疑吴恩达和LeCun没有意识到大公司支持监管的真正原因:“如果你满足了这些法规,就能减少你因事故而承担的法律责任。”

LeCun对此回应说,他反对的是对AI研究和开发的监管,而不是产品部署的监管。“尤其是对计算水平施加任意限制。”

LeCun还分享了一篇文章,表达对开源AI平台的强烈支持,并批评了一些公司利用政府的恐惧来推动有利于自身的监管。他认为,专有AI系统短期内对社会的危害远高于假设的开源AI灾难。“我相信,开源人工智能平台在进步、安全、经济发展和文化多样性方面的益处是压倒性的。”

至此各方的论战,算是告一段落了。作为个人我还是持乐观态度,我不认为AI会毁灭世界,所以我更加倾向于一个开源开放的生态。

不管怎样,监管已经在路上了。早在3月,英国政府就发布了《支持创新的人工智能监管方式》(A pro-innovation approach to AI regulation)。6月14日,欧洲议会通过了一项名为《人工智能法案》(AI Act)的法律草案。8月15日,中国的《生成式人工智能服务管理暂行办法》正式生效。10月31日,美国总统拜登已经签署了行政命令《安全、可靠和值得信赖地开发与使用人工智能》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)。11月1日,在英国主办的首届全球人工智能安全峰会上,28国签署了《布莱切利宣言》,推动全球AI风险管理的进程。

不知你的看法是怎么样的?

如果你觉得这篇文章对你有所帮助,欢迎点赞、收藏以及转发分享。同时,请关注我,以获取更多关于人工智能的最新资讯和见解!

参考:

https://arxiv.org/pdf/2310.17688.pdf

https://www.quora.com/Who-are-the-rising-stars-in-machine-learning

https://twitter.com/ylecun/status/1718670073391378694

https://twitter.com/geoffreyhinton/status/1719406116503707668

https://twitter.com/geoffreyhinton/status/1719447980753719543

https://twitter.com/AndrewYNg/status/1719474906138607650

https://twitter.com/geoffreyhinton/status/1719806327919157382

https://twitter.com/ylecun/status/1719817019858493815

https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/

https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

查看全文
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved