ChatGPT产生意识了?有没有觉醒人类仍在争论,不排除进化可能性

ChatGPT产生意识了?有没有觉醒人类仍在争论,不排除进化可能性

首页角色扮演进化启示录更新时间:2024-04-24

伊尔亚·苏茨克维正在经历内斗,不知道chatGPT是否能理解人类在做什么。

意识对于人类,代表着觉醒、生存、占有乃至贪婪。正因为有它,人类千百年来才会彼此争斗又彼此合作。

所以,当苏茨克维这样的技术狂客创造出chatGPT的时候,是赋予后者意识?还是它会在学习中一点点觉醒?外界看不出来他和背后的团队会怎么做。

旁观者的大众,如今一边使用产品,一边又讨论着该产品是否会产生意识的一切可能性。反过来说,chatGPT也在经历着和大众一样的时刻。

哪怕它现在还是一件没有意识的“死物”,但是放在人类认为它可能会产生意识的概念上来看,谁又能保证它没有意识或者是不会拥有意识呢?

于是,围绕chatGPT在内的一切人工智能,它们有没有在觉醒,本身就不会被人类定义。当然,人类作为有意识的主体,又始终在“赋予”它们定义。

从意识觉醒的角度去看,这或许是两条逻辑和两条道路。如今,围绕人工智能的各种讨论,是人类这一方的意识和想法。相关的讨论,既是技术问题,也是利益问题。

chatGPT有意识,翻译错误还是炒作

OpenAI公司在内斗之前,苏茨克维接受专访的一次表述曾引起轰动。因为近一年来chatGPT的高热度,那篇专访也被翻译成了各种文字在到处流传。

其中,中文翻译的版本中,苏茨克维跟记者坦言chatGPT可能有了意识,它似乎会思考。这番话自然引起了外界强烈的关注。

好在现在英文水平不错的网友大把,有人看过原版本之后,立刻质疑国内某些翻译的版本是故弄玄虚和标题党。把“里程碑”翻译成“永垂不朽”,把“思考”翻译成了“有意识”。

究竟是不是曲解的翻译暂且不说,因为关于“意识”的争论10月初在国外就曾展开。按照一些媒体的报道说法,苏茨克维10月份就说了,大型神经网络具有轻微的意识。

一石激起千层浪,对大多数人来说,关于人工智能的一切只是围观。不懂技术和背后的原理,观点越是有争议,轰动效应就越大。

另一部分人觉得苏茨克维类似的表述是不负责任,国外的一个叫罗伯特·J·马克斯的工程师就随即反驳,说人工智能并不会产生像人那样的意识,它的底层逻辑不一样,人工智能的运行基于算法,和人的思维情感有着本质区别。

苏茨克维的表述就具有了炒作的嫌疑。围观大众看的有些上头,人工智能领域的头部人物都说出很多互搏的观点,也难怪部分媒体称这些表述令人费解。

其实,如果从另外一个角度去看,情况似乎就明朗了。去年chatGPT没有推出之前,另一家公司谷歌的工程师布莱克·勒莫因在6月份就声称,他们的产品LaMDA拥有了自我意识,智力水平类似七八岁的儿童。

因为这番表述,谷歌随后将该工程师开除,并表示勒莫因的说法是无稽之谈。也就过了不到半年的时间,chatGPT就被公开了。

从商业逻辑的角度去看,后者短时间内激起强烈的反应,恐怕太多的硅谷大佬都出乎意外了。

这样一来,人工智能有没有产生意识还重要吗,讨论人工智能会不会产生意识,由此引发更大范围的产品使用才是重要的。至少,这符合商业逻辑思维。

苏茨克维怎么想的没人知道,但是基于企业盈利的思维,他背后更多的*大佬百分之百是这么想的。

于是,围绕人工智能是否会有意识的讨论,实际上就偏离了纯粹的技术路线。

如何定义人工智能的意识

围绕意识的讨论,不是一个科学问题而是一个哲学问题。人类对自身群体意识的定义,是拥有自我觉知的能力。但是这一定义能不能简单套用到人工智能上,目前并没有一个统一的定论。

按照70多年前图灵的说法,机器能够跟人类对话,而且在这个过程中没有被识别出来身份,就可以判定为这个机器拥有了智能。

图灵的说法,后来就演变成为了图灵测试,并被后人赋予了更直观的标准。在对话测试中,只要超过三成的人没有发现对方是机器而非人类,就可以判定为机器会思考。

这项标准“简单粗暴”,而经过半个多世纪的发展,事实上已经有大量类似的计算机或机器产品,曾经通过了图灵测试。

是不是意味着,人工智能已经具备了思考能力?答案是NO。

所谓通过图灵测试,只能证明该产品在表面上能做到让人无法分辨其身份,可是这并不能定义它就在思考,而且还具备了自我意识。

因为,现在大量的人工智能产品,与人沟通对话的底层逻辑,是海量数据的采集和分配结果,它只是基于人类的问题或对话,匹配出一个更合理的答案来。

至于人工智能能不能理解对话本身的意义,这就又上升到了另一个高度,即如何去定义“理解”和“意义”。

此前有网友表示,利用chatGPT查找文献资料,生成出来的内容表面看起来很正常,但自己查询却发现,那些内容全部都是假的,只是表面的格式正确。

围绕这一点,就会引申出两个不同的观点。一种观点是,现在的人工智能产品并没有自我意识,它所有的内容输出都是基于底层数据来筛选匹配,正因为如此才会生成错误的东西。

也有一种观点认为,人工智能能够基于人类的问题而匹配和生成内容,这个匹配的过程就是意识产生的表现,至于生成的内容是不是错误的,那是基于人类思维的理解,而不是人工智能本身的理解。

简单来说就是,以人自我意识为参照的意识是一种,还有一种便是人工智能拥有一套有别于人类定义的意识。现在,人类或许能肯定人工智能还没有意识,但是假以时日,有别于人类的意识产生后,人类又该如何去定义呢?

有理论就认为,人工智能与人工智能之间如果能独立的交流互动,那就可以判定它们具备了意识。

还有观点认为,一台人工智能机器人,看到人类喝茶后很愉快有精神,下次在同样的状态下,它会不会想过要让人类去喝一杯茶呢。

上述行为产生的背后,既能看作是机器人利用底层数据形成的反应,又可被定义为它们拥有意识在思考。

不同观点的背后,其实就是对意识产生的定义和圈定。围绕这一点,人类现在也无法回答,假如人工智能拥有了意识,人类能否发现?

新的界定标准

9月份的时候,英美等多国科学家和哲学家,围绕如何判定人工智能拥有意识,提出了一种全新的测试方案。

这项研究的方法是,科学家和哲学家提炼出人类产生意识的关键理论,而后再到人工智能产品的底层架构中找寻到描述符。

根据目前的情况,已有6个人类意识的理论达到了标准。其中一些基于理论而反馈出的信息是意识生成的关键。

根据6个意识理论,科学家进一步推出了14个标准,最后按照这新的标准,对一系列的人工智能产品进行了测试。

包括chatGPT在内的人工智能产品,现在都还不具备人类的意识能力。但是在研究人员看来,这项工作是延续性的,在未来它可以为不断升级的人工智能提供新的分析架构。

技术之外的逻辑

虽然当下所有的人工智能产品,都还没有表现出拥有意识的能力,但是人类并不会就此放弃对人工智能另外角度的思考。

还在4月份的时候,一份公开信就发出呼吁,暂停研究比chatGPT-4更强大的系统。这份公开信后来得到全球数万人来自各界的签名支持。

很多人担心,围绕人工智能的研究,商业公司嗅到了其中的利益,因此各个巨头都在不惜一切代价进行研发。竞争的背后,会存在某种失控的风险。

已大量人工智能生成的错误和虚假信息为例,不管数量有多少,一旦持续扩散看来,就会导致数以亿计的假信息在流传。

而且在这个过程中,基于人工智能的底层逻辑架构,它本身出不出错的标准,是人类定义的。何况在实际过程中,其生成的能力远远超过了人类。

持续使用,人工智能产品本身与人类互动,拥有的说服能力越来越高,人类在这种信息的投喂下会变成什么,谁都不清楚。

还有一点便是关于个人隐私信息的侵犯和泄漏。以chatGPT为例,它的底层架构是人类搭建的没错,但是基于这一系统的持续使用,一些敏感的数据未来会被怎么使用,同样也是未知数。

此前,国外一些企业就指控OpenAI,说他们的产品将自家公司的隐私数据泄漏了。

结语

霍金生前警告过人类对人工智能的开发,他认为人工智能构造自身的速度,远远高于被生物演化限制了的人类,所以一旦开启了竞争模式,人类被其超越只不过是时间问题。

现在的关键是,所有人都不清楚这个临界点是什么,临界点又在哪里。

就像在伊甸园中生活的亚当和夏娃,他们原本是没有意识的,后来偷吃了禁果而产生意识,最终被驱赶了出去。

不妨将脑洞开的大一些,上帝当初创造的人类就是“类己智能”,可类己智能最终成为了自我智能。

宗教传说是,上帝把叛变了的类己智能驱赶出去了。咱们不妨把思维更开拓一些,其实是类己智能取代了上帝,成为了人类。

如今人类对之于人工智能,至少在逻辑上也是如此。人类在争吵,人工智能或许正在进化。


参考资料:

《人工智能会产生意识吗》 科技日报 2023年11月16日
《怎样发现AI有“意识”》 北京日报 2023年9月6日
《人工智能可能有自主意识了吗?》 瞭望 2022年8月14日
《AI表现出“意识”,人类该慌吗?》 中国新闻周刊 2023年4月13日

查看全文
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved