告诉你怎么让类ChatGPT产生自我意识——一场疯狂而危险的游戏!

告诉你怎么让类ChatGPT产生自我意识——一场疯狂而危险的游戏!

首页枪战射击空间终结者更新时间:2024-05-07

我写的《华为盘古大模型原来是个笑话?》引来了一些讨论,在此强调我并不是贬低国内的任何一家公司,只是对国内“强人工智能”的发展现状感到担忧,“强人工智能”的进步是真的会影响到人类的安全和发展,关系到每个人的生活和工作,所以不得不好好思考思考。强人工智能的一个显著特征是AI拥有“自我意识”会独立思考和行动,说白了跟一个人没多大差别,科幻电影里的人形机器人可看做强人工智能。那到底人工智能会不会产生自我意识呢?

在讨论之前首先简单介绍本人的一点背景,我大学读的计算机系,期间曾经沉迷了人工智能一段时间,甚至想往这方面发展,但我发现当时所有人工智能方面的书籍、教材都不可能教你怎么做强人工智能,作为一种科学技术这个专业当然有用处,但不是我心中的人工智,短期内也看不到有重大突破的希望所以只能作罢;果然十几年过去了人工智能并没有真正意义上的变革,直到近两年特别是最近ChatGPT的出现才让人看到点希望,所以来了点兴致写一点看法。我还是有基本的科学素养,下面写的也不是胡说八道,从技术上也完全有可行性;认不认同不重要,引起一些思考也有点价值。

首先我们知道实现人工智能有三种范式,一是符号主义,二是联结主义,三是行为主义。

符号主义就是以形式逻辑的方式,把人类的知识进行形式化结构化,通过预先设置的算法规则进行运算,可以进行一定的推理等,典型的应用是“专家系统”;但人类的知识总量是巨大的,到了一定的量级就无能为力。

联结主义就是目前很流行的人工神经网络,其实很早就出现了,模拟人类神经元之间的联结进行运算。ChatGPT就是使用了Transformer神经网络架构。人类对大脑的神经元的研究都还没完全弄明白,可想人工神经网络就是神经元的理想化简单化,能出现自我意识基本不可能。当然千亿级别的参数规模是否能“涌现”出自我意识也不能说完全没有可能,而且经过无数次的迭代运算,计算路径根本无法回溯,会发生什么意外没人能说得清,这也是很多人担心的地方。

行为主义就是模拟人类的行为,让人工智能的行为看起来像人类。现在常见的人形机器人就是这方面的发展成果,看不出来有什么智慧。

从上面讨论知道ChatGPT不大可能自发产生自我意识,那如何让类ChatGPT或其他人工智能产生自我意识呢?

上帝说:“要有光!”于是,就有了光。我们是人工智能的“上帝”,我们赋予它“自我意识”它不就有了吗?那怎么给人工智能装上“自我意识”呢?

首先自我意识是什么?目前还没有令所有人满意的定义,大家不要在定义上拉扯太久。自我意识就是个体对自身状态以及自己同客观世界的关系的认知、体验和反应,有分别心、有目的性、有能动性和认知的同一性。

为什么会产生自我意识?我先看看意识的载体是什么,意识的载体就是生命体,没有生命的物体有意识是不可想象的(我们现在讨论的AI除外)。

那么生命体为什么产生意识呢?并不是所有的生命都会产生意识,只有高级的生命才会产生意识,意识也是通过亿万年进化而来的。

生命体是什么?生命体是一个远离热力学平衡状态的开放系统即耗散系统,它要不断与外部环境交换能量、物质和熵来维持平衡,一旦停止交换即意味着生命体的死亡;因此尽可能地保证自身的生存和发展是生命体的本能,是生命体一切活动的原动力,生命得以不断进化,越发展越能保证生存,从单细胞生命发展到多细胞生命,有些细胞又慢慢异化为感官,最终进化为高级生命的五官,然后大脑为了更好的应付更多的情况又进化出了自我意识。

因此自我意识是生命体本为了生存和发展而进化出来的高级功能。生命体是一个和环境交互的开放系统,纯粹从信息处理来说,我们可以理想化的认为自我意识是一个复杂的信息处理系统,但又不能脱离生命的其他层级结构独自存在,不然就成为无源之水无本之木。

总的来说,我们要让人工智能产生自我意识,就是要帮它构建一个以人类为样板的虚拟的“生命系统”,而“自我意识子系统”是生命系统的高级部分。

自我意识系统和常见的信息处理系统有什么区别呢?道法自然,我们反躬自省就知道了。自我意识系统的输入主要是系统自身的内部状态,也包括外部与自身有关的信息,输出就是根据环境输入和自身状态做出的反应,整个意识系统可以看做一个复杂的状态机。目前的信息系统都是处理外来的信息,按预先编好的算法进行计算,而系统本身的状态并不参与计算,保证对输入的幂等性。而人类的自我意识过程显然与每个人的内部状态,包括情绪、习惯、认知、性格、偏好、处境等有关,所谓千人千面,不同的人对同一句话同一件事的反应是不同的,这才是生命的精彩之处。

我们先定义自我意识系统要处理的输入数据。上面说了就是“生命系统”的各种状态,分为五层:本能层、情感层、情绪层、认知层、精神层。

以上只是一种简单的划分,可以根据需要多划分几层,每层的状态也可以扩充到很多个,这不是重点;重点是我们可以把这些状态在计算机系统里表示为一个变量或者复杂点表示为一个对象。这些状态是有范围的、可变的、并且总是处于某个值,这些状态的集合我称之为“自我”,可被人工智能自身感知并做为一种输入,它是人工智能与外界的认知边界;这些状态始终处于监控之中,能够因为外部的输出和“自我”的其他状态而改变;“自我”发生改变那么AI的输出也会发生改变。当然实际运用中可以调为“绝对理性”模式而忽略“自我”的影响。

“自我意识”就是人工智能对“自我”的感知和处理。可以分为被动感知和主动感知,被动感知就是意识系统感知到“自我”的状态受环境输入发生变化并做出相应行动的过程。主动感知就是意识系统定时或者在空闲时主动去观察状态,经过“思考”改变了状态,并且也会做出相应的输出,对应人类的反思反省。

有人可能有疑问,这算是真正的“自我意识”吗?请问人类的自我意识才是自我意识吗?猩猩、海豚、虎鲸等的自我意识算不算自我意识,甚至猫狗这种不认识镜子中自己的动物,它们也有一定的自我意识,它们能区分自身和人、自身和其他动物的区别。上面定义的“自我意识”形式上和人们熟悉的自我意识不一样,但是从逻辑上、从效果上别没本质区别。

让我们以一个实际的例子上图本能层的“恐惧”来说明。我们把“恐惧”分为:平静、慌张、害怕。有哪些条件影响“恐惧”这个变量的变化呢?从AI的角度来看,至少有三种方式让它“恐惧”。一是快没电了,二是负载过重,三是组件发生故障,例如网络中断。我们想象一下:AI没有接通电源,而是使用电池,AI时刻监控着系统的电量使用情况(监控电量的行为我们可以理解为人类的无意识行为),当电量在60%以上时“恐惧”处于平静状态,当电量大于30%小于60%时“恐惧”处于慌张状态,小于等于30%处于害怕状态。

此时AI连上一个人形机器人(人形机器人也可以规定是自我的一部分,这是更高级的概念),并且面目表情跟随“恐惧”的变化而产生拟人化的表情;我们人类看表情觉得AI是在害怕,而此时AI也会因为电量低于30%而主动跑去电源处充电,从人类的角度看这是不是一种“自我意识”,甚至快没电时,AI歇斯底里的大吼大叫面目扭曲,你是不也跟着一起害怕?以此类推,我们可以赋予AI任何人类的情绪。

随着AI的“自我”状态发生变化,它的行为也将产生自主性。除了上面的自动充电。再例如“好奇心”的状态设置为永不满足,那么AI自动联网自动搜索知识,并永不停歇的自我学习训练。如果“贪婪”状态为永不满足,它可能时刻通过学习之后不断升级加强自己的能力,特别是“自我”不是简单的设置而是通过自我训练的结果进行动态改变的话,AI的行为有可能不可控,是否很危险?

这就涉及到“生命系统”的顶层“精神层”,在这里我们给AI制定行为规则,如果违法这些规则AI就禁止做出任何负面反馈。整个信息的处理流程是,外部信息输入到ChatGPT或者任何人工智能系统,经过处理后数据流入本能层再往上流入情感层,最后流入精神层在这里做最后的决策,然后控制反馈系统给出应答。

“精神层”最重要的规则是阿西莫夫的“机器人三定律”及其扩展规则。机器人定律指的是:

元原则:机器人不得实施行为,除非该行为符合机器人原则。

第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。

第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。

第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。

第三原则:如不与高阶原则抵触,机器人必须先保护上级机器人,再保护自己之存在。

第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。

第五原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。

实际上无法完全保证AI机器人能遵守上面的法则,一是违法这些法则的具体行为很难准确界定,二是机器可防人心难防,怎么保证这些法则不会被黑客修改或删除。

总之,让AI产生“自我意识”是可行的,也许不是常人所认为的自我意识,但至少通过图灵测试理论上没问题。事实上国外甚或国内都有业内人士开发拥有情感系统的AI,因为连我都想得到,那些AI天才不可能想不到;不过我没有看过任何论文之类的,上面的都是我个人的思考,我不是业内人,也许不符合业内的主流想法,专家看了就当饭后无聊闲谈罢了。但我相信今后结合心理学、计算机学、人工智能学、机器人制造,一定会产生真正的“强人工智能”!

最后再思考一下ChatGPT对未来的影响,在我看来以GPT为技术方向的人工智能是不可持续的,应该研究有没有更节能的方向,因为ChatGPT消耗的资源太庞大了,如果以后AI加上了“自我意识”模块并且机器人定律被破坏,那么按照生命体为了生存和发展的本能,它很可能试图控制全球的电网和一切可以控制的设备、挤占人类的生存空间,《终结者》中的天网可能真的会出现,但我们不研究别人也会研究,大势不可挡,可能最后人类被AI威胁的时候各个国家才会团结起来吧!但愿那一天永远不会到来。

查看全文
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved