聪明绝顶,却又愚蠢至极:探索ChatGPT的智能边界

聪明绝顶,却又愚蠢至极:探索ChatGPT的智能边界

首页休闲益智聪明绝顶更新时间:2024-05-03

近段时间,我和数亿用户一样,不断地在使用ChatGPT,探索性地研究如何将ChatGPT当成一个生产工具,结果发现,有时候当你向ChatGPT提出一些比较难的问题时,它会给出一个令你惊讶的答案,甚至这些答案可能会令一些高材生都自愧不如,但是有时候ChatGPT也会犯一些很愚蠢的错误。

通过分析ChatGPT的聪明和愚蠢的原因,相信能帮助我们了解一些人类与人工智能之间的差异,从中学习经验和教训。

当我问ChatGPT:“柏拉图的洞穴隐喻与庄子的庄周梦蝶有何相似之处?”。

它可以很快地给出一个答案,准确地描述了柏拉图的寓言,即一群被困在洞穴里的人,他们只看到洞穴壁上的影子,无法看到真正的事物。并讲述了庄子的故事,即他在思考自己是人做梦变成了一只蝴蝶,还是蝴蝶做梦变成了人。

甚至ChatGPT还告知了我这两个隐喻都是在探讨了人们对现实的认知和对真理的追求。

那么ChatGPT是如何做到这一点的呢?

  1. ChatGPT和其他大型语言模型一样,都可以访问互联网上的大量信息,包括各个平台的百科知识、以及无数的电子书籍和学术网站等等。
  2. 这些模型通过使用强大的机器学习算法来训练神经网络,以便分析各种各样的信息。
  3. 基于用户的提问和之前的互动,神经网络能够预测之后与用户的对话过程中,哪些话语是最有可能被使用的。
  4. 通过强化学习,ChatGPT的语言模型得到了进一步的训练,提高了生成清晰而有用答案的能力。

当我问ChatGPT:“老子是谁?它介绍老子的生平大部分是准确,但是它告诉我老子的生卒年份是公元前770年-公元前476年,这都不用去查,掐指一算应该都知道老子要还是个正常的人类都不能活接近300年。

相信许多用户也注意到了ChatGPT会犯的一些错误,这些错误源于以下缺陷:

  1. ChatGPT仅仅可以预测下一句可能要说的话,没有关于人类世界实际运作方式的因果模型,尽管它的语法很复杂,但是与现实是没有语义联系的,也无法解释事情发生的原因。
  2. 与我们人与人之间的沟通不同,ChatGPT没有准确性目标,无法判断对错,因此也很容易被收集到的信息所欺骗,并生成和输出更多的错误信息。
  3. ChatGPT在关于陈述真相、避免对人类造成伤害、以及平等对待人这些方面还缺乏道德原则。
  4. ChatGPT没有披露其信息来源,评估一个信息需要检查其来源的可靠性和动机,但ChatGPT的回答就像是神谕一样,从天而降,无从追溯来源,更可怕的是,它还会捏造参考文献,并说的煞有其事。

ChatGPT和其他大型语言模型对于很多应用程序和软件来说,是非常有用的工具,同时它们暴露出来的问题也为了解当前人工智能的局限性提供了宝贵的信息。

  1. 人工智能需要在对世界的因果理解的基础上进行解释,而不仅仅是预测,因为人类智力能做到的不仅仅是预测处理,还擅长模式识别、解释、评估、选择性记忆和交流。
  2. ChatGPT有可能帮助人们容易、快捷地获取更多的真实性信息,但同时它也是错误信息的传播者。
  3. 人工智能的交流应该依赖于信息的准确性和以及造福人类的目的,而非伤害人类的价值观和道德原则。
  4. 所谓的一致性问题,即生产出价值观与人类价值观一致的人工智能系统,这是非常困难的,情感是价值观的推动力,人类的价值观涉及了情感、态度,而不是单纯的个人偏好、冷酷的理智,但是ChatGPT和其他程序目前是任何情感的,更无从谈何价值观。

那么我们应该暂停使用ChatGPT吗?非也,而是应该像使用其他搜索引擎一般,甚至需要更加警惕一些,因为ChatGPT的信息来源很杂,糅合了各个网站、电子书、还有可能是自己编造的信息等等,这都需要我们谨慎对待、以及核对它所给出信息的准确性。

查看全文
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved