界面新闻记者|陆柯言
美国当地时间5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)发布了一份联名公开信。这封信的内容仅有22个英文单词——减轻人工智能灭绝人类的风险,应该与其他社会规模的风险(例如流行病和核战争)一起成为全球优先事项。
这封公开信由350多名从事AI工作的高管、研究人员和工程师签署,其中包括来自3家头部AI公司的高管:OpenAI CEO山姆·奥特曼(Sam Altman)、DeepMind CEO戴米斯·哈萨比斯 (Demis Hassabis),以及Open AI离职人员创办的公司Anthropic CEO达里奥·阿莫迪(Dario Amodei)。
图灵奖获得者杰弗里·辛顿 (Geoffrey Hinton)与约书亚·本吉奥 (Yoshua Bengio)也在签署人员之中,他们被称为现代人工智能运动的“教父”。
另外,中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园也签署了这一公开信。
自ChatGPT风靡全球后,不断推陈出新的AI技术成果开始引发人们的担忧——人工智能可能很快被大规模用于传播错误信息,也可能会让数百万人在一夜之间丢掉工作。
担忧者认为,如果不采取任何措施减缓它的发展,人工智能可能会变得强大到足以在几年内造成社会规模的破坏。这些担忧者包括许多人工智能公司的高管,他们同样认为,同行近乎疯狂的开发速度会带来严重的风险,应该受到更严格的监管。
今年3月,超过1000名技术专家和研究人员也曾签署一封公开信,呼吁暂停六个月的最大人工智能模型的开发。其中提到,“不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的,才能继续开发。
这封信由另一个专注于AI的非营利组织Future of Life Institute发布,埃隆·马斯克 (Elon Musk) 和其他知名技术领袖参与了签署。
Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved