“最近啥最火?”如果这个问题问ChatGPT,它可能毫不谦虚地拍拍胸脯说:“我”。然而,ChatGPT爆火出圈的同时,也带来了各界对于AI技术更多的理性思考。
这段时间,不少互联网领域的峰会、论坛都以此为题,透视“热闹”背后的“门道”。日前,在由国家信息中心《信息安全研究》杂志社主办,光明网网络安全频道、中国计算机学会安全专委会、中关村可信计算产业联盟、中关村网络安全与信息化产业联盟协办的2022网络安全创新发展高峰论坛上,圆桌论坛嘉宾畅谈了“ChatGPT引发的安全思考”。
“ChatGPT代表了在AI领域基于神经网络机器学习的理论实践,在解决现实问题上的一个顶峰。”北京大学网络与信息安全实验室主任陈钟这样说。
时间倒回到1956年,AI概念在当年举办的达茅斯学院夏季学术研讨会上被首次提出。1957年,经济学家西蒙又预测,在国际象棋比赛中计算机将在10年内击败人类。这个预言直到1997年的人机大战中,“深蓝”击败国象巨人卡斯帕罗夫才得以实现。这也成为AI发展史上的重要标志。
从“深蓝”到AlphaGo,再到今天的ChatGPT,AI行业起起伏伏几十年,经历了诸多关键节点。清华大学人工智能研究院听觉智能研究中心主任郑方从语音处理技术角度,列举了三个重要阶段——上个世纪90年代,模板匹配/动态时间弯折向HMM/GMM(行业两大模型)的飞跃,使得语音识别、声纹识别的准确率大幅提升;2010年左右,DNN(深度神经网算法)首次在特定领域下,实现了语音识别、闭集声纹识别的错误率与人相当;未来第三代AI技术,将是可解释性听觉理论和模型。
ChatGPT如此智能,已有消息称正在进军主持、主播行业,还有不少新锐媒体都在开发AI写稿模板。作为本场圆桌论坛的主持人,也是一位互联网媒体从业者,光明网要闻采访部副主任李政葳调侃说——“很‘担心’会失业”。
对此,郑方坦言:“新技术迭代发展背后,安全依然很重要。新的AI技术出来之后,也将带来新的安全问题。不仅主持人、记者不必过于担心,现场在座都不用过分多虑丢饭碗。”
以金融行业为例,中国人民银行金融信息中心信息安全部主任袁慧萍也表示,ChatGPT为代表的AI技术还存在一定瓶颈,对于金融行业的核心业务来说,暂时还不能替代人工。
“针对网络安全问题,ChatGPT降低了网络安全事件发生的门槛,让一个‘小白’可以更快速地成为一个‘小黑’。对于个人信息的保护,ChatGPT增加了工作难度,比如,谁来控制ChatGPT训练信息输入、算法由谁掌控等。”袁慧萍认为,对于重要的信息系统,在未来采用新技术之前,安全规划一定要提前做好。现有的网络安全保障体系、标准政策、安全规划等,都要针对新兴技术及时调整。
数字经济的滚滚大潮中,数据已然变成一种商品。在数据安全方面,华为技术有限公司计算首席安全专家张瑞坦言,AI的训练数据集会涉及个人隐私数据安全隐患。在数据流通过程中,保护数据要像保护资产一样,这就对数据安全提出了更多要求,也会与确保数据资产流通产生一定矛盾。
“需要建立在充分保护用户隐私的基础上实现数据流通。未来,有必要在同态密码、多方计算等领域,找到既实现机密性又兼顾性能的加密方式。对于机密计算而言,当CPU算力受限的情况下,如何确保AI训练过程保护,将是未来一个很有意义的研究方向。”张瑞说。
“搜索引擎和ChatGPT是结合,而不是替代!ChatGPT带来了新的问题,就是‘一本正经地胡说八道’。”陈钟还引用了中国科学院院士张钹的观点——“第三代人工智能技术要是负责任的AI”。
也就是说,人与AI对话时,AI要能够去除安全隐私、种族歧视、视角偏见等因素。算法技术是中性的,但是要防范技术背后的人“作恶”,要用综合社会治理的方式来把未来在赛博空间里的行为约束好。“像ChatGPT这样的AI技术,在学习模型中,如果没把安全与功能放在同等重要位置,就会走很多弯路。”陈钟说。
语音识别处理技术给人们带来很多便利,也带来了深度伪造的安全问题。郑方提到,如果说ChatGPT是当前AI的天花板,更值得关注的是文本领域的伪造。比如,当ChatGPT用于伪造知名人士的文章,这种情况如何防范、如何鉴别,就是非常现实的课题。
在他看来,声纹做身份认证应满足三个条件——“准确”“防伪,即安全”“代表人的真实意图”。尤其是个人信息保护法实施以后,对个人真实意图的准确理解和尊重,是对AI技术提出的新要求。(文/陵锋)
来源: 光明网
Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved