新闻动态
面对新技术“浪潮”,如何筑牢“安全堤”?
今年以来,数字中国建设峰会、中国网络文明大会、2023年国家网络安全宣传周等重要活动接连在福建举办,这三场活动都与互联网有关,但聚焦的却是截然不同的两个关键词。
互联网是把“双刃剑”,“发展”和“安全”正是它的一体两面。随着新一轮科技革命和产业变革深入发展,网络安全领域面临的风险和挑战日益突出。 例如,近年来越来越受舆论关注的“AI换脸术”,在今年的网络安全博览会上,“AI换脸”的“攻”和“防”亦备受关注。
只需一张目标人物的照片,依托人工智能合成,站在摄像头前的你就能在屏幕上“变成”他,还能通过网贷平台的人脸认证,眨眨眼、摇摇头就把钱转出去了。在美亚柏科展区,工作人员演示了这一“骗术”。
对此,现场工作人员表示,目前,美亚柏科自主研发了深度伪造检测鉴定平台,可以进行智能检测和识别伪造的视频,助力监管部门提升内容安全治理能力。
于今年4月在福州举办的数字中国建设峰会上聊“发展”时,AI称得上是最热的词;在当下正在举办的网络安全宣传周上谈“安全”时,AI仍是最大的焦点。
“数据可以说是AI大模型最重要的一个要素,大家认识不同,但是总的来说几乎所有人都认为数据的质量对模型智能水平影响最高,差不多要超过60%。”在北京智源人工智能研究院院长、北京大学计算机学院教授黄铁军看来,大模型基于背后的数据,所有的功能都源于数据,这也意味着越来越高的风险,“对于AI技术,你给它‘喂’的数据出错了,它就永远照这个错误的来办,有的时候相互矛盾。”
粤港澳大湾区数字经济研究院创院理事长沈向洋谈到“AI对社会的冲击”时用了三个词:不完美的数据源、一本正经的“胡说八道”和更难被察觉的AI谣言。
搜索引擎和AI大模型都有搜集资料、解答疑问的功能,沈向洋形象地将搜索引擎形容为“责任有限公司”,而将AI大模型形容为“责任无限公司”。如此论断的区别在于深层次学习。
“搜索引擎搜出来不好的东西,你知道它的出处在哪里,所以它责任有限,而AI大模型通过深层次的人工智能将内容生成,我把它叫做‘责任无限公司’。”沈向洋说:”在一些专家看来,生成式人工智能,新型安全风险正在显现,比如不良舆情、算法偏见、认知错误、心理误导、数据泄露等”。
今年7月,我国出台了全球首部针对生成式人工智能的专门立法——《生成式人工智能服务管理暂行办法》,对数据合规提出明确要求。
中央宣传部副部长、中央网信办主任、国家网信办主任庄荣文在会上表示,要创新数据治理,大力提升数据安全和个人信息保护水平,加大数据领域违法违规行为的打击力度,保障个人信息安全。要强化规范引领,加强新技术新应用前瞻性研究,划清安全红线,有效规范引导新技术新应用健康有序安全发展。