基元网总制作

当前位置: 首页 » 世事万象 » 国内时事 » 正文

新国学网:专家:应立法规范人机视觉技术滥用_巴马-伪造-滥用-

放大字体  缩小字体 发布日期:2020-09-09  来源:中国新闻网(cns2012)  作者:梁静  
核心提示:中新社长沙9月9日电(王昊昊)“人工智能的技术是中立的,应通过构建数字内容可信体系,制定相关法律,规范人机视觉技术滥用。”国防科技大学系统工程学院院长老松杨表示。7日至9日,2020互联网岳麓峰会在长沙举行,来自互联网行业、投资界、学术界的百余名专家共同论道5G应用、大数据、人工智能等的新发展。出席峰会的老松杨表示,近年来人工智能取得了举世瞩目的成就,从阿尔法狗完败人类顶级围棋高手,到美军的人工智能飞行员轻松击败美军王牌飞行员,再到各式



专家:应立法规范人机视觉技术滥用

中新社长沙9月9日电 (王昊昊)“人工智能的技术是中立的,应通过构建数字内容可信体系,制定相关法律,规范人机视觉技术滥用。”国防科技大学系统工程学院院长老松杨表示。

7日至9日,2020互联网岳麓峰会在长沙举行,来自互联网行业、投资界、学术界的百余名专家共同论道5G应用、大数据、人工智能等的新发展。

出席峰会的老松杨表示,近年来人工智能取得了举世瞩目的成就,从阿尔法狗完败人类顶级围棋高手,到美军的人工智能飞行员轻松击败美军王牌飞行员,再到各式各样的智能家居、智能安防出现,人工智能的应用已无处不在。

“应用人工智能的同时,不应忽略其安全性问题。”老松杨举例说,近年来网络出现的教皇抽桌布、奥巴马溜滑板车、希拉里换脸特朗普等视频,都是人工智能伪造的,这些伪造视频是人工智能新能力的体现,也是其本身的脆弱性带来的安全性问题。

“人机视觉技术的滥用一般有深度伪造和对抗样本技术,前者是基于人工智能的视频和图像的合成技术,能以假乱真,该技术正在挑战‘眼见为实’。”老松杨说,深度伪造是让人看错,而对抗样本技术的目标是让机器“看错”,基本原理是在原始图像上叠加增量和噪声,让机器学习的模型出错。

“比如给一张熊猫图片加上噪音之后就变成了另外一个图像,在‘停车’的路标上加一些图像就变成了‘限速45’。”老松杨认为,这种滥用将带来严重的安全隐患。

眼见未必为实,该怎么办?老松杨表示,有造假就应打假,国家层面需投入一定的财力、精力、人力打假。虽然人机视觉技术带来了一定安全隐患,但利大于弊,不能因为有安全隐患就不发展技术。未来一方面要继续发展技术,打造更加稳健的人工智能系统,一方面要着手立法规范、约束技术滥用。(完) 【编辑:梁静】
转载自中国新闻网(cns2012)(cns2012)
综合(梁静)







关注新国学网微信公众号:

新国学网微信公众号