“改头换面”“语音克隆” ,国家安全部:警惕深度伪造技术带来的安全风险_小恐龙蜘蛛池
关闭引导
“改头换面”“语音克隆” ,国家安全部:警惕深度伪造技术带来的安全风险
2024-11-30 14:07
小恐龙蜘蛛池【XKLZZC798FLYU】

国家安全部微信公众号11月23日发文,随着人工智能技术的飞速发展,深度伪造技术逐渐进入我们的生活,在带来惊喜和便利的同时,也暴露出一系列风险隐患,如不注意防范,甚至可能危害国家安全。

眼见未必为实,耳听未必为真

深度伪造技术(Deepfake)是“深度学习”(Deep Learning)与“伪造”(Fake)的结合,利用人工智能的深度学习算法进行自动化的数据处理,实现图片、音频及视频的智能模拟和伪造,包括视频伪造技术、音频伪造技术、虚假网络身份伪造技术等。它的出现使得篡改或生成高度逼真且难以甄别的音视频内容成为可能,观察者很难辨明真伪。

——视频伪造技术。将提供的人物面部照片特征“转换”到其他人物形象上,从而实现“改头换面”的目的。

——音频伪造技术。利用“语音克隆”技术,以高仿真度模拟目标人物的声音。

——虚假网络身份伪造技术。在创建虚假个人资料时,通过生成伪造的面孔附加至身份信息中,成为隐藏身份的手段。

智能改变为实,风险挑战为真

深度伪造技术凭借其在图像、音频和视频生成方面的卓越能力,迅速成为一种新兴技术工具。但它又是一把双刃剑,操作简易,应用门槛低,高度欺骗性的视觉和听觉伪造内容难以被发现,潜在的破坏性和安全风险日益凸显。

——深度伪造技术可能侵害个人权益。别有用心之人利用深度伪造技术可以轻易盗用他人身份,侵害他人肖像权、隐私权等权利,部分不法分子甚至可能利用深度伪造技术进行诈骗,对财产安全造成现实危害。

——深度伪造技术可能引发社会忧虑和信任危机。深度伪造技术可以随时随地制造大量假新闻,影响社会舆论走向,引起民众恐慌。随着公众意识到“深度伪造”的危害,他们可能会迷失在真假信息之中,对事实产生怀疑。

——深度伪造技术可能威胁国家安全和公共安全。深度伪造技术不仅会在一般行业得到应用,也有可能成为间谍情报机关开展“认知战”的新工具。随着深度伪造技术的横空出世,某些境外间谍情报机关可能进一步利用该技术迭代情报技术手段,开展招募策反、污蔑抹黑、混淆视听等活动。

国家安全机关提示

面对深度伪造技术带来的机遇和挑战,要统筹发展和安全,提高安全意识,共同维护国家安全和社会稳定。

——使用技术要注意。广大公民应注意保护好个人隐私,特别是核心涉密岗位人员,切勿将国家秘密、商业秘密或个人隐私等敏感信息输入相关技术软件中,不用网络传播涉密内容。

——信息安全要防范。相关平台企业应加强信息安全管理,采取必要的技术措施保护相关信息的安全存储和传输,防止信息泄露、丢失或被非法使用。同时,加强对深度伪造技术发布内容的甄别,使其遵守法律“红线”和道德“底线”。

——可疑信息要警惕。谨慎对待相关视听内容,在转发网络信息前先多方验证信息可靠性,不做谣言传播者,以官方渠道发布的信息为准。

维护国家安全是每个公民义不容辞的责任和义务,广大人民群众如发现利用深度伪造技术危害国家安全的问题线索,可通过12339国家安全机关举报受理电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号举报受理渠道或者直接向当地国家安全机关进行举报。

浏览量:
@新花城 版权所有 转载需经授权