新华财经北京4月17日电(记者沈寅飞) 人工智能和大模型技术的迅猛发展为人们的生活带来了前所未有的便利与变革。然而,AI技术的滥用也带来了新的安全威胁。其中,AI换脸诈骗作为一种新兴的、极具隐蔽性和危害性的手段,正逐渐成为网络安全领域的一大挑战。
记者从联想集团获悉,为了应对日益严峻的AI换脸等恶意应用的威胁,联想集团即将推出一项AI防诈技术——“Deepfake深度伪造技术检测器”。在17日联想集团的一则宣传片《用AI守护AI》中,展示了该技术的更多细节,其能够精准识别各种Deepfake换脸伪造,有效遏制AI欺诈行为的蔓延,该检测器的准确率高达96%。
据介绍,联想“Deepfake深度伪造技术检测器”基于DeepSeek开源大模型构建,体现了其对前沿技术的精准把握和有效利用,并可部署在AI PC本地运行,也进一步强化了联想AI PC个人数据和隐私安全保护的特性。DeepSeek大模型以其卓越的性能和广泛的适用性,为检测器提供了坚实的技术支撑。在此基础上,联想的研发团队持续深入探索AI生成内容的识别与防范技术,不断优化算法和模型,致力于打造出一款高效、可靠的AI反诈工具。同时,四川省反诈中心、腾讯云、奇安信等政府机构、云计算服务及网络安全厂商已经加入联想的AI反诈倡议。
在功能实现方面,联想的这项技术已经取得了一定成果。例如,在线视频会议场景中,当用户接入会议时,系统能够实时对参会人员的视频进行检测。一旦发现对方视频可能是AI伪造,会立即向用户发出提示,有效增强了会议的安全性。在社交媒体浏览过程中,该技术可以自动对视频内容进行扫描,标记出疑似AI换脸的视频。这不仅帮助普通用户轻松辨识视频的真伪,避免受到虚假信息的误导,同时也有助于维护社交媒体平台的健康生态,减少虚假信息的传播。当用户使用AI PC时,系统能够实时感知AI换脸安全风险,并及时向用户发出预警。无论是在日常办公、娱乐还是其他使用场景下,用户都能得到全方位的安全保护。
除了高准确率和广泛的应用场景外,联想“Deepfake深度伪造技术检测器”中的Deepfake检测算法还具有高效性。它能够在5秒内对图像或视频进行快速检测,实现自动化的分析和实时反馈。
对于企业而言,该技术有助于营造一个更加公平、安全的商业环境。在商业活动中,身份验证和信息真实性至关重要。通过准确识别AI换脸伪造,企业能够有效防范商业诈骗、保护商业机密,降低运营风险。这对于促进企业的健康发展、维护市场秩序具有重要意义。
联想集团高级副总裁,智能设备业务集团全球创新中心总经理贾朝晖说,在AI换脸诈骗层出不穷的当下,联想集团全球安全实验室的团队正在基于DeepSeek开源大模型,打造“AI照妖镜”,专门揪出那些以假乱真的AI生成内容。反诈行动的本质是场攻防拉锯战,伪造技术每天在升级,工程师们也在日夜兼程。联想集团期待与更多技术合作伙伴一起,给数字世界筑起安全防线。坚信AI不是藏在阴影里的那双眼睛,它应该真正成为照亮生活的光。
(文章来源:新华财经)