要尽早识别和阻拦AI图片导致的虚假信息问题,就不能只把希望寄托于用户“擦亮眼睛”。
库克要出任小米汽车CEO?
据澎湃新闻报道,4月21日,OpenAI发布GPT-Image-2。据了解,该企业把这次升级概括为图像生成进入新阶段,重点是文字渲染、多语言支持和视觉推理。
模型的能力如何,很快被网络上虚实难辨的“AI作品”给验证了。网络上流传的各种“微博截图”“产品海报”,如将在今年9月卸任的苹果CEO库克加入小米汽车的“假官宣图”,粗看就分辨不出AI的痕迹。
事实上,这次文生图模型升级后,AI不再只是“画张素材图”。在升级了文字能力、视觉推理之后,其可以直接做一页充满文字的海报、菜单,或是直接把真实人物的图像素材融入更真实的环境之中,形成以假乱真的“照片效果”。
从技术特点上看,过去的文生图主要是“理解指令后拼贴素材”,但这次,则是以信息产品的逻辑直接生成可媲美照片、设计师作品的成品。过去的文生图能力并未大范围引发“虚假新闻”风波,是因为其在文字、图像推理等方面存在硬伤,用户稍加注意就可以发现,这些图片“一眼假”。
然而,当文生图大模型成为一种“可以通过推理能力进行结构性表达的信息生成工具”后,文生图就不再是简单的“图像玩具”了。某种程度上,其与大模型写文字一样,开始直接“仿真拍摄、模拟制图”。
不可否认的是,从生产力的视角看这当然是进步。对教育、设计、商业传播乃至普通人的日常表达来说,门槛更低、效率更高:不会排版、不会作图的人,也能快速做出菜单、海报、科普图和活动物料。对于图片生产领域来说,本次技术升级也无疑是产业性的生产力提升机会。
不过,值得注意的是,这项技术的进步,使得AI图片带来的虚假信息、版权等风险也被同步放大。
过去AI造假P图,需要技能门槛,也无法做到完美。但如今,在大模型全套工具的帮助下,不仅可以批量生成,也毫无“PS痕迹”——从聊天截图、数据图表、真人照片、广告海报到文案,都可以“整套生成”。
当图片不仅逼真,而且主动植入信息、元素来诱导读者相信信息时,普通用户更容易放下警惕。从这个角度看,这次小小的“假新闻”乌龙狂欢,也是文生图工具能力在信息、伦理等层面所具有的深度影响的初露峥嵘。
因此,要尽早识别和阻拦AI图片导致的虚假信息问题,就不能只把希望寄托于用户“擦亮眼睛”。
我国《人工智能生成合成内容标识办法》要求,对人工智能生成合成内容进行显式和隐式标识,而平台对传播环节也负有核验、提示义务。下一步关键不在“有没有规则”,而在于各个内容平台是否有相应的能力和可落地的规则来识别AI图片,并就AI图片使用的后果,设定严格限制与责任划分。尤其是站外AI图片等的二次传播。
从细节规则看,平台应当把AI标识做成默认设置,而不是可有可无的装饰;对热点传播图片、名人相关图片、突发事件图片,要强化溯源和风险提示。各方也应建立起基本的图片核验流程,不能见图就转。
技术让图片越来越会“说话”,但世界的真实性不应受技术进步的影响而遭遇冲击。新的技术降低了视觉表达的门槛,这固然是大模型能力升级的关键进步,但也对虚假信息等问题提出了更高的要求。
就此而言,监管部门、大模型企业、内容平台、创作者应当迅速明确共识:在AI图片正在泛滥的时候,以规则、技术能力重建公众的图像真实信任,应当比更快把图片交付给用户更加重要。
(文章来源:新京报)
