**Sora:真媒介?假媒介?(true media, fake media)** Sora输出的视频几乎可以以假乱真,是否会造成深度伪造(deepfake)和假新闻(fake news)泛滥?媒体和大众该如何应对? 确实,人工智能技术被用于多模态的内容生产(AIGC)固然可以降本增效,但同时也引入了深度伪造和假新闻的风险。最近美国巨星Taylor Swift就被“深度伪造”出色情内容,引发舆论关注。美国政府尤其关注基于AI深度伪造的假新闻对2024总统大选的干预。通过Sora用户可以用文字描述“某明星或某新闻人物作出某些行为”,并生成逼真的视频,这对新闻真实性和受众认知的危害程度更大 ... Sora目前还没有对大众开放,估计要到美国总统大选之后。Open AI将对Sora生成的视频设置类似于对DALL-E的限制:禁止暴力、色情、盗用真人形象和已知艺术家的创作风格;它还将在生成的视频中嵌入代码以将其与人工拍摄的视频区别开来。但从文字开始,媒介技术就是生产复制品(化身、幻影、鬼魂)的工具,也因此带来了版权侵害和伪造的风险。我们要从技术生产者、政策制定者、新闻媒体、教育机构和用户等多方面共同规制AIGC。人工智能体现了人类的聪明才智,如何扬长避短地规制人工智能,需要人类发挥出相同甚至更多聪明才智。这是对人类智慧的巨大考验。目前来看,Sora还不会对我国带来什么风险。不过我觉得,对新技术的规制永远要基于数据风险防控和人工智能收益之间的平衡