陈白/文 刚刚过去的国庆假期,整个科技圈最火热的话题莫过于美国人工智能研究与开发公司OpenAI基于Sora2技术推出的AI(人工智能)短视频应用Sora的爆火。
应用情报提供商Appfigures发布的最新数据显示,OpenAI旗下视频生成应用SoraApp自2025年9月30日上线以来,首周在iOS平台下载量达约62.7万次,这已经超过2023年初ChatGPT发布首周的60.6万次下载量。而且,Sora截至目前还是内测邀请制,这也意味着,Sora的影响力甚至可能大于当初的ChatGPT。
Sora的产品形态,和我们现在所熟悉的所有短视频应用已经没有太多差别——都是一键上划就能够刷到新的短视频。唯一的不同是,内容创作者不再需要拍摄和上传视频,而是通过输入一行提示词,AI就能够生成虚拟视频。这也意味着,AI生成的内容未来将大量充斥互联网空间。
(相关资料图)
但Sora的出现,令商业上的探索可能都变得相对不那么重要,这是因为,以Sora为标志的AI短视频,已经开始触及更深层次的社会机制。相信已经有越来越多的人发现,短视频平台正在出现许多已无法分辨真假的内容。当大量的Sora式视频充斥信息流,我们所感知的世界,有多少是客观存在,又有多少是算法生成的“超真实”?面对一个“眼见不再为实”的未来,我们的认知能力和新技术应对能力都将迎来巨大挑战。
法国社会学家让·鲍德里亚在其著作《拟像与仿真》中提出的“超真实”概念,精准地预言了我们当下的处境。他认为在后现代社会中,由媒介制造的符号和模型将脱离其所指代的现实本体,甚至取代现实。Sora所代表的AI技术,正是这一理论最具体的演绎。过去,图像的“失真”背后总存在一个可供参照的“原件”,但Sora的逻辑是“无中生有”,其创造的内容在光影、物理交互乃至情感表达上都无可挑剔。这意味着,我们正进入一个拟像不再需要伪装成现实,因为它本身就能直接生产“现实”的时代。
我们固然需要为这种强大的创造力欢呼,但同时也必须及早看到,如果说此前的AI技术应用更多是在效率层面的革新,那么Sora已经触及了信息真实性这一社会信任的基石。
因此,探讨AI治理已经刻不容缓。AI合规不仅是遵守法律条文的被动行为,更是一种主动的技术伦理构建,它要求企业在模型训练、数据使用、内容生成和发布的全链条中,都必须嵌入安全、透明、可问责的机制。这包括开发可靠的内容溯源和数字水印技术,在产品设计上遵循“伦理先行”的原则,通过显著标识、限制特定敏感内容的生成等方式,主动为用户提供判断的依据。
然而,面对指数级增长的AI生成内容,仅依赖平台方的自我监管和事后监管的法律法规已经远远不够。技术的进化速度总是超越治理的建设速度,因此,真正的第一道防线,也是最重要的一道防线,必须建立在每一个社会成员的技术认知之中。这凸显了推行AI通识教育刻不容缓的重要性。
我们所说的AI通识教育,并非要求每个人都成为算法工程师,而是旨在培养一种面向AI时代的、全新的批判性思维和媒介素养。这种教育的核心,是帮助公众理解AI生成内容的基本原理,认识其能力边界,辨别其潜在风险,并建立使用和传播AI内容的伦理观,比如对“深度伪造”在名人形象、个人隐私上的滥用问题保持警惕,以及认识到算法偏见可能加剧社会不平等等一系列问题。
AI合规与AI通识教育,是应对这场认知革命挑战的一体两面,前者是自上而下的技术与制度“安全带”,后者是自下而上的社会认知“免疫力”,二者缺一不可。一个受过良好AI通识教育的社会,能够更好地识别和抵制虚假信息,同时也会对科技公司提出更严格的合规要求,从而形成一个正向的治理循环。
技术的洪流已经无法阻挡,我们唯一能做的是加速构建能够驾驭这股洪流的堤坝。在这场由AI掀起的认知革命中,提升全民的AI素养,并建立完善的合规框架,不仅是为了应对潜在的风险,更是为了确保我们能够负责任地利用AI技术,去真正创造一个更富有想象力与可能性的未来。
(作者系资深媒体人)