不得了 这个新技术把视频压缩到了0.02%!
中国电信TeleAI推出GVC技术,视频压缩率高达0.02%!AI生成式压缩让1GB视频仅需200K传输,在低带宽下实现高清直播,重塑远洋通信和应急救援。
感谢AI!
原生1个G的视频,现在只需要传200K数据就能看了——
视频数据的压缩率干到了0.02%,但依旧能保持画面的高清、连贯和画面细节。
或许你会问,这又有什么用呢?
想象一下,你身处于太平洋的一搜远洋货轮中,卫星信号只有一两格,刷个朋友圈,加载内容的圈圈都要转好久。
但正是因为有了这项AI技术,现在在如此极端的环境之下,你甚至可以直接看高清的世界杯直播!

没错,视频传输的物理法则,算是被重写了。
而这项新研究,正是来自中国电信人工智能研究院(TeleAI)的技术——生成式视频压缩(GVC,Generative Video Compression)。
作为国资央企、全球领先的综合智能信息服务运营商,中国电信不仅拥有覆盖海陆空天的通信网络基础设施,更具备将前沿AI技术与实际通信场景深度融合的能力。
这种“云网融合+AI原生”的独特优势,使得GVC技术从实验室走向远洋船舶、应急现场等真实极端环境成为可能。

那么这项研究到底是如何做到的,以及又能给我们现实生活带来什么改变,我们继续往下看。
用计算,换宽带
在介绍这项黑科技之前,我们需得先聊聊现在的视频是怎么传输的。
无论是你要看的Netflix、B站,还是微信视频通话,背后主要依靠的是HEVC(H.265)或VVC(H.266)这类传统视频编码标准。
这些技术的底层逻辑,说白了是像素的极致搬运:编码器拼命计算哪些像素是不变的、哪些是移动的,然后尽可能多地保留像素信息,再想办法塞进有限的带宽里。
这种逻辑在宽带富裕时很完美,但在极限环境下(极低带宽)会迅速崩盘。
一旦带宽不够,传统编码器为了凑合传输,只能疯狂丢弃高频信息。结果我们都见过:画面糊成一团,甚至直接卡死。
但 TeleAI 团队换了个思路,如果我不传像素了呢?
GVC的核心逻辑是:不再传递画面本身,而是传递“如何画出这幅画面”的指令。
打个比方:
传统压缩:就像是把《蒙娜丽莎》拍一张照片,尽量压缩这张照片发给你。如果网不好,照片就糊得像一堆色块。
生成式视频压缩(GVC):我不发照片了。我发给你一段描述——“一位女士,神秘微笑,背景是山水,光影是从左侧来的……”,以及她嘴角上扬的精确弧度数据。你的接收端坐着一位AI画师(生成式模型),听到描述后,现场给你画出一幅《蒙娜丽莎》。

刚刚说的只是打个比方,实际情况要复杂得多,传输的内容也并非只有文字。
这就是技术报告中提到的核心理念:用计算,换宽带(Trading computation for bandwidth)。
把传输的压力,转移到了推理计算上。
GVC到底压了些什么?
既然不传像素,那这0.02%的数据里到底装了什么?
技术报告揭示了GVC系统的内部构造,它主要由神经编码器(Neural Encoder)和生成式视频解码器(Generative Video Decoder)两部分组成。
里面传输的是一种被称为压缩Token的极小数据包,这些Token里包含了视频的灵魂,主要分为两类:
语义信息(Semantic Information): 这是一个什么场景?有人吗?有车吗?物体的大致结构是什么?这是画面的骨架。运动信息(Motion Dynamics): 这些物体下一秒往哪动?风怎么吹?车轮怎么转?这是画面的灵魂。
经过 TeleAI 团队的测试,这些Token的大小可以被压缩到极致的0.005 bpp - 0.008 bpp(bits per pixel,比特每像素)。
这是什么概念?通常我们看的高清视频,bpp至少在0.1以上。GVC直接把数据量砍掉了两个数量级。
除此之外,在接收端,还有一个扩散模型(Diffusion Model)严阵以待。
它接收到这些简短的Token指令后,利用预训练好的海量世界知识(比如它本来就知道海浪长什么样,足球长什么样),结合指令中的特征,开始脑补并生成视频。
这在通信理论上,实现了一次巨大的跨越。
香农-韦弗(Shannon-Weaver)通信模型将通信分为三个层级:
Level A:技术问题(传得准不准?)Level B:语义问题(意思对不对?)Level C:有效性问题(能不能完成任务?)
传统视频压缩在死磕Level A,而GVC直接跳到了Level C。

它不在乎每一个像素点是否和原图一模一样(比如这片树叶的纹理是否100%重合),它在乎的是:在人眼看来,这是否是一场连贯、清晰、真实的球赛?在机器看来,能否准确识别出这是否是越位?
数据实测:非常省流
极端压缩听起来很玄,但具体指标并不含糊。
技术报告中展示了在MCL-JCV权威数据集上的测试结果,数据非常硬核。
画质吊打传统算法
在极低码率下(0.005 bpp左右),使用LPIPS(一种更符合人类视觉感知的画质评价指标)进行对比:
传统霸主HEVC已经彻底崩溃,画面基本是马赛克乱舞,LPIPS数值飙升(越低越好)。GVC生成的画面依然保持了清晰的纹理和结构,LPIPS数值显著低于HEVC。
技术报告中给出了一个惊人的对比结论:传统方法(如HEVC)要想达到和GVC同样的视觉画质,需要消耗6倍以上的带宽!

这意味着,在同样的渣画质网络下,GVC能让你看清C罗的表情,而HEVC只能让你看清C罗是个移动的色块。
不只是给人看,机器也能用
有人会问:AI生成的视频,会不会失真?比如把球生成没了?
这是一个非常犀利且实在的问题。
为此,团队在DAVIS2017视频分割任务上进行了验证;结果显示,在bpp=0.01的极限压缩下,GVC重建视频的J&F指标(衡量分割准确度)显著高于HEVC。

这说明GVC传输的不仅仅是“好看”的皮囊,更是“准确”的语义。即使是AI重绘的,关键物体(人、车、球)的位置和轮廓也是精准的,完全不影响后续的AI分析。
消费级显卡也能跑
计算换宽带,那会不会把电脑算爆?
确实,生成式模型通常是算力黑洞。但 TeleAI 通过模型小型化、知识蒸馏等手段,搞定了落地的最后一公里。
报告数据显示,经过优化的GVC模型,在消费级GPU(如RTX 4090)上,生成一组29帧的画面大约只需要0.95秒到1.35秒。
虽然比不上传统解码器的毫秒级速度,但在很多非实时或准实时的场景下(比如直播延迟几秒),这已经是完全可用的状态了。
当然不只是为了看个世界杯
0.02%,这篇技术报告所展现的关键数据已然非常惊艳,但它背后更加可期的,还是这项技术给未来带来的改变。
除了开头我们提到的世界杯的例子外,在报告展示的Demo场景中,GVC还展现了其它极端网络环境下的情况:
-远洋海事通信: 船员通过窄带卫星网络(带宽极其昂贵且稀缺)接收数据。用GVC,200K的数据流就能还原出连贯的球赛直播。这不仅是娱乐,对于海上远程医疗、设备维修指导来说,是救命的技术。
-应急救援: 地震或洪水灾区,基站损毁,只有微弱的应急通信信号。救援无人机传回的如果是4K画面,根本发不出来;如果是GVC压缩后的Token,指挥中心就能实时看到清晰的现场生成画面,哪怕细节纹理是AI补全的,但受灾人数、房屋倒塌结构等核心信息是准确无误的。
-深空探测与车载视频: 想象一下火星车发回的视频,或者数百万辆自动驾驶汽车每天上传的路测数据。如果都能压缩到0.02%,存储和传输成本将呈指数级下降。
实际上,GVC并非孤立的技术突破,而是建立在“智传网(AI Flow)”理论体系之上。
智传网(AI Flow)是人工智能与通信、网络交叉领域的一项关键技术,即通过网络分层架构,基于连接和交互,实现智能的传递和涌现。
在去年的世界人工智能大会(WAIC)上,中国电信集团 CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授,介绍了 TeleAI 在智传网(AI Flow)研究中所发现的三个定律:信容律、同源律、集成律。
信容律描述大模型的本质规律和能力边界,通过数据压缩的方式来衡量模型的知识密度,也就是智能能力。
同源律则展现大模型的“部分”与“整体”关系,在相同训练计算开销下,能指导得到数量更多、性能更好的不同大小的家族模型。
集成律能指导大模型“单体”与“群体”的协同,通过多个模型集成的方式,实现智能能力的提升与涌现。
基于智传网(AI Flow)的信容律,在AI时代,通信的本质不再是单纯的数据传输,而是智能的分发与协同。
在此体系下,GVC通过“用计算换带宽”的资源置换策略,实现了通信效率与感知质量的最优平衡。
GVC就是这一理论的最佳实践:当带宽成为瓶颈时,我们就燃烧算力来换取自由。
从像素还原到语义生成,视频压缩技术正在经历一场类似从功能机到智能机的范式转移。
GVC标志着视频通信正从像素搬运迈向语义生成的新阶段。
作为央企在AI+通信融合创新中的重要成果,它不仅为远洋通信、应急救援、边缘智能等场景提供了高效可行的解决方案,更开启了以任务有效性为核心的下一代视频传输范式:
在未来的互联网里,流淌在光纤和电波中的,可能不再是庞大的原始数据,而是高度浓缩的智慧和指令。



