5G耗电量比4G更多吗?

如题所述

5G手机在使用过程当中的耗电相对于4g手机要略高一些

主要有两点原因:

5G 使用 Massive MIMO 技术

4G 基站 RRU 使用 8 天线,天线矩阵实现 2D MIMO,满功率输出 160W 射频信号;5G 基站 AAU 使用 64 天线,天线矩阵实现 3D MIMO,满功率输出 320W 射频信号。如果效率相同,5G AAU 的耗能是 4G RRU 的 2 倍。

实际上,得益于更高效的 PA(Power Amplifier,功率放大器)芯片和更好的 DPD(Digital Pre-Distortion,数字预失真)算法,5G 设备的效率是比 4G 高的。也就是说,AAU 的耗能不到 RRU 的 2 倍。

5G 使用了更高的频段

由于高带宽和 Massive MIMO 的要求,5G 使用较高频率频段。在 SUB-6GHz 的频谱中,中国移动使用 2.6GHz 频段(和 4G 相同);中国电信和中国联通使用 3.5GHz 频段(两家运营商 4G TDD LTE 频段是 2.6GHz 频段)。

根据无线信号自由空间传输损耗公式:

Los (dB)= 32.44 +20lg( d(km)) +20lg( f(MHz))

中国移动 5G 覆盖和 4G 相当,而中国电信和中国联通的 5G 覆盖距离大概是 4G 时的 0.75 倍,站点数理论上增加 1.8 倍。达到与 4G 相同的覆盖效果,5G 站点数理论上是 4G 的 1.2~1.4 倍。

以上两点因素叠加,5G 全网的耗能将是 4G 全网耗能的 2.4~2.8 倍。

看来 5G 的能耗确实不可小觑。那么,又是什么原因让 5G 选择 Massive MIMO 和高频段呢?

Massive MIMO 的优势显而易见:

利用垂直纬度和水平纬度的天线自由度,时频资源利用率提升;

用户间的干扰降低;

提升小区吞吐率;

提升小区边缘用户体验。

而高频段频谱助力 5G Massive MIMO 的实现。天线的尺寸和频率有关。频率越高,射频信号波长越短,相应的天线尺寸越小。5G 的 AAU 现在使用 64 天线阵,往后发展还会有 128 天线阵和 256 天线阵。大规模的天线阵,促使 5G 选择高频段频谱资源。5G 确实比 4G 耗能更多,但不能片面看待这个问题。5G 这匹 “千里马”吃得虽然多,但是,它拉了辆更大的车——5G 系统容量是 4G 的 20 倍以上。实际上,就传输单位比特信息量的功耗而言,5G 是更省电的。5G 每比特数据消耗的能量约是 4G 的 1/10。

OFDM 时频信号

OFDM 系统信号的特点是时域为非恒包络状态,峰值功率随机出现。大峰均比信号的出现,会降低射频前端功放的效率。

伴随高峰均比信号的出现,削峰技术(CFR)就诞生了。

CFR 即降低信号峰均比的技术。信号的削峰会带来一定的失真,过多的削峰会影响接收机的误码率。

在 4G、5G 移动通信中,信号的原始峰均比有十几 dB,经过削峰后,送给发射单元的信号的峰均比一般为 6~7dB。

为了满足发射机的线性指标,工程师在设计放大器时,可能会选择功率回退方案。功率回退是指,让功率放大器输出比自己饱和功率低得多的功率信号,以保证输出信号的线性指标。

该方案实现难度小,结构简单。

比如,输出 10W 的信号,工程师会选择饱和功率大于 10W 的功率放大器做方案。

但高峰均比信号的出现,使功率回退需要回退到峰值功率以上。比如输出平均功率为 10W,峰均比为 6dB 的信号,工程师需选择饱和功率大于 40W 的功放管来做方案。

但是功放的输出功率和效率是正比关系,为了满足瞬时大信号的线性指标,高峰均比系统使用回退方案会导致效率低下。如果 AAU 发射机放大器使用纯回退方案,末级功放效率将不足 15%,整机效率不足 10%。

温馨提示:答案为网友推荐,仅供参考
相似回答