功率控制技术有哪些

作者:to88通盈官方网站 发布时间:2020-09-20 16:04

  LTE(Long Term Evolution,长期演进)是3GPP主导制定的无线通信技术,关注的核心是无线接口和无线组网架构的技术演进问题。

  IEEE组织只是针对宽带无线制式的物理层(PHY)和媒介接入控制层(MAC)层制定了标准,并没有对高层进行规范。LTE由3GPP主导,执意将LTE打造成未来较长时间内领先的无线制式。LTE技术与其说是Evolution(演进),不如说是Revolution(革命),无论是在无线接口技术还是组网架构上,LTE相对于以往的无线制式都发生了革命性的变化。LTE取消了电路(CS)域,取消了无线网络控制(RNC)节点。

  无线传输技术和多址技术的基础是信道资源的正交性。无线传输技术、多址技术、无线资源使用技术、无线组网技术是无线通信技术的基础。

  从资源使用范围看,无线资源分为共享资源和专用资源;从资源承载的信息性质上看,可分为控制面和业务面;从获取资源的方式来看,可分为基于竞争和基于调度;从物理资源的所在位置上看,可分为集中配置和分布配置。

  正交,在数学上是相互垂直的意思,可以理解为互不依赖,相互独立,互不相关,没有重叠,互相区别,没有疑似。正交性就是把一个复杂的事情分解成相互独立、互不相关、互不依赖的几个因素,这样有便于问题的分析和解决,称之为解耦。无线通信中,相互正交的信道就是互不相关互不依赖相互区别的信道,可通过空间,时间,频率,码等途径实现信道之间的“正交”。无线空中接口资源是有限的。相互正交的信道可以传送完全不同的信息,在接收端同时接收不同信道的不同信息,重复利用空中接口资源,起到提高空中接口利用效率的作用。同时由于无线环境的恶劣,相互正交的信道可以传送完全相同的信息,在接收端合并不同信道来的相同信息,去伪存真,提高传输可靠性。

  2.正交码对于无线的空口资源来说,空间、频率、时间都是硬资源。空间资源是指天线单元;频率资源是指载波、频点资源;时间资源是指每个时隙。这些资源都是有限不可再生的,属于硬资源。码资源就不一样了。理论上,相互正交的码可以在同一个空间、频率、时间资源上区分出不同的信道来。这样,只要码足够长,同一空间、频率、时间可以支持无穷多个相互正交的信道。码资源是一种软资源,但是码不宜过长,否则计算复杂性增加对芯片计算能力要求就会苛刻。CDMA就是采用了码分多址。扩频码是用来扩展信号的频谱的,接收端用同样的码实现解扩,什么样的扩频码是正交的呢?满足下面两个条件的数字序列是互相正交的(1)自己和自己按相位相乘之和大于0;(2)自己和别人按相位相乘之和等于0;例如a={1,-1,1,-1}和b={1,-1,-1,1},a和b按相位相乘={1,1,-1,-1},各位之和为0;a或b自己和自己按位相乘之和大于0,所以a和b是正交的。这样相互正交的码扩频后的信号,可以在同一空间,频率,时隙资源上传送不同的信息,接收端使用同样的扩频码可以把原始信息正确地解扩,并接收。

  5.自适应通信系统能够根据自身环境、目标、资源供给等条件变化调节自己的状态,无需人为参与称为自适应。无线传播环境随时变化,现代通信系统如果没有这种自适应能力,用户通信质量将无法保证。无线链路自适应通常通过功率控制或者速率控制来实现,无论是功率控制还是速率控制,都是一种信道自适应技术。还有一种动态信道分配(DAC)的技术,也属于信道自适应技术,或者叫资源自适应。智能天线或自适应天线,也是一种链路自适应技术,属于空间自适应或波束自适应。

  各种自适应技术不外呼空间、时域、码域、频域方面的自适应。在LTE中,一种全新的自适应技术——带宽自适应技术被应用。(1)功率自适应发射端根据无线链路的接收电平、接受质量动态地调整发射功率。功率控制分为开环功控和闭环功控。开环功控是终端或基站自己根据无线链路状况判断功率发射的大小,而不交互升高和降低功率。闭环功控是终端或基站根据根据对方升高或降低功率的命令,来决定发射功率的大小。(2)速率自适应系统通过调节业务速率的方式,来自适应无线环境的链路自适应技术。速率的变化通常是通过调节数据块大小、编码方式和调制方式来实现的。3G中语音业务速率控制技术是AMR(自适应多速率),AMR共定义了8种语音业务的数据块大小模式,每种模式对应一种速率。3G中HSDPA速率控制技术是AMC(自适应调制编码),AMC技术是发送端通过改变数据传输的编码和调试方式来适应无线G都有速率控制的自适应技术,最基本的控制手段不外呼改变调制和编码的方式。靠近基站的用户链路质量高,采用高阶调制方式(16QAM,8PSK等)和高效率信道编码(如3/4编码速率),以获得较高数据吞吐量。离基站较远的用户则采用低阶调制方式(如QPSK)和低效率的信道编码(如1/4编码速率)。

  6.共享和专用在2G、3G中有电路交换域(CS域)和分组交换域(PS域)。电路交换域在建立连接时核心网要分配专用的网络资源,释放连接时释放专用资源,保证了业务实时性,但资源利用效率不高;分组交换以分组为单位传输数据,无需在双方间建立专用连接,提高了资源共享性,但牺牲了业务的实时性。LTE的核心网取消了CS域,全部采用PS域。

  7.竞争方式和调度方式社会经济资源的配置方式主要有市场经济和计划经济。市场经济中生产资源的调度和配置由市场说了算,各生产企业根据自己对市场的理解来调制生产能力;计划经济中一切生产资源由计划部门负责调度和配置,资源的配置权在某一个上级部门。市场经济是基于竞争的资源分配方式,无需上下级频繁的信息交互,简化了主管部门的职能,对市场需求的变化反应快,但容易产生过度竞争和经济危机。计划经济是统一调度的资源分配方式,优点是资源调度有序,避免了过度竞争和经济危机;缺点是上下级信息交互频繁,对主管调度部门的事务处理能力要求较高,对市场需求的变化反应慢,资源利用不充分。(1)基于竞争的无线资源分配方式类似于市场经济,网络中无需专门的资源调度设备,每个用户在占用网络资源发送数据前,需自己了解网络资源。发现网络资源空闲就占用该资源。假如有多个用户同时要发送数据,且同时发现了网络资源有空闲,则需要通过竞争的方式获取网络资源。这种资源调度方式无需设备间频繁信令交互,设备管理功能简单,资源利用充分,但资源利用率不高,容易产生过多冲突。这种资源分配方式首先在以太网中使用(CSMA/CD),在无线局域网中也使用(CSMA/CA)。发送前先侦听,若信道空闲则发送;若监听到其他用户正在传送信息,则等待一定时间再发送。(2)基于调度的无线资源分配方式类似于计划经济。网络中需要进行无线资源管理(RRM)和调度,每一个用户对网络资源的占用不能自作主张,需要由相关部门分配(RRM功能模块)。基于统一调度的资源分配可以有效分配网络资源,最大程度提高网络资源利用效率,避免由于竞争冲突造成的网络资源浪费;但需要频繁的信令交互,对无线资源调度部门的处理能力要求较高。在2G、3G无线制式中,无线资源管理模块在基站控制器(GSM的BSC(基站控制器),WCDMA和TD-SCDMA的RNC)中。在LTE中,无线资源管理模块下移到基站eNodeB中(原因与后面的扁平化组网相关)。无线资源调度算法决定共享资源应该给哪些用户分配,有三种算法:轮询(Round Robin,RR)算法,最大载干比(Max C/I)算法和部分公平算法(Partional Fair,PF)算法。RR算法:先到先分配,按照用户申请资源的先后顺序分配网络资源。公平对待每个用户,但整体资源调度效率低,此算法拥有公平性的上界,性能的下界。最大载干比算法:把资源优先分配给那些信号质量较好的用户,此算法整体资源调度效率较高,但信号质量差的用户可能始终得不到服务,此算法具有性能的上界,公平性的下界。正所谓“强者恒强”,“近水楼台先得月,向阳花木易为春”。PF算法:公平性与效率不可兼得,两者折中处理得到部分公平算法。这种算法是在牺牲部分公平性的情况下,尽量追求较高的整网资源调度效率。

  LTE(Long Term Evolution)是指3GPP组织推行的蜂窝技术在无线接入方面的最新演进,对应核心网的演进就是SAE(System Architecture Evolution)。之所以需要从3G演进到LTE,是由于近年来移动用户对高速率数据业务的要求,同时新型无线宽带接入系统的快速发展,如WiMax的出现,给3G系统设备商和运营商造成了很大的压力。在LTE系统设计之初,其目标和需求就非常明确:降低时延、提高用户传输数据速率、提高系统容量和覆盖范围、降低运营成本:

  ●显著的提高峰值传输数据速率,例如下行链路达到100Mb/s,上行链路达到50Mb/s;

  ●显著的降低控制面时延(从空闲态跃迁到激活态时延小于100ms(不包括寻呼时间));

  ●支持灵活的系统带宽配置,支持1.4MHz、3MHz、5MHz、10MHz、15MHz、20MHz带宽,支持成对和非成对频谱;

  ●系统不仅能为低速移动终端提供最优服务,并且也应支持高速移动终端,能为速度350km/h的用户提供100kbps的接入服务;

  ●各个子载波的正交性是由基带IFFT(Inverse Fast Fourier Transform)实现的。由于子载波带宽较小(15kHz),多径时延将导致符号间干扰ISI,破坏子载波之间的正交性。为此,在OFDM符号间插入保护间隔,通常采用循环前缀CP来实现;

  p LTE下行支持MIMO技术进行空间维度的复用。空间复用支持单用户SU-MIMO(Single-User-MIMO)模式或者多用户MU-MIMO (Multiple-User-MIMO)模式。SU-MIMO和MU-MIMO都支持通过Pre-coding的方法来降低或者控制空间复用数据流之间的干扰,从而改善MIMO技术的性能。SU-MIMO中,空间复用的数据流调度给一个单独的用户,提升该用户的传输速率和频谱效率。MU-MIMO中,空间复用的数据流调度给多个用户,多个用户通过空分方式共享同一时频资源,系统可以通过空间维度的多用户调度获得额外的多用户分集增益。

  p 受限于终端的成本和功耗,实现单个终端上行多路射频发射和功放的难度较大。因此,LTE正研究在上行采用多个单天线用户联合进行MIMO传输的方法,称为Virtual-MIMO。调度器将相同的时频资源调度给若干个不同的用户,每个用户都采用单天线方式发送数据,系统采用一定的MIMO解调方法进行数据分离。采用Virtual-MIMO方式能同时获得MIMO增益以及功率增益(相同的时频资源允许更高的功率发送),而且调度器可以控制多用户数据之间的干扰。同时,通过用户选择可以获得多用户分集增益。

  p LTE支持时间和频率两个维度的链路自适应,根据时频域信道质量信息对不同的时频资源选择不同的调制编码方式。

  p 功率控制在CDMA系统中是一项重要的链路自适应技术,可以避免远近效应带来的多址干扰。在LTE系统中,上下行均采用正交的OFDM技术对多用户进行复用。因此,功控主要用来降低对邻小区上行的干扰,补偿链路损耗,也是一种慢速的链路自适应机制。

  ●LTE系统中,系统中各小区采用相同的频率进行发送和接收。与CDMA系统不同的是,LTE系统并不能通过合并不同小区的信号来降低邻小区信号的影响。因此必将在小区间产生干扰,小区边缘干扰尤为严重。

  ●为了改善小区边缘的性能,系统上下行都需要采用一定的方法进行小区干扰控制。目前正在研究方法有:

  ●干扰随机化:被动的干扰控制方法。目的是使系统在时频域受到的干扰尽可能平均,可通过加扰,交织,跳频等方法实现;

  ●干扰对消:终端解调邻小区信息,对消邻小区信息后再解调本小区信息;或利用交织多址IDMA进行多小区信息联合解调;

  ●干扰抑制:通过终端多个天线对空间有色干扰特性进行估计和抑制,可以分为空间维度和频率维度进行抑制。系统复杂度较大,可通过上下行的干扰抑制合并IRC实现;

  ●干扰协调:主动的干扰控制技术。对小区边缘可用的时频资源做一定的限制。这是一种比较常见的小区干扰抑制方法;

  OFDM也是一种频分复用的多载波传输方式,只是复用的各路信号(各路载波)是正交的。OFDM技术也是通过串/并转换将高速的数据流变成多路并行的低速数据流,再将它们分配到若干个不同频率的子载波上的子信道中传输。不同的是OFDM技术利用了相互正交的子载波,从而子载波的频谱是重叠的,而传统的FDM多载波调制系统中子载波间需要保护间隔,从而OFDM技术大大的提高了频谱利用率。

  ● 通过把高速率数据流进行串并转换,使得每个子载波上的数据符号持续长度相对增加,从而有效地减少由于无线信道时间弥散所带来地ISI,进而减少了接收机内均衡器地复杂度,有时甚至可以不采用均衡器,而仅仅通过插入循环前缀地方法消除ISI的不利影响。

  ● OFDM技术可用有效的抑制无线多径信道的频率选择性衰落。因为OFDM的子载波间隔比较小,一般的都会小于多径信道的相关带宽,这样在一个子载波内,衰落是平坦的。进一步,通过合理的子载波分配方案,可以将衰落特性不同的子载波分配给同一个用户,这样可以获取频率分集增益,从而有效的克服了频率选择性衰落。

  ● 传统的频分多路传输方法是将频带分为若干个不相交的子频带来并行传输数据流,各个子信道之间要保留足够的保护频带。而OFDM系统由于各个子载波之间存在正交性,允许子信道的频谱相互重叠,因此于常规的频分复用系统相比,OFDM系统可以最大限度的利用频谱资源。

  ● 无线数据业务一般存在非对称性,即下行链路中的数据传输量大于上行链路中的数据传输量,这就要求物理层支持非对称的高速率数据传输,OFDM系统可以通过使用不同数量的子信道来实现上行和下行链路中不同的传输速率。

  ● 易受频率偏差的影响。由于子信道的频谱相互覆盖,这就对他们之间的正交性提出了严格的要求,无线信道的时变性在传输过程中造成了无线信号频谱偏移,或发射机与接收机本地振荡器之间存在频率偏差,都会使OFDM系统子载波之间的正交性遭到破坏,导致子信道间干扰(ICI,Inter-Channel Interference),这种对频率偏差的敏感性是OFDM系统的主要缺点之一。

  ● 存在较高的峰值平均功率比。多载波系统的输出是多个子信道信号的叠加,因此如果多个信号的相位一致时,所得到的叠加信号的瞬时功率就会远远高于信号的平均功率,导致较大的峰值平均功率比(PAPR,Peak-to-Average power Ratio),这就对发射机内放大器的线性度提出了很高的要求,因此可能带来信号畸变,使信号的频谱发生变化,从而导致各个子信道间的正交性遭到破坏,产生干扰,使系统的性能恶化。

  单用户MIMO:占用相同时频资源的多个并行的数据流发给同一个用户或从同一个用户发给基站称为单用户MIMO;如下图所示:

  多用户MIMO:占用相同时频资源的多个并行的数据流发给不同用户或不同用户采用相同时频资源发送数据给基站,称为多用户MIMO,也称虚拟MIMO。如下图所示:

  当前LTE 考虑终端的实现复杂性,因此上行只支持多用户MIMO,也就是虚拟MIMO。

  考虑到多载波带来的高PAPR会影响终端的射频成本和电池寿命。最终3GPP决定在上行采用单载波频分复用技术SC-FDMA中的频域实现方式DFT-S-OFDM。可以看出与OFDM不同的是在调制之前先进行了DFT的转换,这样最终发射的时域信号会大大减小PAPR。这种处理的缺点就是增加了射频调制的复杂度。实际上DFT-S-OFDM可以认为是一种特殊的多载波复用方式,其输出的信息同样具有多载波特性,但是由于其有别于OFDM的特殊处理,使其具有单载波复用相对较低的PAPR特性。

  MIMO技术的关键是有效避免天线之间的干扰,以区分多个并行数据流。众所周知,在水平衰落信道中可以实现更简单的MIMO接收。而在频率选择性信道中,由于天线间干扰和符号间干扰混合在一起,很难将MIMO接收和信道均衡分开处理。如果采用将MIMO接收和信道均衡混合处理的MIMO接收均衡的技术,则接收机会比较复杂。

  因此,由于每个OFDM子载波内的信道(带宽只有15KHz)可看作水平衰落信道,MIMO系统带来的额外复杂度可以控制在较低的水平(随天线数量呈线性增加)。相对而言,单载波MIMO系统的复杂度与天线数量和多径数量的乘积的幂成正比,很不利于MIMO技术的应用。

  ● LTE TDD的帧结构如下图所示,帧长10ms,分为两个长为5ms的半帧,每个半帧包含8个长为0.5ms的时隙和3个特殊时隙(域):DwPTS(Downlink Pilot TimeSlot)、GP(Guard Period)和UpPTS(Uplink Pilot TimeSlot)。DwPTS和UpPTS的长度是可配置的,但是DwPTS、UpPTS和GP的总长度为1ms。子帧1和6包含DwPTS,GP和UpPTS;

  子帧0和子帧5只能用于下行传输。支持灵活的上下行配置,支持5ms和10ms的切换点周期。

  子载波:LTE采用的是OFDM技术,不同于WCDMA采用的扩频技术,每个symbol占用的带宽都是3.84M,通过扩频增益来对抗干扰。OFDM则是每个Symbol都对应一个正交的子载波,通过载波间的正交性来对抗干扰。协议规定,通常情况下子载波间隔15khz,Normal CP(Cyclic Prefix)情况下,每个子载波一个slot有7个symbol;Extend CP情况下,每个子载波一个slot有6个symbol。下图给出的是常规CP情况下的时频结构,从竖的的来看,每一个方格对应就是频率上一个子载波。

  RB(Resource Block):频率上连续12个子载波,时域上一个slot,称为1个RB。如下图左侧橙色框内就是一个RB。根据一个子载波带宽是15k可以得出1个RB的带宽为180kHz。

  RE(Resource Element):频率上一个子载波及时域上一个symbol,称为一个RE,如下图右下角橙色小方框所示。

  CP(Cyclic Prefix)中文可译为循环前缀,它包含的是OFDM符号的尾部重复,如下面第一个图的红圈内所示。CP主要用来对抗实际环境中的多径干扰,不加CP的话由于多径导致的时延扩展会影响子载波之间的正交性,造成符号间干扰。

  下图分别给出了LOS、多径时延扩展小于CP长度以及多径时延扩展大于CP长度的情况,可以看出在如果多径时延扩展大于CP长度时,同样会造成符号间串扰。协议中规定的CP长度已经根据实际情况进行考虑,可以满足绝大多数情况。其它情况会采用扩展CP来容忍更大的时延扩展。

  LTE的工作带宽最小可以工作在1.4M,最大工作带宽可以是20M。协议和实际产品的配置都是通过RB个数来对带宽进行配置的。对应关系如下表所示:大家可能觉得RB个数乘以180k和实际带宽还是有些差距,这个主要由于OFDM信号旁瓣衰落较慢,通常需要留10%的保护带。和WCDMA占用5M带宽但实际信号带宽只有3.84M的原因是类似的。

  RSRP(Reference Signal Received Power)主要用来衡量下行参考信号的功率,和WCDMA中CPICH的RSCP作用类似,可以用来衡量下行的覆盖。区别在于协议规定RSRP指的是每RE的能量,这点和RSCP指的是全带宽能量有些差别;

  从上面的定义很容易看出对于RSRQ和SINR来说,二者的差别就在于分母一个包含自身、干扰信号及底噪,另外一个只包括干扰和噪声。

  生活中的例子:警车/救护车向你驶来的时候,警笛声音越来越大,离你而去的时候,警笛声音越来越小.

  );在运动的波源后面时,会产生相反的效应。波长变得较长,频率变得较低(红移red shift);波源的速度越高,所产生的效应越大。所有的波都存在多普勒效应.在通信上的体现:当移动台以恒定的速率沿某一方向移动时,由于

  电磁波经不同路径传播后,各分量场到达接收端的时间不同,按各自香味相互叠加而造成干扰,使原来的信号失真,产生错误.特殊情况,路径差正好为半个波长的时候波峰与波谷重合,信号相互抵消,看电视时候的重影就是这个.

  FDD系统在发送和接受数据上使用不同的频率,在上行和下行频率之间有双工间隔,常见的2G 3G制式的网络中,GSM CDMA WCDMA是典型的FDD系统.FDD以1.8G作为首选频率,2.1G为辅助频率.FDD速度快,适合逛覆盖,理论下行速率是150Mbps

  TDD系统在发送和接受数据上使用相同的频率,上下行数据在发送的时候通过时间错开,通过在时间上错开上下行数据,可以避免上下行干扰.我国自主的TD-SCDMA技术就是典型的TDD系统.TDD以2.6G为主要频率.TDD省资源,适合区域覆盖,理论下行速率是100Mbps.

  OFDM(Orthogonal Frequency Division Multiplexing)正交频分多址技术,属于调制复用技术,把系统带宽分成多个相互正交的子载波,在多个子载波上

  .各个子载波的正侥幸是由系带IFFT(Inverse Fast Fourier Transform)实现的.由于子载波带宽较小(15kHz),多径时延将导致符号间干扰ISI,破坏子载波之间的正交性,由此在OFDM符号间插入保护间隔,通常采用循环前缀CP来实现.

  MIMO(Multiple-Input Multiple-Output)多入多出技术.LTE下行技术支持MIMO技术进行空间维度的复用.空间服用支持单用户SU-MIMO 或者MU-MIMO模式.SU-MIMO MU-MIMO都支持通过Pre-coding的方法来降低或者控制空间服用数据流之间的干扰.MU-MIMO中,空间服用的数据流调度给多个用户,多个用户通过空分方式共享同一时频资源,系统可以通过空间维度的多用户调度获得额外的多用户分集增益.

  LTE支持时间和频率两个维度的链路自适应,根据视频与新到质量信息对不同的视频资源选择不同的调职编码方式.

  功率控制在CDMA系统中是一项终于的链路自适应技术,可以避免远近效应带来的多址干扰.在LTE系统之后,上下行均采用正交的OFMD技术对多用户进行复用.因此,工控主要用来降低邻小区上行的干扰,补偿链路损耗,也是一种慢速的链路自适应机制.

  为了改善小区边缘的性能,系统上下行都需要采用一定的方法进行小区干扰控制.目前正在研究方法有:

  干扰随机化:被动的干扰控制方法.目的是使系统在时频域收到的干扰尽可能平均,可通过加扰,交织,跳频等方法实现;

  干扰对消:终端解调邻小区信息,对消邻小区信息后在解调本小区信息;或利用交织多址IDMA进行多小区信息联合解调;

  干扰抑制:通过终端多个天线对空间有色干扰特性进行估计和抑制,可以分为空间维度和频率维度进行抑制.系统复杂度较大,可通过上下行的干扰抑制合并IRC实现.

  干扰协调:主动的干扰控制技术,对小区边缘可用的时频资源做一定的限制,这是一种比较常见的小区干扰抑制方法.

  分级技术是用来补偿衰落信道损耗的,通常通过两个或更多的接收天线来实现.同均衡器一样,它在不增加传输功率和带宽的前提下,而改善无线通信信道的传输质量.在移动通信中,基站和移动台的接收机都可以采用分集技术.

  ,所谓分散传输是使接收端能获得多个统计独立的,携带同一信息的衰落信号,集中接收是指接收机把收到的多个统计独立的衰落信号进行合并(选择与组合)以降低衰落的影响.目前常用的分集方式有两种:宏分集和微分集.

  宏分集也称为"多基站分集",主要是用于蜂窝系统的分集技术.在宏分集中,把多个基站设置在不同的地理位置和不同的方向上,同时和小区内的一个移动台进行通信.只要在各个方向上的信号传播不是同时受到阴影效应或地形的影响而出现严重的慢衰落,这种方法就可以保证通信不会中断,它是一种减少慢衰落的技术

  首先什么是同步?同步通常是指通信系统的收发双方在时间上步调一至。同步是进行信息传输的必要和前提,同步性能的好坏直接影响着通信系统的性能。

  按照同步的功能来分,有载波同步、位同步(码元同步)、群同步(帧同步)、网同步(通信网络中使用)。

  载波同步:相干解调中,在接收端恢复出与发送端的载波在频率上具有相同频率的相干载波的过程。

  位同步(码元同步):位同步脉冲与接收码元的重复频率和相位的一致。接收端“马原定是脉冲序列”的重复频率和相位(位置)要与接收码元一致,以保证:接收端的定时脉冲重复频率和发送端的码元速率相同;取样判决时刻对准最佳取样判决位置。这个码元定时脉冲序列称为“码元同步脉冲”或“位同步脉冲”。

  群同步(帧同步):在数字时分多路通信系统中,各路信码都安排在制定的时隙内传送,形成一定的帧结构。在接收端为了正确地分离各路信号,首先要识别出每帧的起始时刻。从而找出各路时隙的位置。也就是说。接收端必须产生与字、句和帧起止时间相一致的定时信号,称获得这些定时序列的过程为帧(字、句、群)同步。

  网同步:通信网也有模拟和数字之分,在一个数字通信网中,往往需要把各个方向传来的信码,按他们的不同目的进行分路、合路和交换,为了有效的完成这些功能,必须实现网同步。

  序列是Python中最基本的数据结构。序列中的每个元素都分配一个数字 - 它的位置,或索引,第一个索引是0,第二个索引是1,依此类推。Python有6个序列的内置类型,但最常见的是列表list和元组tuple。具体的不想讲了,就总结一下吧,已经很晚了呢。

  7、dict查询效率高,但是消耗内存多;list、tuple查询效率低、但是消耗内存少

  new/delete是C++的操作符,而malloc/free是C中的函数。

  new做两件事,一是分配内存,二是调用类的构造函数;同样,delete会调用类的析构函数和释放内存。而malloc和free只是分配和释放内存。

  new建立的是一个对象,而malloc分配的是一块内存;new建立的对象可以用成员函数访问,不要直接访问它的地址空间;malloc分配的是一块内存区域,用指针访问,可以在里面移动指针;new出来的指针是带有类型信息的,而malloc返回的是void指针。

  new/delete是保留字,不需要头文件支持;malloc/free需要头文件库函数支持。

  在CDMA系统中,许多移动台共用一个频率发送或接收信号,近地强信号干扰远地弱信号的现象称为远近效应,解决远近效应的方法是功率控制.

  链路自适应技术,就是指系统根据当前获取的信道信息,自适应地调整系统传输参数的行为,用以克服或者适应当前信道变化带来的影响。从链路自适应技术的基本原理可以看出,链路自适应技术主要包含两方面的内容:一方面是信道信息的获取,准确和有效地获得当前信道环境参数,以及采用什么样的信道指示参数能够更为有效和准确地反映信道的状况;另一方面是传输参数的调整,其中包含调制方式、编码方式、冗余信息、发射功率以及时频资源等参数的调整。

  自适应调制与编码技术,根据无线信道的变化调整系统传输的调制方式和编码速率,在信道条件比较好的时候,提高调制等级以及编码速率,在信道条件比较差的时候,降低调制等级以及信道编码速率。

  功率控制技术,根据无线信道的变化调整系统发射的功率,在信道条件比较好的时候,降低发射功率,在信道条件比较差的时候,提高发射功率。

  混合自动重传请求,通过调整数据传输的冗余信息,从而在接收端获得重传/合并增益,实现对信道的小动态范围的、精确的、快速的自适应。

  信道选择性调度技术,根据无线信道测量的结果,选择信道条件比较好的时频资源进行数据的传输。

  堆:首先应该知道操作系统有一个记录空闲内存地址的链表,当系统收到程序的申请时,

  会遍历该链表,寻找第一个空间大于所申请空间的堆结点,然后将该结点从空闲结点链表中删除,并将该结点的空间分配给程序,另外,对于大多数系统,会在这块内存空间中的首地址处记录本次分配的大小,这样,代码中的delete语句才能正确的释放本内存空间。另外,由于找到的堆结点的大小不一定正好等于申请的大小,系统会自动的将多余的那部分重新放入空闲链表中。

  栈:在Windows下,栈是向低地址扩展的数据结构,是一块连续的内存的区域。这句话的意思是栈顶的地址和栈的最大容量是系统预先规定好的,在 WINDOWS下,栈的大小是2M(也有的说是1M,总之是一个编译时就确定的常数),如果申请的空间超过栈的剩余空间时,将提示overflow。因此,能从栈获得的空间较小。

  堆:堆是向高地址扩展的数据结构,是不连续的内存区域。这是由于系统是用链表来存储的空闲内存地址的,自然是不连续的,而链表的遍历方向是由低地址向高地址。堆的大小受限于计算机系统中有效的虚拟内存。由此可见,堆获得的空间比较灵活,也比较大。

  另外,在WINDOWS下,最好的方式是用VirtualAlloc分配内存,他不是在堆,也不是在栈是直接在进程的地址空间中保留一快内存,虽然用起来最不方便。但是速度快,也最灵活。

  栈:在函数调用时,第一个进栈的是主函数中后的下一条指令(函数调用语句的下一条可执行语句)的地址,然后是函数的各个参数,在大多数的C编译器中,参数是由右往左入栈的,然后是函数中的局部变量。注意静态变量是不入栈的。

  当本次函数调用结束后,局部变量先出栈,然后是参数,最后栈顶指针指向最开始存的地址,也就是主函数中的下一条指令,程序由该点继续运行。

  堆:一般是在堆的头部用一个字节存放堆的大小。堆中的具体内容有程序员安排。

  3.Python2中,要求输入的字符串必须要加引号,为了避免读取非字符串类型发生的一些行为,不得不使用raw_()代替()

  与\0 相关的是strlen函数 遇到\0就结束了。可以查看strlen实现。

  4G和WiFi目前使用的调制技术主要是OFDM,这种调制方式的能力相比之前的CDMA等有了大幅的提升,但是OFDMA要求各个资源块都正交,这将限制资源的使用,因此如果信号不正交也可以正常的解调,那将可以极大的提升系统容量,因此NOMA(non-orthogonal multiple-access)技术应运而生。在调制技术上的提升到了极限后,另一种更有效的方法就是多天线技术了,通过Massive MIMO实现容量的大幅提升。

  2016年10月,3GPP在葡萄牙里斯本召开了RAN1#86bis会议(以下称86次会议),在此次国际会议上,以往3G和4G占主导的Turbo几乎没有什么支持者,论战的主角是LDPC和Polar。此次会议中三派就其他阵营提出方案的技术短板进行抨击,然而LDPC因技术上的优势而占据上风,获得了大量支持者,如三星、高通、诺基亚、英特尔、联想、爱立信、索尼、夏普、富士通、摩托罗拉移动等。而此时只有华为一家还在坚持Polar码,就算联想投票给Polar码也无济于事。在这一次会议上,LDPC占据了明显上风,成为5G移动宽带在数据传输部分所采纳的方案。

  2016年11月,3GPP在美国召开了RAN1#87次会议,此次会议主要讨论5G数据信道短码方案以及5G控制信道方案。最终投票达成的结果,即5G eMBB场景的信道编码技术方案中,长码编码以及和数据信道的上行和下行短码方案采用高通主推的LDPC码;控制信道编码采用华为主推的Polar方案。

  5G数据信道追求传输速率,主要为大型封包,在此方面LDPC的性能具有明显优势,这也是LDPC能顺利拿下数据信道长码的实力所在。关于5G控制信道,因传输数据量小,相比于速度更注重可靠性,在此方面Polar码有重要优势,加之中国厂商(包括联想投票赞成)的广泛支持,Polar码得以成为5G移动宽带控制信道的国际编码标准。

  美国联邦通信委员会早在2015年就已经率先规划了28 GHz、37 GHz、39 GHz 和 64-71 GHz四个频段为美国5G毫米波推荐频段。美国FCC举办了28GHz频谱拍卖,2965张频谱牌照的成交总额近7.03亿美元。(PS:国外频谱是公开拍卖,国内是由无线电管理委员会分配)。

  毫米波很大的优势是频段高,频谱资源丰富,带宽很宽。另外频谱高,波长短,天线相应的也更短,更方便在手机等小型设备上搭建多天线的应用。光速=波长*频率的公式计算,28GHz频率的波长约为10.7mm,也就是毫米波,一般而言天线长度与波长成正比,基本上天线是波长的四分之一或二分之一是最优,因此毫米波更短的波长也让天线变得更短。

  在 Massive MIMO 系统中可以在系统基站端实现大规模天线阵列的设计,从而使毫米波应用结合在波束成形技术上,这样可以有效的提升天线增益,但也是由于毫米波的波长较短,所以在毫米波通信中,传输信号以毫米波为载体时容易受到外界噪声等因素的干扰和不同程度的衰减,信号不容易穿过建筑物或者障碍物,并且可以被叶子和雨水吸收。

  MIMO(Multiple-InputMultiple-Output)可译为多输入多输出,也就是多根天线的发送和接收。MIMO并不是一项全新技术,在LTE(4G)时代就已经在使用了。通过更高阶的MIMO技术,结合载波聚合和高阶调制,业界已经可以让LTE达到千兆级(1Gbps及以上)速度,达到初期LTE速度的十倍。

  如下图所示,LTE和LTE-A基站端和手机端使用的都是少量的天线,手机端使用的天线数较少主要是受制于手机尺寸,在目前的中低频段,对应的天线尺寸仍然较大,无法在手机中集成过多的天线G使用毫米波后,天线的尺寸变得很小,可以很方便的集成大量的天线。Massive MIMO最多可以支持256跟天线。

  要做到Massive MIMO,基站要精确的掌握信道信息和终端位置,这对于时分复用的TDD系统不是什么大问题,而对于频分的FDD系统就麻烦了。由于TDD系统上下行使用同一频段,可以单边的基于上行信道状况估计下行信道,即利用上下行信道的互易性来推断基站到终端的下行链路。而FDD系统,由于上行和下行不在一个频段,因此不能直接用上行信道状况估计下行信道状况,为了实现信道估计,需要引入CSI反馈,多了大量CSI反馈,随着天线数量增加,不但开销增大,且反馈信息的准确性和及时性也存在降低的可能。因此,业界一直以为,Massive MIMO在FDD上更难于部署。

  国内其实在做3G的时候,国产的TD-SCDMA里面就有提到智能天线,基站系统通过数字信号处理技术与自适应算法,使智能天线动态地在覆盖空间中形成针对特定用户的定向波束。虽然TD-SCDMA没怎么做起来,但不可否认他让我国各大厂商积累了更多的MIMO天线和波束赋形的相关经验。国外一直在大推FDD,目前看来TDD在Massive MIMO方面有着不可或缺的优势。

  中国移动在杭州进行外场测试,从芯片到核心网端到端使用华为5G解决方案。其中,网络侧使用华为2.6GHz NR支持160MHz大带宽和64T64R MassiveMIMO的无线设备,对接集中化部署于北京支持5G SA架构的核心网,同时终端侧使用基于华为巴龙5000芯片的测试终端。可以看到基站侧使用的是64T64R,即64根发射天线根天线。

  MIMO技术经历了从SU-MIMO(单用户MIMO)向MU-MIMO(多用户MIMO)的发展过程。SU-MIMO,它的特点是只服务单一终端,终端受限于天下数量和设计复杂性,从而限制了进一步发展。而MU-MIMO将多个终端联合起来空间复用,多个终端的天线同时使用,这样以来,大量的基站天线和终端天线形成一个大规模的虚拟的MIMO信道系统。这是从整个网络的角度更宏观的去思考提升系统容量。不过,这么多天线引入,信号交叉,必然会导致干扰,这就需要预处理和波束赋形(Beamforming)技术了。

  假设在一个周围建筑物密集的广场边上有一个全向基站(红色圆点),周围不同方向上分布3台终端(红、绿、蓝X)。采用Massive MIMO场景下,并引入精准的波束赋形后,情况就神奇的变成下面这样了。看着是不是很高端的样子,已经可以精确的控制电磁波的方向了,说起来容易,做起来可就难了,这里面的高科技无数。

  认知无线电可以被理解为获得对周围环境的认知并相应调整其行为的无线电。例如,认知无线电可以在跳转到另一个未使用的频带之前确定未使用的频带,并将其用于传输。认知无线电术语是由约瑟夫·米多拉创造的,指的是能够感知外部环境的智能无线电,能够从历史中学习,并根据当前的环境情况做出智能决策来调整其传输参数。

  5G的理论延时是1ms,是4G延时的几十分之一,基本达到了准实时的水平。这自然也会催生很多应用场景,其实uRLLC的全称是超可靠、低时延通信,所以不仅仅只是低时延还需要高可靠。具备时延低且可靠后,一些工业自动化控制、远程医疗、自动驾驶等技术就可以逐渐构建起来了,这方面带来的变革可能是天翻地覆的,原来看来不可能的事情,都在慢慢变得可能。来看看都做了些什么让这些成为现实了吧。

  和LTE一样,5GNR的一个无线ms,每个无线ms;每个无线帧又可分为两个半帧(half-frame),第一个半帧长5ms、包含子帧#0~#4,第二个半帧长5ms、包含子帧#5~#9;这部分的结构是固定不变的。

  如果子载波间隔太小,物理层性能也容易受多普勒频偏的干扰;如果子载波间隔的设置过大,OFDM符号中的CP的持续时间就越短。设计CP的目的是尽可能消除时延扩展(delay spread),从而克服多径干扰的消极影响。CP的持续时间必须大于信道的时延扩展,否则就起不到克服多径干扰的作用。因此选择15KHz~240KHz都是技术和实现成本等一系列综合考虑的折中结果。

  5G NR的灵活框架设计可以向上或向下扩展TTI(即使用更长或更短的TTI),依具体需求而变。除此之外,5G NR同样支持同一频率下以不同的TTI进行多路传输。比如,高Qos(服务质量)要求的移动宽带服务可以选择使用500 µs的TTI,而不是像LTE时代只能用标准TTI,同时,另一个对时延很敏感的服务可以用上更短的TTI,比如140 µs,而不是非得等到下一个子帧到来,也就是500 µs以后。也就是说上一次传输结束以后,两者可以同时开始,从而节省了等待时间。

  为了消除符号问干扰(ISI),在符号间插入保护间隔。插入保护间隔的一般方法是符号间置零,即发送第一个符号后停留一段时间(不发送任何信息),接下来再发送第二个符号。在OFDM系统中,这样虽然减弱或消除了符号间干扰,由于破坏了子载波间的正交性,从而导致了子载波之间的干扰(ICI)。因此,这种方法在OFDM系统中不能采用。在OFDM系统中,为了既可以消除ISI,又可以消除ICI,通常保护间隔是由CP(Cycle Prefix ,循环前缀来)充当。CP是系统开销,不传输有效数据,从而降低了频谱效率。

  目前LTE里使用的CP-OFDM技术能很好的解决多径时延的问题,但是对相邻子带间的频偏和时偏比较敏感,这主要是由于该系统的频谱泄漏比较大,因此容易导致子带间干扰。目前LTE系统在频域上使用了保护间隔,但这样降低了频谱效率,同时也在一定程度上增加了时延,因此5G需要考虑一些新波形技术。目前的CP-OFDM在MTC、短促接入场景上会遇到挑战,极地时延业务;突发、短帧传输;低成本终端具有较大的频率偏差,对正交不利。在多个点协作通信场景,多个点信号发射和接收难度较大。

  目前有一些候选的改进技术,3gpp会议上各公司提出来的新波形候选方案包括:加窗正交频分复用(CP-OFDM with WOLA)、移位的滤波器组多载波(FBMC-OQAM),滤波器组的正交频分复用(FB-OFDM)、通用滤波多载波(UFMC)、滤波器的正交频分复用(F-OFDM)和广义频分复用(GFDM)。这些技术都太专业,再此不表,有兴趣的同学可以用关键字搜索了解,多年没做这块了,理解起来也有些费劲,不过没关系,知道他是解决什么问题的就好了。

  网络切片技术作为5G里至关重要的一项技术,极大的解放了运营商,深受运营商喜爱。传统的各种路由器都是硬交换,规则什么的都需要连网线提前配置好的,修改什么的非常不便,当然如果没有数据包按需处理的需求,这样其实也挺好,快速且稳定。但是随着差异化服务的需求越来越多,如何更快速高效的管理网络成了头疼的问题了,SDN的出现刚好解决了这个问题,软件定义网络(Software Defined Network,SDN)是由美国斯坦福大学CLean State课题研究组提出的一种新型网络创新架构,是网络虚拟化的一种实现方式。

  SDN所做的事是将网络设备上的控制权分离出来,由集中的控制器管理,无须依赖底层网络设备(路由器、交换机、防火墙),屏蔽了来自底层网络设备的差异。而控制权是完全开放的,用户可以自定义任何想实现的网络路由和传输规则策略,从而更加灵活和智能。控制平面和数据平面分离,可以针对不同的数据包类型/来源配置不同的转发

  先来看看mMTC的KPI,连接密度是1,000,000/km2,电池寿命是在MCL(最大耦合损耗)为164dB时工作10~15年,也就是说在信号很差的情况下仍然能工作10~15年(信号越差发射功率越大,越耗电),覆盖增强是要求在MCL=164dB时能提供160bps的速率,UE的复杂度和成本要求是非常低。

  2.6GHz具备室外连续覆盖的可行性,但是其上行覆盖受限于终端能力及功率等,上行覆盖能力较弱。上行覆盖相对于1800MHz相差4dB,相对于800MHz更是相差10dB以上。无线信号在自由空间中的传播损耗遵循一定的规律,频谱越高,传播损耗更大,传播的距离更短。其实连续覆盖还是热点区域覆盖,主要涉及到的是投资成本的问题,以及投资回报比,因为传播损耗越高也就意味着基站要建的更密集,成本随之大大增高,中国移动分配到的频段更低,具有更大的连续覆盖的可能性。

  其实这个概念很容易理解,如下图所示。从4G升级到5G,有两大种方案可选,财大气粗的可以选择完全独立建设一套5G核心网和5G基站。而一些实力没那么雄厚的,可以考虑过度一下,复用现有的4G核心网,享受5G基站带来空口新特性,空口速率会有所提升,但是无法使用5G核心网的一些诸如网络切片之类的新特性。

  从全球看,大部分的运营商在初期阶段选择了NSA,这样部署起来比较快,但是这个只能满足5G三大场景中的增强移动宽带部分,还无法满足低时延高可靠和海量大连接场景。另外5G的NSA标准close的比较早,SA标准还在进行中,因此一些现有的5G终端芯片是只支持NSA的,如果只是从带宽的角度来考虑,手机仅支持NSA也问题不大。

  5G里在一些热点的区域具备高密集组网能力,比如与大麦业务比较贴近的大型场馆演出赛事时,会是一个超密集组网的场景。在热点高容量密集场景下,无线环境复杂且干扰多变,基站的超密集组网可以在一定程度上提高系统的频谱效率,并通过快速资源调度可以快速进行无线资源调配,提高系统无线资源利用率和频谱效率,但同时也带来了许多问题。

  1)多连接技术,多连接技术的主要目的在于实现UE (用户终端)与宏微多个无线网络节点的同时连接。在双连接模式下,宏基站作为双连接模式的主基站,提供集中统一的控制面;微基站作为双连接的辅基站,只提供用户面的数据承载。辅基站不提供与UE 的控制面连接,仅在主基站中存在对应UE 的RRC(无线资源控制)实体。

  3)小小区动态调整,频谱利用率最大化。对于展会或者球赛这种突发性质的集会和赛事,其话务波动特性比较明显,用户群体网络分享行为较为普遍,因此对上行容量要求较高。对于相对封闭的室内场馆区域,需要根据实时话务的情况实现动态UL/DL子帧配比调整比如调整为上行占优的配置以满足上行视频回传类需求。具体来说,电影音乐等大数据下载这类对下行资源需求较高的场景,需要扩充更多的下行资源用于传输,比如从D/U从3:1调整为8:1;大型会议实况直播,视频或音频内容上传,则对上行资源存在极大的需求,比如从D/U从3:1调整为1:3。再有,业务类型趋同的用户群体通常是分簇形式,甚至是以小区单元存在的,即在部署区域,当一段时间内用户业务需求统计体现一个稳定而明显的特征,比如对上行业务需求量增加,那么需要对此区域的小区进行统一的时隙调整。

  复杂多样的场景下的通信体验要求越来越高,为了满足用户能在大型集会、露天集会、演唱会的超密集场景下获得一致的业务体验5G无线亿针对这种未来热点高容量的场景,UDN(超密集组网)通过增加基站部署密度,可以实现系统频率复用效率和网络容量的巨大提升,将成为热点高容量场景的关键解决方案。不久的将来,超高清、3D和沉浸式视频的流行会使得数据速率大幅提升,大量个人数据和办公数据存储在云端,海量实时的数据交互需要可以媲美光纤的传输速率。

  1)其中单基站的峰值速率要达到20Gbps,频谱效率要达到4G的3~5倍,这是关于eMBB超宽带的指标,使用的主要技术包括LDPC/Polar码等新的编码技术提升容量,使用毫米波拓展更多频谱,使用波束赋形带来空分多址增益,使用NOMA技术实现PDMA功率域的增益,使用Massive MIMO技术来获得更大的容量,毫米波让波长更短,天线更短,在手机上可以安置的天线根的天线毫秒,这是关于uRLLC的场景,主要是新的空口标准5GNR中定义了更灵活的帧结构,更灵活的子载波间隔配置,最大的子载波间隔240KHz对应时隙长0.0625ms,这样超低时延应用称为可能。通过新的多载波技术解决目前CP-OFDM中存在的保护间隔等资源浪费,降低时延增大利用率。除此之外,还有网络切片技术,让网络变得更加弹性,可以更好的支持超低时延的应用,建立一条端到端的高速功率,网络切片技术主要是核心网的SDN和NFV的应用。

  3)连接密度每平方公里达到100万个,这是关于mMTC的场景,目前标准主要还是基于eMTC和NB-IoT进行演进,两项标准各有优缺点,对数据量、移动性、时延有一定的要求的场景eMTC更合适,具有静止、数据量很小、时延要求不高等特点,但对工作时长、设备成本、网络覆盖等有较严格要求的场景NB-IoT更合适,目前国内主要覆盖的是NB-IoT。这里的连接量其实是一个相对弹性或理想的值,因为连接量的提升主要是以终端通过PSM或eDRX技术实现休眠所带来的,未来更多的并发能力,更小的网络信令消耗、更多的突发数据包等场景都需要被考虑到,这部分的演进仍然有着较长的路要走。

  今天的AI非常繁荣火爆,更多的是集中在图像识别领域,不可否认CNN和深度神经网络在这一领域带来的巨大变革,但是AI不等于DNN,不等于图像识别,更不等于人脸识别,要达到更智能的世界还需要AI技术在更多方面取得突破。

  AI在图像领域取得突破相当于智能世界的眼睛正在变得更加明亮,原来计算机无法理解的图像,正在慢慢的变得结构化、可理解,图像识别、图像跟踪、图像分割等都让前端变得更加智能了。语音识别取得的进步相当于智能世界的耳朵变得能听见且能听懂了。各种传感技术的进步会逐步接近人的触觉、嗅觉等等对物理世界的感知。最终汇聚到大脑完成智能的决策、指令的上传下达,而5G网络正在逐渐成为连接智能世界各个部分的神经网络。未来值得期待,也期望咱们阿里的城市大脑能成为未来智能世界的重要组成部分。

  的目的:使每个用户到达基站的功率相同。分类:通信的正向、反向链路:反向

  ,一个小区内发送给不同UE的下行信号之间是相互正交的,因此不存在CDMA系统因远近效应而进行

  的必要性。就小区内不同UE的路径损耗和阴影衰落而言,LTE系统完全可以通过频域上的灵活...

  规范》P.90  针对上行和下行信号的发送特点,LTE物理层定义了相应的

  的那些事情。 在进入正题之前,我们首先假设一个场景,俩台PC机用一条10m的以太网线连接,通信的时候,你测量俩边的电压,你会很难看见俩端电压的变化,但是肯定会

  方法,以用来实现节能减排的目标及其他收益。 一、无线报文传输简析 在WLAN等无线射频系统中,各种信息和报文是以电磁波的形式在空中传播的。无线信号从...

  ,但是这里的计算机是指微处理器或嵌入式系统。 课程以C51为主,但是目前主流的使用msp430,arduino,stm32等,可以自学这类芯片。 软件和硬件课堂学习只能理解原理,要想熟练应用需要...

  介绍 基础的电磁感应产生力的作用,这类似的初中物理知识不再讨论; 与直流无刷及永磁同步电机知识太发散的就不再讨论; 本文介绍的几点内容 电机的分类及日常生活...

  在当今急需节能降耗的工业领域里起到了不可替代的作用;...在使用igbt构成的各种主回路之中,大

  理论是由日本学者赤木泰文于1983年首先提出来的。赤木泰文的理论中定义了瞬时实

  转载▼ 标签:  原理 分类: 硬件知识 摘要:详细分析了电磁炉主谐振电路的拓扑结构和工作过程,基于模糊控制理论,给出了负载变化时控制...

  基于两种方式:静态方式和动态方式。所谓静态方式即为信道配置一个固定值,例如RS、PBCH、PCFICH、PSS+SSS信道采用静态值方式设置功率,并且PBCH、PCFICH、PSS+SSS信道功率值是相对于RS...

  / MAXTXPOWER  引用关系:3GPP TS25.433;  功能描述:该值定义小区内同时所有的下行信道最大发射

  第一节 液压伺服控制 液压伺服系统是一种采用液压伺服机构,根据液压传动原理建立起来的自动控制...

  在PHS、GSM、cdma2000 1x、wcdma等协议中,被设计得越来越复杂,它的重要性已不言而喻,哪手机发射

  是大些好哪,还是小些好哪?事实上单纯的说大些好或者小些好,都实在...

  理论最先由日本的Akagi教授在1983年的在日本举行的一次国际会议中提出。瞬时

  理论是电力系统的无功补偿的基础,只有知道三相系统的瞬时有功和无功,才能...


to88通盈官方网站
© 2013 北京格林吉能源科技有限公司.版权所有