Optimisation des systèmes de communication : coûts pour l'opérateur ou besoin économiquement justifié ? Comment fonctionne le service en ligne d'optimisation des coûts des communications mobiles Comment les communications sont-elles optimisées

Optimiser n’importe quel objet implique de rechercher et d’éliminer ses « goulots d’étranglement » afin d’améliorer l’efficacité opérationnelle. Si l'on parle d'optimisation des réseaux de communication, alors aujourd'hui, dans des conditions de concurrence sérieuse sur le marché des télécommunications, c'est une condition nécessaire au bon fonctionnement de l'opérateur et à l'obtention d'un avantage concurrentiel.

Que comprend le service et pourquoi est-il si important pour chaque opérateur ? Nous avons reçu des réponses à ces questions de la part du principal intégrateur de systèmes de Moscou, la société Modern Communication Technologies. Regardons-les ci-dessous.

Comment s'effectue l'optimisation de la communication

L'ensemble du travail peut être divisé en deux grandes étapes : l'audit et l'optimisation elle-même.

Dans un premier temps, les travaux suivants sont réalisés (de manière globale ou sélective) :

  • La qualité de la transmission des données est analysée.
  • Le plan fréquence-territorial est en cours de vérification.
  • Des tests comparatifs des opérateurs sélectionnés sont réalisés (benchmarking des réseaux).
  • Les statistiques des opérateurs sont analysées.
  • Un audit de configuration est réalisé : analyse de la conception, des hauteurs, des angles d'inclinaison, des azimuts.

L’optimisation des systèmes de communication nécessite d’obtenir une grande quantité d’informations objectives sur l’état réel du réseau de l’opérateur. Lors des recherches sur le terrain, des véhicules spécialement équipés sont utilisés, ainsi que des équipements techniques portables.

Les informations obtenues font l'objet d'une analyse minutieuse à l'aide d'un logiciel de haute précision.

Après avoir établi un rapport sur l'état du réseau, l'intégrateur système génère une liste de recommandations pour éliminer les faiblesses. L'opérateur client reçoit une explication complète des problèmes existants et des moyens de les résoudre.

Qu'est-ce que l'optimisation des communications cellulaires apporte à un opérateur ?

Les travaux ci-dessus sont liés à la composante technique des réseaux. Nous n'envisageons pas dans cet article l'optimisation financière, qui vise à améliorer les performances financières et économiques de l'entreprise et à réduire ses coûts matériels.

L’audit et l’élimination des goulots d’étranglement techniques n’ont pas de lien clair avec une augmentation des bénéfices. À court terme, il s’agit tout d’abord des coûts supportés par l’opérateur pour payer les prestations de l’entrepreneur. Mais l'optimisation technique des services de communication permet de résoudre des problèmes d'opérateurs plus graves, souvent cachés. Il s'adresse à :

  • Augmenter l’efficacité de fonctionnement des ressources techniques existantes de l’entreprise cliente.
  • Améliorer la qualité des services fournis aux consommateurs finaux.

Ainsi, la planification des mises à niveau du réseau et la rationalisation de l’utilisation des ressources entraînent une réduction des coûts de maintenance du système. Et améliorer la qualité des services de l’opérateur permet de se différencier de ses concurrents et d’attirer de nouveaux clients. En fin de compte, ces deux facteurs réunis permettent à l’opérateur non seulement de réaliser des bénéfices supplémentaires, mais également de récupérer rapidement les coûts des services de l’intégrateur de systèmes.

Fondamentaux de l'optimisation des systèmes de transmission d'informations, sélection et principes de génération de signaux.

Pour les chaînes radio disposant de ressources en fréquence et en énergie limitées, la tâche la plus importante est d’utiliser ces ressources de manière efficace. Cela signifie garantir la vitesse maximale de transmission des informations à partir de la source du message avec des paramètres de ressources donnés et la fiabilité de la transmission des messages.

Dans la théorie moderne des systèmes de transmission d'informations, il est d'usage d'optimiser d'abord le système de communication dans son ensemble. Ensuite, les autres éléments du système, notamment le récepteur, sont optimisés, à condition que le type de signaux ait déjà été sélectionné.

Lors de l'optimisation d'un système, le meilleur type de signal pour un canal radio donné et la méthode de réception optimale correspondante sont recherchés.

« Le fondateur de l'optimisation des systèmes de communication en général est K. Shannon, qui a prouvé le théorème :

« Si un canal de communication avec une réponse en fréquence finie et un bruit gaussien blanc additif (AWGN) a une capacité de « C » et que les performances de la source sont égales à H′(A), alors lorsque H′(A) ≤ C, le codage est possible qui assure la transmission des messages sur ce canal avec des erreurs arbitrairement petites et à une vitesse arbitrairement proche de la valeur « C » :

[bit/s], (3.1)

∆fk– largeur de bande de la réponse en fréquence rectangulaire du canal de communication ;

R s- puissance moyenne du signal ;

R w = N 0· ∆fk; (3.2)

N 0· - Densité spectrale unilatérale de l'AWGN.

Pour un codage à canal discret et à source aléatoire, ce théorème peut s'écrire sous une forme différente

où est la probabilité moyenne d’erreur de décodage sur un ensemble de codes ;

T- durée du bloc de code de la source du message agrandi.

Puisque, [С−Н ′ (А) ≥ 0] selon les conditions du théorème, alors avec l'augmentation T(en agrandissant la source) et en H ′ (A)→C la valeur T→∞ et le délai de décodage du code source agrandi augmente.

De (3.3) nous pouvons conclure conclusion :

- plus le segment de message codé (T) est long et moins il est efficace

la capacité du canal est utilisée (plus la différence [C-H ′ (A)] est grande), plus la fiabilité de la connexion (1-) est élevée ;

- il existe une possibilité d'échange entre l'efficacité d'utilisation, les valeurs de C, et T (délai de décodage).

a) Analysons la capacité (3.1).

"C" peut être augmenté en augmentant ∆fk Et R s. Il faut tenir compte du fait que le pouvoir Rw(3.2) dépend aussi de ∆fk.

Sur la base de la relation connue (à α=2, β = e) peut être écrit

Trouvons la valeur limite en fonction de la bande ∆fk et créez un graphique de débit.



À ∆fk→∞ . Ensuite, nous élargissons la fonction journal(1+x) dans la série Maclaurin (c'est-à-dire au point X=0) , ce qui à x → 0 est égal ln(1+x)≈x. En conséquence nous obtenons

Traçons la fonction (3.4) en fonction de ∆fk avec normalisation sur les deux axes N 0 /P c.

Figure 3.1. Graphique de la capacité normalisée du canal.

À R s / R w=1 dans (3.1) → AVEC= ∆fk. Compte tenu de la normalisation le long des axes du graphe, cette égalité correspond au point (C N 0 /Pc =P avec P c=1) de coordonnées (1,1).

Le débit augmente sensiblement avec l'augmentation de ∆f k jusqu'à ce que P s /P w ≥1 et tend vers la limite de 1,44 R s /N 0, c'est-à-dire la valeur maximale du paramètre C se produit à h →0.

b) Trouvons les valeurs limites de Shannon pour des coûts de bande passante et d'énergie spécifiques au taux de transmission de l'informationRmax = C .

Par définition, les coûts spécifiques de bande passante dans le canal de communication sont égaux à

où R est le débit de transmission des informations (bit/s) dans le canal. Les tentatives de réduction de ces coûts spécifiques sont associées à des coûts énergétiques supplémentaires, caractérisés par la valeur des coûts énergétiques spécifiques

E b- l'énergie dépensée pour transmettre 1 bit d'information ;

T 0- temps de transmission de 1 bit sur le canal de communication (durée du symbole de canal T ks) ;

Trouvons la dépendance des coûts énergétiques spécifiques sur les coûts de bandes spécifiques. Pour ce faire, nous exprimons les quantités incluses dans (3.1), en supposant AVEC=Rmax :

En substituant ces valeurs dans (3.1) et en le divisant par AVEC nous obtenons

Basé sur la définition du logarithme log 2 N=a signification N=2a peut s'écrire d'où, en prenant la racine des deux côtés, on obtient

Par conséquent expression

détermine la relation entre l'énergie spécifique et la consommation de bande passante dans un canal avec AWGN et réponse en fréquence finie. En même temps, parce que

puis à partir de (3.5) nous obtenons la dépendance du rapport signal sur bruit (SNR) :

Ainsi, dans un canal de communication à réponse en fréquence finie et AWGN, il est possible de mettre en œuvre un nombre infini de systèmes optimaux différents. Les systèmes spectralement efficaces (spectre en bande de base du signal en bande de base) nécessitent un SNR augmenté en conséquence. Les systèmes économes en énergie nécessitent un faible SNR mais doivent être à large bande.

Les systèmes réels ont des valeurs qui se situent sur le graphique de la figure 3.2 au-dessus des limites de Shannon. En comparant les systèmes réels avec les systèmes potentiels, il est possible d'évaluer la marge d'amélioration des paramètres du système de communication.

ANALYSE ET OPTIMISATION DU SYSTÈME DE COMMUNICATION NUMÉRIQUE


1.3 Sélection du type de modulation et calcul des caractéristiques de qualité de transmission

Application

INTRODUCTION

La vie de la société moderne est impensable sans des systèmes de transmission d’informations largement ramifiés. Sans cela, l’industrie, l’agriculture et les transports ne pourraient pas fonctionner.

Le développement ultérieur de tous les aspects des activités de notre société est impensable sans l'introduction généralisée de systèmes de contrôle automatisés, dont la partie la plus importante est un système de communication pour l'échange d'informations, ainsi que des dispositifs pour les stocker et les traiter.

Le transfert, le stockage et le traitement des informations n'ont pas lieu uniquement lors de l'utilisation de dispositifs techniques. Une conversation normale est un échange d’informations. Il existe de nombreuses formes différentes de présentation et de stockage d'informations, telles que des livres, des disquettes, des disques durs, etc.

Les technologies de transmission de l’information, peut-être plus que toute autre technologie, influencent la formation de la structure de la communauté mondiale. La dernière décennie a été marquée par des changements révolutionnaires sur Internet et, avec eux, des changements radicaux et souvent imprévisibles dans la manière dont les affaires sont menées à l'échelle mondiale. De là découle une conclusion tout à fait logique selon laquelle sans la connaissance des principes fondamentaux de la théorie de la transmission du signal, la création de nouveaux systèmes de communication avancés et leur fonctionnement sont impossibles. Son étude fait donc partie intégrante de la formation théorique des étudiants.

Transmettre un message d'un point à un autre est la base de la théorie et de la technologie de la communication. Le cours « Théorie des télécommunications » étudie des méthodes unifiées pour résoudre divers problèmes qui se posent lors de la transmission d'informations de sa source au destinataire.


1.1 Schéma fonctionnel d'un système de communication numérique

Dans un certain nombre de cas pratiques, le problème de la transmission de messages continus via un canal de communication discret se pose. Ce problème est résolu en utilisant un système de communication numérique. Un de ces systèmes est un système de transmission de messages continus utilisant la modulation par impulsions codées (PCM) et la manipulation de porteuses harmoniques. Le schéma fonctionnel d’un tel système est présenté sur la Fig. 1. Il se compose d'une source de messages (IS), d'un convertisseur analogique-numérique (ADC), d'un canal de communication binaire discret (DCC), dont un composant est un canal de communication continu (CCC), d'un canal numérique-vers-numérique. convertisseur analogique (DAC) et un destinataire de message (MS ). Chacune des parties ci-dessus du système contient un certain nombre d'autres éléments. Examinons-les plus en détail.

Une source de message est un objet ou un système dont les informations sur l'état ou le comportement doivent être transmises sur une certaine distance. Les informations transmises depuis le SI sont inattendues pour le destinataire. Par conséquent, sa mesure quantitative dans la théorie des télécommunications s'exprime à travers les caractéristiques statistiques (probabilistes) des messages (signaux). Un message est une forme physique de représentation d’informations. Les messages sont souvent fournis sous la forme d'un courant ou d'une tension variable dans le temps qui représente les informations transmises.


Figure 1.1 – Schéma fonctionnel d'un système de communication numérique

Dans l'émetteur (IS), le message est d'abord filtré afin de limiter son spectre à une certaine fréquence supérieure f B. Ceci est nécessaire pour la représentation efficace de la réponse du filtre passe-bas x(t) sous la forme d'une séquence d'échantillons x k = x(kT), k = 0, 1, 2, .., qui sont observés en sortie de l'échantillonneur. A noter que le filtrage est associé à l'introduction d'une erreur e f (t), qui reflète la partie du message atténuée par le filtre passe-bas. D'autres lectures (x k) sont quantifiées par niveau. Le processus de quantification est associé à la transformation non linéaire d'échantillons à valeurs continues (x k) en échantillons à valeurs discrètes (x k l), qui introduisent également une erreur, appelée erreur de quantification (bruit) e sq (t). Les niveaux quantiques (y k = x k l ) sont ensuite codés avec un code binaire non redondant (primitif) ou résistant au bruit.

La séquence de combinaisons de codes (b k l) forme un signal PCM qui est envoyé au modulateur - un dispositif conçu pour faire correspondre la source du message avec la ligne de communication. Le modulateur génère un signal linéaire S(t, b i), qui est une oscillation électrique ou électromagnétique qui peut se propager le long d'une ligne de communication et est associée de manière unique au message transmis (dans ce cas, un signal PCM). Le signal S(t, b i) est créé à la suite d'une modulation discrète (manipulation) - le processus de modification d'un ou plusieurs paramètres de la porteuse en fonction du signal PCM. Lors de l'utilisation d'une porteuse harmonique U Н (t) = U m cos(2pf Н t+j 0), on distingue les signaux : manipulation d'amplitude, de fréquence et de phase (AM, FM et FM).

Pour éviter les émissions hors bande dans les communications monocanal ou lors de l'organisation de communications multicanaux, ainsi que pour établir le rapport signal/bruit souhaité à l'entrée du récepteur, le signal linéaire est filtré et amplifié dans l'étage de sortie du CI.

Le signal S(t) provenant de la sortie du CI entre dans la ligne de communication, où il est affecté par le bruit n(t). À l'entrée du récepteur (R), il y a un mélange de z(t) = s(t) + n(t) du signal transmis et du bruit, qui est filtré dans l'étage d'entrée du R et envoyé au démodulateur (détecteur ).

Lors de la démodulation, la loi de changement du paramètre d'information est extraite du signal reçu, qui dans notre cas est proportionnelle au signal PCM. Dans ce cas, pour reconnaître les signaux binaires transmis, un dispositif de décision (DE) est connecté à la sortie du démodulateur. Lors de la transmission de signaux binaires b i, i = 0, 1 via le DCS, la présence d'interférences dans le NCS conduit à des décisions ambiguës (erreurs) de l'appareillage de commutation, ce qui provoque à son tour une divergence entre les combinaisons de codes transmises et reçues.

Enfin, pour restaurer le message continu transmis a(t), c'est-à-dire Après réception de son estimation, les combinaisons de codes reçues sont soumises à un décodage, une interpolation et un filtrage passe-bas. Dans ce cas, les L-èmes niveaux, m = 1 ... L-1, sont restitués dans le décodeur à l'aide de combinaisons de codes binaires.

La présence d'erreurs dans le DCS binaire conduit à des erreurs de transmission dans le L-ième DCS et à l'apparition d'un bruit de transmission e P (t). L'effet combiné de l'erreur de filtrage, de la quantification et du bruit de transmission conduit à une ambiguïté entre les messages transmis et reçus.

1.2 Détermination des paramètres ADC et DAC

L'intervalle d'échantillonnage temporel T d est sélectionné sur la base du théorème de Kotelnikov. La quantité inverse de Td - fréquence d'échantillonnage fd = 1/Td est sélectionnée à partir de la condition

f d ≥ 2F m, (1.1)

où F m est la fréquence maximale du signal primaire (message).

L'augmentation du taux d'échantillonnage permet de simplifier le filtre passe-bas (LPF) d'entrée de l'ADC, qui limite le spectre du signal primaire, et le LPF de sortie du DAC, qui restitue le signal continu de l'échantillon. Mais l'augmentation du taux d'échantillonnage entraîne une diminution de la durée des symboles binaires à la sortie du CAN, ce qui nécessite une expansion indésirable de la bande passante du canal de communication pour transmettre ces symboles. Généralement, les paramètres du filtre passe-bas d'entrée du CAN et du filtre passe-bas de sortie du DAC sont choisis pour être identiques.

Sur la fig. 1.2 présente : S(f) - spectre de lectures affichées par des impulsions étroites, S a (f) - spectre de message continu a(t), A(f) - atténuation de fonctionnement du filtre passe-bas.

Pour que le filtre passe-bas n'introduise pas de distorsions linéaires dans un signal continu, les fréquences limites des bandes passantes du filtre passe-bas doivent satisfaire à la condition

f 1 ≥ F m (1,2)

Afin d'éliminer le chevauchement des spectres S a (f) et S a (f-f D), et également d'assurer l'atténuation du composite S a (f-f D) par le filtre passe-bas de restauration, les fréquences limites du les bandes d'arrêt du filtre passe-bas doivent satisfaire à la condition

f 2 ≤ (f D - F m)(1.3)

Figure 1.2 - Spectre des échantillons et réponse en fréquence d'atténuation des filtres ADC et DAC

Pour que les filtres passe-bas ne soient pas trop complexes, le rapport des fréquences limites est choisi à partir de la condition

f 2 / f 1 = 1,3 ... 1,1.(1,4)


Après avoir remplacé les relations (1.2) et (1.3) dans (1.4), vous pouvez sélectionner la fréquence d'échantillonnage f D.

Dans un système de transmission numérique PCM, la puissance de bruit à la sortie du DAC est définie comme

,(1.5)

où est la puissance moyenne du bruit de quantification ;

Puissance de bruit moyenne des erreurs de mesure.

(1.6)

La puissance du bruit de quantification est exprimée en termes de taille de pas de quantification Dx :

.(1.7)

Le pas de quantification dépend du nombre de niveaux de quantification N :

Dx = Umax / (N-1)(1.8)

A partir de l'expression (1.8) on détermine le nombre minimum possible de niveaux de quantification :


(1.9)

La longueur du code primitif binaire à la sortie de l'ADC est un entier :

m = log 2 N. (1,10)

Par conséquent, le nombre de niveaux de quantification N est choisi comme une puissance entière de 2, à laquelle

N ≥ N m je n .(1.11)

La durée d'un symbole binaire (bit) à la sortie ADC est déterminée comme

T b = T D / m.(1,12)

La quantité moyenne d'informations transmises sur un canal de communication par unité de temps - la vitesse de transmission des informations H t - est déterminée par la formule

,(1.13)

où est le taux de transmission de l'échantillon ;

– l'entropie.

, (1.14)

où est la loi de distribution du niveau du signal, est le nombre de niveaux de quantification.

Le taux d'échantillonnage est égal à la fréquence d'échantillonnage :

.(1.15)

1.3Modulation

Nous choisissons le type de modulation de manière à ce que la vitesse de transmission de l'information après modulation ne soit pas inférieure à la productivité de la source, c'est-à-dire

,

où est le taux de modulation,

Nombre de positions de signal.

Pour AM, FM, OFM, KAM

Bande passante du canal.


,

où est le nombre de sous-canaux.

Alors ,

Après avoir déterminé le nombre de positions du signal M, on calcule les probabilités d'erreur

Probabilité d'erreur avec AM-M :

,

Probabilité d'erreur avec FM-M :

Probabilité d'erreur lors de l'OFM-M :

Probabilité d'erreur avec KAM-M :


M = 2 k, k est un nombre pair.

Probabilité d'erreur avec OFDM :

où η est le nombre de niveaux d'amplitude ;

M = 2 k, k est un nombre pair.

Le choix de la méthode de modulation s'effectue selon le critère de probabilité d'erreur minimale.

1.4 Sélection du type de code antibruit et détermination de la longueur de la combinaison de codes

Un codage résistant au bruit ou redondant est utilisé pour détecter et/ou corriger les erreurs qui se produisent lors de la transmission sur un canal discret. Une propriété distinctive du codage correcteur d'erreurs est que la redondance de la source formée par la sortie du codeur est supérieure à la redondance de la source à l'entrée du codeur. Le codage résistant au bruit est utilisé dans divers systèmes de communication, lors du stockage et de la transmission de données dans des réseaux informatiques, dans des équipements audio et vidéo domestiques et professionnels basés sur l'enregistrement numérique.

Si le codage économique réduit la redondance de la source du message, alors le codage correcteur d'erreurs consiste au contraire en l'introduction délibérée de redondance afin de permettre de détecter et (ou) de corriger les erreurs survenant lors de la transmission sur le canal de communication. .

n=m+k – longueur de la combinaison de codes ;

m – nombre de symboles d'information (bits) ;

k – nombre de caractères de contrôle (chiffres);

La distance minimale de code d min, déterminée par comparaison par paire de toutes les combinaisons de codes, est particulièrement importante pour caractériser les propriétés de correction du code, appelée distance de Hamming.

Dans un code non redondant, toutes les combinaisons sont autorisées et, par conséquent, sa distance minimale de code est égale à un - d min = 1. Il suffit donc qu'un symbole soit déformé pour qu'une autre combinaison autorisée soit acceptée à la place de la combinaison transmise. Pour que le code ait des propriétés correctives, il est nécessaire d'y introduire une certaine redondance, qui garantirait une distance minimale entre deux combinaisons autorisées d'au moins deux - d min > 2.

La distance minimale du code est la caractéristique la plus importante des codes correcteurs d'erreurs, indiquant le nombre garanti d'erreurs détectées ou corrigées par un code donné.

Lors de l'utilisation de codes binaires, seules les distorsions discrètes sont prises en compte, dans lesquelles on va à zéro (1 → 0) ou zéro va à un (0 → 1). La transition 1 → 0 ou 0 → 1 dans un seul élément du mot de code est appelée une erreur unique (distorsion unique). En général, la multiplicité d'erreur fait référence au nombre de positions de la combinaison de codes auxquelles, en raison d'interférences, certains symboles ont été remplacés par d'autres. Des distorsions doubles (t = 2) et multiples (t > 2) des éléments de la combinaison de codes dans les limites de 0 sont possibles< t < n.

La distance minimale du code est le paramètre principal caractérisant les capacités de correction d'un code donné. Si le code est utilisé uniquement pour détecter des erreurs de multiplicité t 0 , alors il est nécessaire et suffisant que la distance minimale du code soit égale à

ré min > t 0 + 1.(1,29)

Dans ce cas, aucune combinaison d'erreurs t 0 ne peut transformer une combinaison de codes autorisée en une autre combinaison autorisée. Ainsi, la condition de détection de toutes les erreurs de multiplicité t 0 peut s'écrire :

t 0 ≤ d min - 1.(1,30)

Afin de pouvoir corriger toutes les erreurs avec un facteur t ou moins, il est nécessaire d'avoir une distance minimale qui satisfasse à la condition :

Dans ce cas, toute combinaison de codes avec le nombre d'erreurs t diffère de chaque combinaison autorisée par au moins t et + 1 positions. Si la condition (1.31) n'est pas remplie, il est possible que des erreurs de multiplicité t déforment la combinaison transmise de sorte qu'elle se rapproche de l'une des combinaisons autorisées plutôt que de celle transmise ou même se transforme en une autre combinaison autorisée. Conformément à cela, la condition de correction de toutes les erreurs dont la multiplicité ne dépasse pas t peut s'écrire sous la forme :

t et ≤ (d min - 1) / 2 .(1,32)

De (1.29) et (1.31), il s'ensuit que si le code corrige toutes les erreurs avec une multiplicité de t et, alors le nombre d'erreurs qu'il peut détecter est égal à t 0 = 2∙t et. Il est à noter que les relations (1.29) et (1.31) n'établissent que le nombre minimum garanti d'erreurs détectées ou corrigées pour un d min donné et ne limitent pas la possibilité de détecter des erreurs de multiplicité plus élevée. Par exemple, le code le plus simple avec un contrôle de parité avec dmin = 2 vous permet de détecter non seulement des erreurs uniques, mais également tout nombre impair d'erreurs dans t 0< n.

La longueur de la combinaison de codes n doit être choisie de manière à fournir le plus grand débit du canal de communication. Lorsqu'on utilise un code correcteur, la combinaison de codes contient n bits, parmi lesquels m bits sont des bits d'information et k bits sont des bits de vérification.

La redondance du code correcteur est la quantité

,(1.33)

d'où découle

.(1.34)

Cette valeur indique quelle partie du nombre total de symboles de la combinaison de codes sont des symboles d'information. Dans la théorie du codage, la valeur de B m est appelée débit de code relatif. Si la productivité de la source d'informations est égale à H t symboles par seconde, alors la vitesse de transmission après codage de ces informations sera égale à

puisque dans la séquence codée, sur n symboles, seuls m symboles sont informatifs.

Si le système de communication utilise des signaux binaires (signaux de type « 1 » et « 0 ») et que chaque élément unitaire ne transporte pas plus d'un bit d'information, il existe alors une relation entre le taux de transmission de l'information et le taux de modulation.

où V est le débit de transmission des informations, bit/s ; B - vitesse de modulation, Baud.

Évidemment, plus k est petit, plus le rapport m/n se rapproche de 1, moins V diffère de B, c'est-à-dire plus le débit du système de communication est élevé.

On sait également que pour les codes cycliques avec une distance minimale de code d min = 3, la relation suivante est vraie :

k³log 2 (n+1).(1,37)

On voit que plus n est grand, plus le rapport m/n est proche de 1. Ainsi, par exemple, avec n = 7, k = 3, m = 4, m/n = 0,571 ; avec n = 255, k = 8, m = 247, m/n = 0,964 ; avec n = 1023, k = 10, m = 1013, m/n = 0,990.

La déclaration ci-dessus est également vraie pour les grands d min, bien qu’il n’existe pas de relations exactes pour les connexions entre m et n. Il n'existe que des limites supérieure et inférieure qui établissent la relation entre la distance minimale maximale possible du code correcteur et sa redondance.

Ainsi, la limite de Plotkin donne la limite supérieure de la distance de code d min pour un nombre donné de bits n dans la combinaison de codes et le nombre de bits d'information m, et pour les codes binaires :

(1.38)

À .(1.39)

La limite supérieure de Hamming définit le nombre maximum possible de combinaisons de codes autorisées (2 m) de tout code correcteur d'erreurs pour des valeurs données de n et d min :

,(1.40)

où est le nombre de combinaisons de n éléments basés sur i éléments.

À partir de là, vous pouvez obtenir une expression pour estimer le nombre de caractères de contrôle :


.(1.41)

Pour les valeurs (d min /n) ≤ 0,3, la différence entre la limite de Hamming et la limite de Plotkin est relativement faible.

La limite de Varshamov-Hilbert pour les grandes valeurs de n définit une limite inférieure sur le nombre de bits de contrôle requis pour garantir une distance de code donnée :

Toutes les estimations ci-dessus donnent une idée de la limite supérieure du nombre d min pour des valeurs fixes de n et m ou une estimation inférieure du nombre de symboles de contrôle k pour m et d min donnés.

De ce qui précède, nous pouvons conclure que du point de vue de l'introduction d'une redondance constante dans la combinaison de codes, il est avantageux de choisir des combinaisons de codes longues, car avec l'augmentation de n le débit relatif

R = V/B = m/n(1,43)

augmente, tendant vers la limite égale à 1.

Dans les canaux de communication réels, des interférences se produisent, entraînant des erreurs dans les combinaisons de codes. Lorsqu'une erreur est détectée par le dispositif de décodage dans les systèmes avec POS, un groupe de combinaisons de codes est à nouveau demandé. Lors du réinterrogation, les informations utiles ne sont pas transmises, donc la vitesse de transmission des informations diminue.

On peut montrer que dans ce cas


,(1.44)

où P oo est la probabilité de détecter une erreur par le décodeur (probabilité de redemander) :

;(1.45)

P pp - probabilité de réception correcte (réception sans erreur) de la combinaison de codes ;

M - capacité de stockage de l'émetteur en nombre de combinaisons de codes

,(1.46)

où t p est le temps de propagation du signal le long du canal de communication, s ;

tk – temps de transmission d'une combinaison de codes de n bits, s.

Signe< >signifie que lors du calcul de M, vous devez prendre la valeur entière la plus proche.

Le temps de propagation du signal sur le canal de communication et le temps de transmission de la combinaison de codes sont calculés conformément aux expressions

où L est la distance entre les gares terminales, en km ;

c est la vitesse de propagation du signal le long du canal de communication, km/s (c = 3x10 5) ;

B - vitesse de modulation, Baud.

S'il y a des erreurs dans le canal de communication, la valeur de R est fonction de P 0, n, k, B, L, s. Par conséquent, il existe un n optimal (pour P 0, B, L, c donné) auquel le débit relatif sera maximum.

Pour calculer les valeurs optimales de n, k, m, il est plus pratique d'utiliser un logiciel de modélisation mathématique, tel que MathLab ou MathCAD, en y traçant la dépendance R(n). La valeur optimale sera lorsque R(n) est maximum. Lors de la détermination des valeurs de n, k, m, il faut également s'assurer que les conditions suivantes sont remplies :

où est la probabilité équivalente d’une erreur de réception sur un seul bit lors de l’utilisation d’un codage correcteur d’erreurs avec POC.

La valeur peut être déterminée en utilisant la relation selon laquelle lors d'une transmission sans utilisation de codage résistant au bruit, la probabilité d'enregistrement erroné d'une combinaison de codes P 0kk de longueur n est égale à

.(1.48)

Dans le même temps, lors de l'utilisation d'un codage résistant au bruit

,(1.49)

où est la probabilité d'erreurs non détectées


;(1.50)

Probabilité d'erreurs détectées

.(1.51)

En plus de remplir la condition (1.47), il est nécessaire de s’assurer

V ³ H t . (1,52)

De ce qui précède, il s'ensuit que le processus de recherche des valeurs de B, n, m, k est itératif et qu'il est plus pratique de le disposer sous la forme d'un tableau dont un échantillon est donné dans le tableau. 1.2

Tableau 1.2

Ht = , Padd = .
à n m K DANS V
1
2
3

Pour détecter les erreurs, nous sélectionnons un code cyclique. Parmi tous les codes antibruit connus, les codes cycliques sont les plus simples et les plus efficaces. Ces codes peuvent être utilisés à la fois pour détecter et corriger des erreurs indépendantes et, notamment, pour détecter et corriger des erreurs série. Leur propriété principale est que chaque combinaison de codes peut être obtenue en réorganisant cycliquement les symboles des combinaisons appartenant à un même code.

Les codes cycliques simplifient considérablement la description d'un code linéaire, puisque pour eux, au lieu de spécifier les éléments de la matrice binaire P, il faut spécifier (n-k+1) coefficients binaires du polynôme g(D). Ils simplifient également la procédure de codage et de décodage pour la détection des erreurs. En effet, pour mettre en œuvre le codage, il suffit de multiplier des polynômes, ce qui est mis en œuvre à l'aide d'un registre linéaire contenant k cellules mémoire et possédant des connexions de rétroaction correspondant au polynôme h(D).

Le code cyclique est garanti pour détecter les erreurs de multiplicité et les corriger. Par conséquent, dans les systèmes avec retour de décision, un codage de code cyclique est utilisé.

Lorsqu'une erreur est détectée côté réception, une requête est envoyée via le canal de communication inverse au bloc dans lequel elle a été détectée, puis ce bloc est retransmis. Cela continue jusqu'à ce que le bloc soit accepté sans qu'une erreur ne soit détectée. Un tel système est appelé système de retour de décision (DFS), puisque la décision d'accepter un bloc ou de le retransmettre est prise du côté réception. Les systèmes avec POC sont un moyen efficace d'augmenter l'immunité au bruit de la transmission d'informations.

Lors de la description de la procédure de codage et de décodage avec un code cyclique, il est pratique d'utiliser un appareil mathématique basé sur la comparaison d'un ensemble de mots de code avec un ensemble de polynômes de puissance. Cet appareil permet d'identifier des opérations de codage et de décodage plus simples pour un code cyclique.

Parmi tous les polynômes correspondant aux mots de code du code cyclique, il existe un polynôme non nul P(x) du plus petit degré. Ce polynôme détermine entièrement le code correspondant et est donc appelé générateur.

Le degré du polynôme générateur P(x) est égal à n - m, le terme libre est toujours égal à un.

Le polynôme générateur est le diviseur de tous les polynômes correspondant aux mots de code du code cyclique.

La combinaison nulle appartient nécessairement à tout code cyclique linéaire et peut s'écrire sous la forme (x n Å 1) mod (x n Å 1) = 0. Par conséquent, le polynôme générateur P(x) doit être un diviseur du binôme x n Å 1.

Cela donne des possibilités constructives pour construire un code cyclique d'une longueur donnée n : tout polynôme diviseur du binôme x n Å 1 peut être utilisé comme générateur.

Lors de la construction de codes cycliques, ils utilisent des tableaux de décomposition des binômes x n Å 1 en polynômes irréductibles, c'est-à-dire polynômes qui ne peuvent être représentés comme un produit de deux autres polynômes (voir l’annexe A).

Tout polynôme irréductible inclus dans le développement du binôme x n Å 1, ainsi que tout produit de polynômes irréductibles, peut être choisi comme polynôme générateur, ce qui donne le code cyclique correspondant.

Pour construire un code cyclique systématique, la règle suivante pour construire des mots de code est utilisée

où R(x) est le reste de m(x)×x n - m divisé par P(x).

Le degré de R(x) est évidemment inférieur à (n - m), et donc dans le mot de code, les m premiers symboles coïncideront avec ceux d'information, et les n - m derniers symboles seront ceux de vérification.

La procédure de décodage des codes cycliques peut être basée sur la propriété de leur divisibilité sans reste par le polynôme générateur P(x).

En mode de détection d'erreur, si la séquence reçue est divisée également par P(x), on conclut qu'il n'y a pas d'erreur ou qu'elle n'est pas détectée. Dans le cas contraire, la combinaison est rejetée.

En mode correction d'erreur, le décodeur calcule le reste R(x) en divisant la séquence reçue F¢(x) par P(x). Ce reste est appelé le syndrome. Le polynôme reçu F¢(x) est la somme modulo deux du mot transmis F(x) et du vecteur d'erreur E error (x) :

Alors le syndrome S(x) = F¢(x) modP(x), puisque par définition du code cyclique F(x) mod P(x) = 0. Un certain syndrome S(x) peut être associé à un certain vecteur d'erreur E osh(x). Ensuite, le mot transmis F(x) est trouvé en ajoutant .

Cependant, un même syndrome peut correspondre à 2 m de vecteurs d'erreur différents. Supposons que le syndrome S 1 (x) correspond au vecteur d'erreur E 1 (x). Mais tous les vecteurs d'erreur égaux à la somme E 1 (x) Å F(x), où F(x) est n'importe quel mot de code, donneront le même syndrome. Par conséquent, en attribuant le vecteur d'erreur E 1 (x) au syndrome S 1 (x), nous effectuerons un décodage correct dans le cas où le vecteur d'erreur est effectivement égal à E 1 (x), dans tous les autres 2 m - 1 cas le décodage sera erroné.

Pour réduire la probabilité d'une erreur de décodage, parmi tous les vecteurs d'erreur possibles qui donnent le même syndrome, celui le plus probable dans un canal donné doit être sélectionné comme celui à corriger.

Par exemple, pour un DSC, dans lequel la probabilité P 0 de réception erronée d'un symbole binaire est bien inférieure à la probabilité (1 - P 0) de réception correcte, la probabilité d'apparition de vecteurs d'erreur diminue avec l'augmentation de leur poids i . Dans ce cas, le vecteur d’erreur ayant le poids le plus faible doit être corrigé en premier.

Si seuls tous les vecteurs d’erreur de poids i et moins peuvent être corrigés par le code, alors tout vecteur d’erreur de poids compris entre i + 1 et n conduira à un décodage erroné.

La probabilité d'un décodage erroné sera égale à la probabilité P n (>i) d'apparition de vecteurs d'erreur de poids i + 1 ou plus dans un canal donné. Pour DSC, cette probabilité sera égale à

.

Le nombre total de vecteurs d'erreur différents qu'un code cyclique peut corriger est égal au nombre de syndromes non nuls – 2 n - m - 1.

Dans le projet de cours, il faut, à partir de la valeur de k calculée au paragraphe précédent, sélectionner un polynôme générateur selon le tableau donné en annexe A. A partir du polynôme générateur sélectionné, il est nécessaire de développer un codeur et circuit décodeur pour le cas d'une détection d'erreur.

1.5 Indicateurs de performance du système de communication numérique

Les systèmes de communication numérique sont caractérisés par des indicateurs de qualité, dont l'un est la fidélité (exactitude) de la transmission.

Pour évaluer l'efficacité d'un système de communication, le coefficient d'utilisation du canal de communication par puissance (efficacité énergétique) et le coefficient d'utilisation du canal par bande de fréquence (efficacité fréquentielle) sont introduits :

où V est la vitesse de transmission des informations ;

Rapport signal sur bruit à l'entrée du démodulateur

; (1.55)

Bande passante de fréquence occupée par le signal

, (1.56)

où M est le nombre de positions du signal.

Une caractéristique généralisée est le taux d'utilisation du canal en termes de débit (efficacité de l'information) :

Pour un canal de communication continu prenant en compte la formule de Shannon


on obtient l'expression suivante

. (1.58)

D’après les théorèmes de Shannon pour h=1, on peut obtenir la relation entre b et g :

b=g/(2g - 1), (1,59)

qui s'appelle la frontière de Shannon, qui représente le meilleur échange entre b et g dans un canal continu. Il est pratique de représenter cette dépendance sous la forme d'une courbe sur le plan b - g (Fig. 1.6).

Figure 1.6 – Limite de Shannon

L'efficacité du système peut être augmentée en augmentant la vitesse de transfert des informations (augmentant l'entropie des messages). L'entropie des messages dépend de la loi de distribution de probabilité. Par conséquent, pour améliorer l’efficacité, il est nécessaire de redistribuer les densités des éléments du message.

L'élimination ou l'affaiblissement des relations entre les éléments du message peut également améliorer l'efficacité des systèmes.

Enfin, des améliorations de l'efficacité du système peuvent être obtenues grâce à des choix de codage appropriés qui permettent de gagner du temps lors de la transmission des messages.

Dans le projet de cours, il est nécessaire de marquer l'efficacité du système de communication numérique conçu avec un point sur le graphique construit (Fig. 1.6).


1. Lignes directrices pour la conception des cours dans la discipline « Théorie de la connexion électrique » Bidny Yu.M., Zolotarev V.A., Omelchenko A.V. - Kharkov : KNURE, 2008.

2. Omelchenko V.A., Sannikov V.G. Théorie de la communication électrique. Parties 1, 2, 3. - K. : ISDO, 2001.

3. Théorie de la communication électrique : Manuel pour les universités / A.G. Zyuko. D.D. Klovsky, V.I. Korjik, M.V. Nazarov ; Éd. D.D. Klokovski. – M. : Radio et communications. 1998.

4. Peterson W., Weldon E. Codes de correction d'erreurs / traduction, de l'anglais. édité par R.L. Dobrushina et S.I. Samoilenko. - M- : Mir, 1999. - 596 p.

5. Andreev B.S. Théorie des circuits électriques non linéaires. Manuel manuel pour les universités. - M. : Radio et communication, 1999. - 280 p.


APPLICATION

Tableau des polynômes générateurs irréductibles de degré m

Degré m = 7

x7 + x4 + x3 + x2 + 1

x 7 + x 3 + x 2 + x + 1

Degré m = 13

x13 + x4 + x3 + x + 1

x 13 + x 12 + x 6 + x 5 + x 4 + x 3 + 1

x13 + x12 + x8 + x7 + x6 + x5 + 1

Degré m = 8

x8 + x4 + x3 + x + 1

x8 + x5 + x4 + x3 + 1

x8 + x7 + x5 + x +1

Degré m = 14

x14 + x8 + x6 + x + 1

x14 + x10 + x6 + 1

x14 + x12 + x6 + x5 + x3 + x + 1

Degré m = 9

x 9 + x 4 + x 2 + x + 1

x9 + x5 + x3 + x2 + 1

x9 + x6 + x3 + x + 1

Degré m = 15

x15 + x10 + x5 + x + 1

x 15 + x 11 + x 7 + x 6 + x 2 + x + 1

x15 + x12 + x3 + x + 1

Degré m = 10

x10 + x3 + 1

x 10 + x 4 + x 3 + x + 1

x 10 +x 8 +x à +x 2 + 1

Degré m = 16

x16 + x12 + x3 + x + 1

x 16 + x 13 + x 12 + x 11 + x 7 + x 6 + x 3 + x + 1

x 16 + x 15 + x 11 + x 10 + x 9 + x 6 + x 2 + x + 1

Degré m = 11

x11 + x2 + 1

x11 + x7 + x3 + x2 + 1

x11 + x8 + x5 + x2 + 1

Degré m = 17

x 17 + x 3 + x 2 + x + 1

x 17 + x 8 + x 7 + x 6 + x 4 + x 3 + 1

x 17 + x 12 + x 6 + x 3 + x 2 + x + 1

Degré m = 12

x12 + x4 + x + 1

x12 + x9 + x3 + x2 + 1

x12 + x11 + x6 + x4 + x2 + x+1

La qualité de fonctionnement des systèmes de transmission d'informations se caractérise par une combinaison d'un grand nombre d'indicateurs dont les principaux sont l'immunité au bruit, la vitesse, le débit, la portée, la compatibilité électromagnétique, le poids et les dimensions des équipements, le coût et la compatibilité environnementale.

L'ensemble des indicateurs de qualité du système peut être écrit sous forme de vecteur

Le meilleur système (optimal) est considéré comme celui qui correspond à la plus grande (la plus petite) valeur d'une certaine fonction.

à partir d'indicateurs de qualité privés La valeur est appelée efficacité ou indicateur général de la qualité du système, et la fonction est la fonction cible du système (critère de qualité).

L'un des points centraux de la méthodologie de conception ou de comparaison optimale des systèmes est la formation d'évaluations d'efficacité - les fonctions cibles du système. De telles évaluations sont absolument nécessaires dans les études de systèmes liées à des tâches telles que le choix du meilleur système parmi ceux existants, l'évaluation du niveau de développement du système par rapport aux normes mondiales modernes, la détermination de la version optimale d'un nouveau système (conçu), etc.

Dans les cas les plus simples, l'efficacité des systèmes est évaluée en fonction des paramètres individuels les plus importants, par exemple la vitesse, la bande passante du canal, le rapport signal/bruit, etc.

En général, une approche systématique est nécessaire, dans laquelle l'efficacité est évaluée dans son ensemble sur la base d'un ensemble de paramètres. Dans ce cas, il faut tout d’abord prendre en compte tous les paramètres les plus essentiels des systèmes. La volonté de prendre en compte tous les paramètres, y compris les petits et secondaires, conduit à une complication de la fonction cible (critère de qualité) et rend les résultats de l'évaluation difficilement visibles. Dans le même temps, limiter à l’excès le nombre de paramètres pris en compte peut conduire à un critère trop approximatif.

Toute évaluation de l'efficacité des systèmes est réalisée dans le but de prendre une certaine décision. Ainsi, lors de la conception, il est nécessaire de déterminer l’ensemble des paramètres du système permettant d’atteindre la plus grande efficacité.

L'évaluation quantitative de l'efficacité doit répondre à certaines exigences. Il doit caractériser de manière suffisamment complète le système dans son ensemble, avoir une signification physique claire et avoir la flexibilité et la polyvalence nécessaires. L'évaluation de l'efficacité du système devrait être

constructif - adapté à la fois à l'analyse et à la synthèse de systèmes. Enfin, la mesure des performances doit être suffisamment simple à calculer et facile à utiliser en pratique. Une méthode courante consiste à évaluer l'efficacité sous la forme d'une fonction linéaire

où est le nombre de paramètres (indicateurs) pris en compte ; coefficients de pondération ; - les valeurs relatives des paramètres pris en compte.

Avec cette définition des paramètres inclus dans la somme (11.27), la valeur peut être déterminée dans la plage de 0 à 1. Le meilleur système sera celui pour lequel la valeur est la plus grande.

Le choix des coefficients de pondération X est, dans une certaine mesure, arbitraire. Il en va de même pour le nombre de paramètres pris en compte. Cependant, la part d'arbitraire peut être réduite au minimum en développant une méthodologie rationnelle pour trouver ces coefficients (par exemple, la méthodologie des expertises). Les valeurs absolues des poids ne sont pas importantes ; Seuls les poids relatifs sont significatifs.

Les systèmes de communication complexes modernes ne peuvent pas toujours être caractérisés de manière exhaustive par un seul indicateur. Une évaluation basée sur plusieurs indicateurs peut être à la fois plus complète et plus substantielle, permettant de caractériser diverses propriétés du système. Il est clair qu’un grand nombre d’indicateurs est inacceptable. Il est nécessaire de disposer de plusieurs indicateurs caractérisant les principales propriétés les plus essentielles du système : informationnelles, techniques, économiques, etc. Dans de nombreux cas, il suffit de se limiter à deux indicateurs, par exemple l'immunité au bruit et la vitesse de transmission, la fréquence et l'efficacité énergétique, l'effet technique et les coûts.

En règle générale, la décision finale repose non seulement sur des données de calcul quantitatives, mais également sur l'expérience, l'intuition et d'autres catégories heuristiques, ainsi que sur des considérations supplémentaires qui n'ont pas pu être prises en compte lors de la construction d'un modèle mathématique.

Dans le cas général, le problème de l'optimisation du SPI se réduit à trouver le maximum de la fonction objectif lorsque le système (sa structure ou les valeurs de ses paramètres) varie, en tenant compte des données initiales et des restrictions sur la structure et paramètres du système.

Si la fonction objectif est donnée et l'ensemble des systèmes admissibles (ou leurs variantes) est déterminé, alors l'optimisation se réduit au problème de la sélection discrète parmi un nombre fini de systèmes donnés, c'est-à-dire choisir un système qui correspond à la plus grande (la plus petite) des valeurs

Une tâche plus complexe est le problème de l'optimisation (synthèse) de la structure du système. Si la structure du système peut être décrite de manière assez complète par des fonctions connues avec un nombre fini de paramètres, alors le problème se résume à l'optimisation de ces paramètres. Dans le cas particulier où la fonction objectif et toutes les fonctions qui définissent les contraintes dépendent linéairement des paramètres, le problème se réduit à la programmation linéaire. Dans certains

Dans certains cas, il est possible de résoudre le problème de manière analytique sur la base des méthodes d'analyse fonctionnelle.

En général, résoudre le problème d’optimisation SPI peut s’avérer complexe et inadapté à la prise de décision. Par conséquent, ils recourent généralement à une procédure d’optimisation étape par étape. D'abord, par exemple, l'optimisation est effectuée en fonction de paramètres d'information, puis en fonction d'indicateurs techniques et économiques. Dans un premier temps, un schéma structurel du système est déterminé, qui permet d'évaluer ses principales caractéristiques potentielles, de sélectionner des méthodes de modulation et de codage, ainsi qu'une méthode de traitement du signal dans le récepteur. Ensuite, les algorithmes de fonctionnement et les paramètres des blocs système individuels (modem, codec de canal, codec source, etc.) sont déterminés. La dernière étape est la conception du système.

L'analyse technique et économique repose sur au moins deux indicateurs : l'effet et les coûts. Dans le même temps, les grands principes pour déterminer l'efficacité du SPI peuvent être le principe de l'effet maximum ou le principe des coûts minimaux.

Les coûts sont généralement considérés comme les coûts annuels donnés par unité de production (dans notre cas, le coût de transmission d'un bit par seconde).

Optimisation SPI.

L'effet utile (produit) dans SPI est la quantité d'informations délivrées au consommateur par unité de temps (vitesse de transmission) pour une fidélité de transmission donnée, c'est-à-dire la vitesse de transmission moyenne sur un canal dans un réseau de communication avec la probabilité d'une erreur. Cette vitesse est généralement appelée capacité du système et est désignée par opposition à la capacité du canal de Shannon C. Si C est un concept théorique qui caractérise les capacités limites de. le canal, c'est-à-dire une caractéristique technique qui dépend des caractéristiques réelles et de l'équipement de ce système.

Par définition

Voici le nombre de bits d'information transmis sur un canal dans un réseau de communication pendant le temps où est le temps de transmission (durée) du message ; le temps de retard, y compris le temps d'attente ; efficacité du codec source, redondance des messages (source), efficacité du canal calculée en tenant compte du code de correction, type de modulation et pertes dans le canal, efficacité du codec du canal, - efficacité de modulation, efficacité du réseau.

En prenant en compte les expressions (11.4) et (11.28) on a

où d'après (11.23) et (11.24)

Avec; - il s'agit de la quantité réelle d'informations délivrées au consommateur par unité de temps pour une qualité de transmission donnée

Lors de l'optimisation du SPI, l'expression (11.29) pour peut être prise comme fonction objectif. La tâche sera alors de trouver un système de communication qui fournit le maximum de cette fonction dans des conditions et restrictions données. Mathématiquement, il s’agit d’un problème de programmation non linéaire et, dans certains cas, linéaire. Dans certains cas particuliers, le problème est résolu analytiquement, comme un problème de recherche de l'extremum d'une fonctionnelle. Dans les cas où il est nécessaire de garantir une valeur donnée suffisamment élevée, le choix du système s'effectue en analysant (en comparant) les options possibles qui répondent aux exigences spécifiées. La valeur requise de C dans ces cas est obtenue par un choix de compromis des indicateurs inclus dans l'expression (11.29), en tenant compte des exigences techniques et économiques.

Le problème de l'optimisation de SPI se pose à la fois lors du développement de nouveaux systèmes et lors de l'amélioration de systèmes existants. Dans de nombreux cas, l’objectif est d’accroître l’efficacité de l’IPS. La solution à un tel problème n’est pas sans ambiguïté. Une valeur élevée (ou nécessaire) de C selon (11.29) peut être obtenue de différentes manières.

Considérons cela en utilisant l'exemple d'un système de transmission de messages discrets (SDTS). Nous supposerons que le réseau de communication dans lequel le SPDS en question doit fonctionner est connu (son efficacité est précisée. La source des messages est généralement également connue (sa redondance est précisée. La fidélité (erreur) requise de la transmission rpop est également précisée.

La bande passante du canal C est la ressource informationnelle du système. Il est généralement spécifié ou sélectionné sur la base des normes existantes. Il existe des options ici lors du choix. Selon la formule de Shannon, la valeur est entièrement déterminée par la ressource énergétique et la ressource fréquentielle. Le choix de la bande de fréquence du canal est très limité et est réglementé par des accords internationaux. Quant à la ressource énergétique, elle dépend de la puissance de l'émetteur et de la température de bruit du récepteur, et dans les systèmes radio, du gain de l'antenne O. où A est un coefficient constant. Cela implique la possibilité de faire varier les valeurs pour obtenir la valeur requise de C. Ainsi, l'utilisation d'antennes hautement directionnelles peut améliorer considérablement l'énergie du canal pour un émetteur et un récepteur donnés.

Avec la valeur sélectionnée de C et les valeurs données, l'augmentation de l'efficacité du SPI se réduit à augmenter l'efficacité du canal. Selon (11.4), l'efficacité de l'information dépend de l'efficacité énergétique et de la vitesse spécifique y, qui peuvent être calculées à l'aide de formules. (11.8) et (11.9). Ensuite, pour une probabilité d'erreur donnée et la valeur calculée de l'énergie du canal à l'aide de nomogrammes d'échange (Fig. 11.6), vous pouvez choisir le type de modulation et la méthode de codage.



Des questions ?

Signaler une faute de frappe

Texte qui sera envoyé à nos rédacteurs :