Die große Thomas-Fluri-Kritik an der Metas-5G-Messempfehlung (Technik)

Kuddel, Samstag, 03.02.2024, 22:48 (vor 323 Tagen) @ H. Lamarr
bearbeitet von Kuddel, Sonntag, 04.02.2024, 00:00

Freut mich "Kuddel", dass Sie mal wieder hier reinschauen.

von Zeit zu Zeit treibt mich doch noch die Neugier

Gigaherz-Jakob faselt gerne von 1000 (und mehr) Nutzern in einer 5G-Funkzelle (Beispiel). Was halten Sie davon?

Konkrete Angaben zur Teilnehmerkapazität einer (typischen) 5G-Funkzelle mit Beamforming-Antennen konnte ich im www nicht auftreiben, Nils Kuster, der es eigentlich wissen muss, schrieb jedoch einmal, eine 5G-Funkzelle könne weniger Teilnehmer bedienen als eine LTE-Funkzelle. Mit Blick auf IoT ist jedoch häufig von extrem hohen Teilnehmerzahlen (IoT-Sensoren) pro Quadratkilometer zu lesen.

Ich bin kein besonderer Experte auf dem Gebiet von 5G, kenne mich jedoch einigermaßen mit MIMO Prinzipien aus. Ich gehe schon davon aus, dass sich die Anzahl gleichzeitiger Verbindungen bei Umstellung auf 5G um ein Vielfaches erhöht, da mit Massive MIMO quasi virtuell die Anzahl der "Sektoren" gegenüber 4G vervielfacht, die jeweils zeitgleich unterschieldiche Nutzer adressieren können.
Der "Multiple Access" passiert nicht nur im Zeitbereich über "Zeitschlitze", sondern auch im Frequenzbereich über Zuweisung von OFDM(A) Unterträgern (quasi werden "Bruchteile" der Kanalbandbreite unterschieldichen Nutzern über die OFDM-Unterträger zugewiesen) sowie im räumlichen Bereich per MU-MIMO (Multiple User - Multiple Input-Multiple-Output).
Der Controller in der Basistation muss sich sozusagen "überlegen", wie er die vorhandene Zell-Kapazität am effizientesten über diese 3 Möglichkeiten auf die vorhandenen Nutzer aufteilt ("Zeit", "Frequenz" oder "Raum").

TDMA (=Aufteilung der Zell Kapazität über Zeitschlitze) wird eher für die geringeren Datenraten Anwendung kommen (wie IOT oder Sprache), oder falls sich ein Nutzer am Zellrand befindet und nur versorgt werden kann, indem zumindest kurzfristig (per Zeitschlitz) der maximale Antennengewinn auf ihn gerichtet wird.
Bei den beiden anderen Methoden (Mutliple User per Frequenz und Raum) ist es nämlich so, dass mit zunehmender Zahl der Nutzer sich der "Beam" der Antenne aufweitet und sich der Antennengewinn entsprechend dem größeren Abstrahlwinkel(auf mehrere gleichzeitige Nutzer) reduziert.

Also muss man mMn beachten, welche Datenmenge ein Teilnehmer, egal ob Mensch oder IoT-Sensor in einer 5G-Funkzelle abruft. Und weil bei Beamforming-Antennen im 3,x-GHz-Band TDD zum Einsatz kommt, muss auch dieses beachtet werden. Außerdem ist 5G in der Lage zu unterscheiden, wie viel Datenübertragungskapazität ein Teilnehmer abverlangt und liefert nicht mehr aus, als benötigt. Ergo kriegt ein IoT-Sensor am Zellenrand einen starken Beam nur extrem kurz zugeteilt, ein Streamer dagegen deutlich länger.

Die Kapazität wird nicht nur über Zeitschlitze verteilt, sondern auch über OFDMA Unterträger .
Die Kanalbandbereite ist z.B. 10MHz, der Unterträgerabstand 15kHz => dann verfügt die Basis über ca 600 Unterträger (zeitgleich !)

Der Controller in der Basis hat "die Wahl", ob er das IOT Gerät über viele Unterträger für eine sehr kurze Zeit versorgt, oder über sehr wenige Unterträger über einen entsprechend längeren Zeitschlitz.
Die Unterträger können beim "Beamforming" prinzipiell (zeitgleich) in verschiedene Richtungen mit maximal möglichem Antennengewinn gelenkt werden, so dass mehrere zig Nutzer simultan mit einer (geringen) Datenrate (= mit einem Bruchteil der Unterträger) versorgt werden könnten.

Allerdings: Da sich die Leistung des 10MHz Kanals auf die Unterträger gleichmäßig verteilt, hat jeder Untergräger nur einen Bruchteil der Gesamtleistung.

Bei z.B. 600 Unterträgern und 30 Watt Sendeleistung wären das 50mW Leistung pro Unterträger.
Wenn Nutzer "A" also 12 (von insgesamt 600) Unterträgern zugewiesen bekommt, würden 600mW der verfügbaren 30Watt per Strahl (beam) in "seine" Richtung gelenkt werden.
Zeitgleich könnten 12 andere Unterträger (600mW) in eine andere Richtung abgestrahlt werden , usw. Benötigt ein Nutzer eine höhere Datenrate, könnten ihm auch 24 , 36 oder 48 oder mehr Unterträger zugewiesen werden => in dem Fall würde sich die EIRP in "seine" Richtung entsprechend erhöhen.

Wenn also mehrere Beams in verschiedene Richtungen gelenkt werden, reduziert sich die "EIRP", da sich die 30 Watt Leistung über die Unterträger auf die verschiedenen Richtungen aufteilen
Nur wenn ein einziger Nutzer alle Unterträger und alle Zeitschlitze *zugleich* zugewiesen bekommt (weil kein anderer Nutzer Daten benötigt) , nur dann entsteht der Grenzfall der maximal möglichen EIRP. In diesem Beispiel würden alle 600 Unterträger per "beam" in die gleiche Richtung gelenkt werden würden.

Ich habe aber beim BFS gelesen, dass es dagegen einen Sicherheitsmechanismus gibt ("Safe-Power-Lock"), der verhindert, dass die EIRP zulässige Grenzwerte überschreitet. Die Basis "weiss" ja schliesslich, wieviel Leistung sie in welche Richtung sendet. Daher wird sie die Sendeleistung herunterregeln, falls dieser Grenzfall auftritt wenn nur ein- oder sehr wenige- Nutzer in unmittelbarer Nähe zueinander die gesamte Zellkapazizät abrufen

Meinem Verständnis nach kann die der Basis-Cotroller also per "Software" so konfiguriert werden, dass EIRP auf einen bestimmten Wert begrenzt wird.
Sobald viele Nutzer in der Zelle die Leistung in verschiedene Richtungen "lenken", wird sich die EIRP sowieso reduzieren.

Nehmen wir mal an, ein Beam maximaler Stärke kann einen einzelnen Teilnehmer am Zellenrad mit 1 Gbit/s versorgen. Wegen TDD könnte der Beam auch zehn Teilnehmer am Zellenrand versorgen, dann aber jeden nur noch mit 100 Mbit/s, 100 Teilnehmer mit 10 Mbit/s und 1000 mit 1 Mbit/s, was für Videostreamen schon zu wenig wäre, für viele IoT-Sensoren aber mehr als genug.

Soweit kann ich mir die Teilnehmerkapazität einer 5G-Funkzelle im 3,x-GHz-Band noch selber herleiten. Aber wie sieht es mit dem TDD-Timing aus, könnte so eine Funkzelle auch 10'000 (oder mehr) wenig datenhungerige IoT-Sensoren versorgen?

Ich bin ehrlich gesagt nicht mit den technischen 5-G Parametern vertraut, aber ich schätze mal grob unter vernachlässigung vom "Overhead" (z.B Pilotträger, Kotrollkanäle etc) :
Der minimale Zeitschlitz (ich schätze ca 7 OFDM Symbole) dürfe um die 500us liegen, während ein "Frame" üblicherweise 10ms beträgt. D.h. es passen ca 20 Zeitschlitze in einen 10ms Frame.
Nehmen wir an, 33% des Frames seien Uplink-Zeit und 66% downlink-Zeit (TDD=Time Domain Duplex)

Ferner gibt es bei einem 10MHz Kanal ca 600 OFDM Einzelträger, wobei immer minimal 12 Träger zu einem "Subkanal" gebündelt werden und möglicherweis 1/3 der Träger fürs Protokoll-Handling und Redundanz draufgehen. D.h. es gibt ca 50 Sub-Kanäle" (*0,66) = 33 Daten-Sub-Träger, die in 20 (*0,66) = 13 Downlink Zeitschlitze aufgeteilt werden könnten. Das allein ergäbe die Möglichkeit ca 260 "IOT-Geräte" innerhalb eines 10ms-Frames zu versorgen... allerdings nur mit minimalsten Datenraten. Wird jedes IOT Gerät nur jeden 10 Frame, also alle 100mS adressiert, könnten schon 2600 IOT Geräte versorgt werden

Gigaherz-Jakob tut so, als wären die 1000 Teilnehmer allesamt Menschen, die pausenlos Videos streamten, so eine Funkzelle ständig im Volllastbetrieb halten und die Bevölkerung gnadenlos verstrahlen würden. Das ist mMn mit Sicherheit Blödsinn, schon weil wegen TDD die Immission zeitlich und wegen Beamforming räumlich verteilt und nicht ständig auf einen Ort konzentriert wird.

1000 Teilnehmer gleichzeitig wären "strahlungstechnisch" der unkritischte Fall, weil sich die Leistung der Basis dann auf die Versorgungs-Fläche der 1000 Teilnehmer verteilen würde

Der ungünstigste (Grenz) Fall ist, wenn ein Teilnehmer allein sämtliche Kapazität der Basis abruft , da sich die verfügbare Leistung dann ein einem "schmalen" Strahl bündeln könnte. Vermutlich greift dann der "Safelock" Mechanismus.


Wie gesagt, ich bin kein ausgewiesener 5G "Experte", sondern verfüge nur über ein gesundes Halbwissen...

K


gesamter Thread:

 RSS-Feed dieser Diskussion

powered by my little forum