Lehrstuhl für Nachrichtentechnik, Technische Universität - LNTwww

Lehrstuhl für Nachrichtentechnik, Technische Universität - LNTwww

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution Lerntutorial LNTwww (online unter www.lntwww.de) Überblick zu Kapitel 4 von „Mobile Ko...

883KB Sizes 0 Downloads 2 Views

Recommend Documents

Lehrstuhl Entwerfen und Siedlungsentwicklung Technische
1965 erhielt Ernst May den Auftrag für die Planung von Neu Kranichstein. Seine Planung sah geknickte. Hochhauswände vo

Technische Universität München Lehrstuhl für Leichtbau - mediaTUM
Jürgen Hoffmann. Vollständiger ...... Ogden. • Marlow. Die oben beschiebenen Effekte machen die mechanische Beschreibung

Lerntutorial LNTwww - Inhaltsübersicht
Arithmetische Codierung. Lauflängencodierung – Run–Length Coding. Burrows–. Wheeler–Transformation. Anwendungsszenario f

Fernmelde- und Nachrichtentechnik
28.07.2013 - Professionelle TK-Systeme und -Endgeräte, Tür- kommunikation, Navigationsgeräte ...... 263-270. Türfreispre

TECHNISCHE UNIVERSITÄT MÜNCHEN Lehrstuhl für - mediaTUM
AutoCAD Architecture (AutoDesk), EliteCAD (Messerli) angeboten. Unter [ifcwikiorg 2009] werden als weitere kommerzielle

universitt hermannstadt - ULBS
Grazziella Predoiu: Der voyeuristische Blick auf das andere Geschlecht. Zu E.T.A. Hoffmanns Des Vetters Eckfenster. 227-

Fr Do Fr - JenaKultur
08.06.2017 - werden muss, sondern die prämierte Kurzgeschichtenausgabe, die ein Nicker- chen oder den WG-Einkauf dazwis

und Nachrichtentechnik GmbH - STG Kommunikation
Firma Immeo Wohnen GmbH, hat mit uns einen Rahmenvertrag zur Versorgung Ihres Gebäudes mit einer hochmodernen TV Versor

FR 110
3.3.2. Analoge 1-2-4-Schnittstelle anschließen. (nur bei FR 100). 13. 4 .... prüfung). Diese Unterlagen können beim J

Skript zum Versuch Videocodierung - Institut für Nachrichtentechnik
15.06.2011 - dasselbe Symbol. Man spricht dann von einer Lauflängencodierung. Nach dem Shannon'schen Codierungstheorem [

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de)

Überblick zu Kapitel 4 von „Mobile Kommunikation” Das Kapitel 4 bietet einen Überblick über Long Term Evolution (LTE). LTE ist ein aus heutiger Sicht (2011) neuer Mobilfunkstandard, der UMTS ersetzen soll und vermutlich die nächsten Jahre der mobilen Sprach- und Datenübertragung prägen wird. Im Folgenden wird zunächst eine grobe Übersicht über Motivation, Funktionsweise und Eigenschaften von LTE gegeben. Danach folgt eine tiefer gehende Systembeschreibung der technischen Abläufe bei LTE, insbesondere im Kapitel 4.4 zum Thema „Bitübertragungsschicht”. Darüber hinaus werden in diesem Kapitel behandelt: Die Motivation für LTE und die Frequenzbandaufteilung, die Entwicklung der Mobilfunkstandards hin zu LTE, einige technische Details zur Sprach- und Datenübertragung, das im Uplink genutzte Übertragungsverfahren SC-FDMA und dessen Unterschiede zu OFDMA, die Beschreibung und Funktionsweise der verschiedenen Kanäle in der Bitübertragungsschicht, ein Ausblick auf das Nachfolgesystem LTE-Advanced. Nachtrag: Das LTE–Kapitel entstand 2011, also zu der Zeit, als LTE gerade eingeführt wurde. Bei der letzten redaktionellen Überarbeitung im Herbst 2016 wurden einige frühere Aussagen revidiert, die nach fünf Jahren intensiver Nutzung durch viele Kunden nicht mehr den Tatsachen entsprechen. Der Großteil des Kapitels blieb aber gegenüber 2011 unverändert, da sich am LTE–Prinzip in der Zwischenzeit nichts geändert hat. Geeignete Literatur: [DFJ++08] – [Fuj09] – [Ges08] – [GR09] – [Gut10] – [Hin08] – [HR09] – [HT09] – [IXIA09] – [Mey10] – [MG08] – [MLG06] – [Sol09] – [Vie16] – [WGM07]

Die Theorie zu LTE wird auf 40 Seiten dargelegt. Außerdem beinhaltet dieses Kapitel noch 33 Grafiken, fünf Aufgaben und zwei Zusatzaufgaben mit insgesamt 34 Teilaufgaben, sowie drei Interaktionsmodule (IM), nämlich: •

Diskrete Fouriertransformation (IM zu Kapitel 4.3)



OFDM (IM zu Kapitel 4.3)



Prinzip der QAM (IM zu Kapitel 4.4)

Lehrstuhl für Nac hric htentec hnik (LNT)

1 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.1 Allgemeines zum Mobilfunkstandard LTE

Entwicklung der Mobilfunkteilnehmer bis 2010 Während der letzten Jahre hat die Anzahl der Mobilanschlüsse drastisch zugenommen. Die Grafik zeigt für die Jahre 2004 bis 2010 bei den absoluten Zahlen der mobilen Endgeräte (rote Balken, linke Skala) eine Zunahme von 1.8 auf ca. 5 Milliarden weltweit. Die blauen Balken (linke Skala) zeigen die Entwicklung der Weltbevölkerung im gleichen Zeitraum. Die (prozentuale) Anzahl der Mobiltelefone (grüne Kurve, rechte Skala) bezogen auf die Weltbevölkerung ist in den Jahren 2004 bis 2010 von knapp 30% auf über 70% gestiegen. Dabei fließen natürlich Nutzer mit mehr als einem Mobiltelefon in die Statistik ein. 2010 besaßen also keineswegs 70% der Weltbevölkerung ein Mobiltelefon.

Überproportional zugenommen hat – insbesondere seit der Einführung von Flatratetarifen – die Nutzung mobiler Datendienste. Die folgende Aussagen beziehen sich auf das Jahr 2010: Der globale mobile Datenverkehr verzeichnete 2010 einen Zuwachs um 159 Prozent und ist damit deutlich stärker angestiegen als erwartet. Mobile Datenübertragung verursacht bereits jetzt mehr Netzwerkbelastung als die Sprachübertragung im Mobilfunknetz. Allein der mobile Datenverkehr war damit im Vergleichsjahr 2010 dreimal so groß wie das komplette Verkehrsaufkommen im Jahr 2000 (damals vorwiegend Sprachübertragung). Obwohl Smartphones 2010 nur 13 Prozent aller mobilen Endgeräte ausmachten, waren sie für 78 Prozent der Daten– und Sprachübertragung verantwortlich. Zu dieser Entwicklung haben auch 94 Millionen Laptop–Nutzer beigetragen, die das Internet unterwegs über UMTS–Modems nutzten. Ein solcher Laptop–Nutzer verursacht dabei im Mittel die 22–fache Datenmenge eines durchschnittlichen Smartphone–Benutzers.

Lehrstuhl für Nac hric htentec hnik (LNT)

2 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.1 Allgemeines zum Mobilfunkstandard LTE

Einige Eigenschaften von LTE Das Kürzel LTE steht für Long Term Evolution und bezeichnet den neuen, UMTS nachfolgenden Mobilfunkstandard. Durch die konzeptionelle Neuentwicklung soll LTE auf lange Zeit („Long Term”) den sich immer weiter erhöhenden Bedarf an Bandbreite und nach höheren Geschwindigkeiten stillen. Der LTE–Standard wurde erstmals 2008 als UMTS–Release 8 durch das 3GGP (Third Generation Partnership Project) – einem Konglomerat verschiedener internationaler Telekommunikationsverbände – definiert und wird seitdem kontinuierlich durch sogenannte „Releases” fortentwickelt. Durch das Bekenntnis der größten Mobilfunkanbieter weltweit ist LTE der erste (großteils) einheitliche Standard der Mobilfunktechnologie. Man bezeichnet LTE entsprechend der UMTS–Release 8 auch als „3.9G”, da es die von der ITU (International Telecommunication Union) spezifizierten Bedingungen für den Mobilfunk der vierten Generation (4G) zunächst nicht ganz erfüllt. Das momentan neueste Release 10 (vom Juli 2011) genügt dagegen dem 4G–Standard. Im Kapitel 4.5 sind die Features dieser als LTE–A ( LTE–Advanced) bezeichneten Technik angegeben. Nachfolgend sind wichtige Systemeigenschaften von LTE stichpunktartig zusammengestellt. Einige der Aussagen entstammen der Internetseite ITWissen: LTE basiert auf den Mehrfachzugriffsverfahren OFDMA ( Orthogonal Frequency Division Multiple Access) im Downlink bzw. SC–FDMA ( Single Carrier Frequency Division Multiple Access) im Uplink. Die detaillierte Beschreibung von OFDMA und insbesondere auch dessen Unterschiede zu OFDM findet sich in Kapitel 4.3. Die Verwendung dieses Modulationsverfahrens ermöglicht Orthogonalität zwischen den einzelnen Nutzern, was in einer erhöhten Netzwerkkapazität resultiert [HT09]. Diese Technik ermöglicht in Verbindung mit Multiple Input Multiple Output (MIMO) derzeit (2011) Spitzendatenraten von 100 Mbit/s im Downlink. Neben der gegenüber dem 3G–System UMTS deutlich höheren Datenrate nutzt die LTE–Technik die zur Verfügung stehende Bandbreite effizienter aus. Durch die Kombination des aktuellsten Stands der Technologie mit den vorhandenen Erfahrungen von GSM und UMTS ist der neue Standard damit nicht nur sehr viel schneller, sondern zudem auch einfacher und flexibler [Mey10].

Lehrstuhl für Nac hric htentec hnik (LNT)

3 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.1 Allgemeines zum Mobilfunkstandard LTE

Motivation und Ziele von LTE Das amerikanische Telekommunikationsunternehmen Cisco Systems ging 2010 in einem White Paper davon aus, dass im Jahre 2015 die Nutzung mobiler Daten sechsundzwanzigmal höher sein wird als noch 2010, diese Nutzung dabei pro Jahr nochmals um 92% zunimmt, und die gigantische Menge von 6.3 Exabyte (6.3 · 1018 Byte) pro Monat erreicht wird. Es wurde außerdem vorausgesagt, dass 2015 fünf Milliarden Menschen mit dem Internet verbunden sein werden [HT09]. Darüber hinaus werden aber gleichzeitig weitere kabellose Übertragungstechnologien entwickelt, die ebenso hohe Datenübertragungsraten versprechen. Alle diese Faktoren verlangten und verlangen nach einer Weiterentwicklung des 3GPP–Mobilfunkstandards „UMTS”. Der Ericsson Mobility Report von 2015 zeigt, dass die Prognose von 2010 übertroffen wurde. 2014 gab es bereits 7.1 Milliarden mobile Teilnehmer mit Internetzugang, 2020 sollen es 9.2 Milliarden sein.

Das 3GPP–Konsortium hat früh mit der Definition der Ziele von LTE begonnen, um mit der rasanten Entwicklung bei leitungsbezogenen Verbindungen mithalten zu können. Die genauen Ziele wurden dann Ende 2004 in der LTE Release 6 vergleichend zur HSPA–Technologie ( High Speed Packet Access) festgeschrieben. Als Hauptziele wurden genannt: Eine rein paketorientierte Übertragung und ein hohes Maß an Beweglichkeit und Sicherheit, geringere Komplexität, Kostenreduzierung und optimierte Batterielaufzeiten der Endgeräte, Bandbreitenflexibilität zwischen 1.5 MHz und 20 MHz, eine möglichst hohe spektrale Effizienz (Datenrate pro einem Hertz Bandbreite), maximal mögliche Datenraten von 100 Mbit/s im Downlink bzw. 50 Mbit/s im Uplink, Signaldurchlaufszeiten geringer als 10 Millisekunden. Dies bedeutet eine Erhöhung der spektralen Effizienz um den Faktor zwei bis vier, eine Reduktion der Latenz auf die Hälfte und eine Verzehnfachung der maximalen Datenrate im Vergleich zu HSPA. Auf die einzelnen Punkte, die einen Großteil der LTE–spezifischen technischen Charakteristika darstellen, wird in Kapitel 4.2 noch genauer eingegangen.

Lehrstuhl für Nac hric htentec hnik (LNT)

4 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.1 Allgemeines zum Mobilfunkstandard LTE

Entwicklung der UMTS-Mobilfunkstandards hin zu LTE Die Entwicklung der Mobilfunkstandards der dritten Generation wurde bereits im dritten Kapitel dieses Buches ausführlich thematisiert. Aus diesem Grund wird hier detailliert nur auf die neueren Entwicklungen eingegangen. Zunächst eine kurze unkommentierte Übersicht der UMTS Releases vor LTE aus [Hin08]: Release 99 (Dezember 1999): UMTS 3G FDD und TDD; 3.84 Mchip/s; CDMA–Luftschnittstelle. Release 4 (Juli 2001): Niedrigere Chiprate (1.28 Mchip/s) bei TDD; einige Korrekturen und kleinere Verbesserungen. Release 5 (März 2002): IP Multimedia Subsystem (IMS); High-Speed Downlink Packet Access (HSDPA). Release 6 (März 2005): High-Speed Uplink Packet Access (HSUPA); Multimedia Broadcast&Multicast Services (MBMS); Kooperation mit Wireless LAN; Push–to–Talk; Generic Access Network (GAN). Release 7 (Dezember 2007): Verkleinerung der Latenzzeit; verbessertes Quality of Service (QoS); Echtzeitanwendungen (zum Beispiel VoIP, EDGE Evolution); MIMO bei UMTS; TDD–Option 7.68 Mchip/s. Da s Release 8 vom Dezember 2008 war gleichbedeutend mit der Einführung von Long Term Evolution (LTE) und die Basis für die erste Generation von LTE–fähigen Endgeräten. Die wichtigsten Neuerungen und Charakteristiken von Release 8 – zusammengefasst vom 3GPP – waren: Eine hohe spektrale Effizienz und sehr kurze Latenzzeiten, die Unterstützung verschiedener Bandbreiten, eine einfache Protokoll– und Systemarchitektur, Rückwärtskompatibilität und Kompatibilität zu anderen Systemen wie cdma2000, FDD (Frequency Division Duplex) und TDD (Time Division Duplex) wahlweise nutzbar, Unterstützung von Self-Organizing Networks (SON). Auf diese Features (und einige andere mehr) wird in Kapitel 4.2 noch im Detail eingegangen. Release 9 enthält demgegenüber nur kleinere Verbesserungen und wird hier nicht näher betrachtet. Das momentan neueste Release 10 vom Juli 2011 beschreibt die Weiterentwicklung LTE–Advanced (LTE–A).

Lehrstuhl für Nac hric htentec hnik (LNT)

5 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.1 Allgemeines zum Mobilfunkstandard LTE

LTE–Frequenzbandaufteilung Für LTE werden neue Frequenzen benötigt. In Deutschland wurden 2010 hierfür zwei Frequenzbereiche versteigert. Die Grafik veranschaulicht die Ergebnisse dieser Frequenzversteigerung. „Bereich um 800 MHz” (791 ... 862 MHz): Hier wurden nur gepaarte Spektren für FDD vergeben; je zweimal 10 MHz für die Telekom, O2 und Vodafone; „Bereich um 2.6 GHz” (2.5 ... 2.69 GHz): Hier wurden neben gepaarten Spektren für FDD (insgesamt 140 MHz) auch ungepaarte Spektren für TDD (50 MHz) vergeben. Mehr über den Unterschied zwischen FDD und TDD findet sich in Kapitel 4.2. Die beiden versteigerten Frequenzbereiche haben unterschiedliche Systemeigenschaften, die sie jeweils interessant für verschiedene Anwendungsbereiche machen: Der Bereich um 800 MHz wird auch als Digitale Dividende bezeichnet, da er durch die Umstellung der (terrestrischen) TV–Übertragung von PAL auf DVB–T („Digitalisierung”) frei wurde. Laut Vereinbarung der Bundesregierung mit den (deutschen) Netzbetreibern muss dieser Bereich dazu genutzt werden, bisher schlecht versorgte Regionen zu „Schnellem Internet” zu verhelfen. Definiert wurden vier Stufen für den Versorgungsgrad einer Region mit Breitbandinternet. Erst wenn in ganz Deutschland 90% der jeweilig vorangegangenen Stufe abgedeckt sind, darf mit der nächsten Stufe begonnen werden. Die Wahl für dieses Projekt fiel auf den vergleichsweise niedrigen Frequenzbereich um 800 MHz mit besseren Ausbreitungseigenschaften als bei 2600 MHz, was für die kostengünstige Versorgung ländlicher Bereiche sinnvoll und auch notwendig ist. Eine LTE-800 Basisstation erreicht einen maximalen Senderadius von etwa 10 km. Das Verhältnis Nutzer pro Fläche ist geringer als bei LTE–2600. Daraus ergibt sich, dass LTE–800 eher für dünn besiedelte Regionen geeignet ist. Der Frequenzbereich von 821 MHz bis 832 MHz bleibt frei, um Interferenzen zwischen dem Uplink und dem Downlink zu vermeiden ⇒ Duplexlücke. Darüber hinaus kann dieser für die Veranstaltungstechnik genutzt werden, da Frequenzen um 800 MHz schon vor Einführung von LTE von Funkmikrofonen genutzt wurde. In solchen Gebieten, in denen LTE flächendeckend verfügbar ist, müssen zukünftig Funkmikrofone auf die Duplexlücke ausweichen können. Die unterschiedliche Bedeutung der beiden Frequenzbereiche für die Netzbetreiber werden auch am Ergebnis der Frequenzversteigerung von 2010 deutlich. Die 60 MHz um 800 MHz erbrachten knapp 3.6 Milliarden Euro (60 Euro/Hz), die 190 MHz um 2.6 GHz nur 344 Millionen Euro (1,80 Euro/Hz). Zum Vergleich: Die Versteigerung der UMTS–Frequenzen im Jahr 2000 resultierte in der astronomische Summe von 50 Milliarden Euro für 60 MHz ⇒ 833 Euro/Hz. Es besteht zudem die Möglichkeit, LTE nach und nach in das bestehende GSM–Netz um 900 MHz bzw. 1800 MHz einzuführen. Dies wird insbesondere durch die Spektrumsflexibilität von LTE begünstigt.

Lehrstuhl für Nac hric htentec hnik (LNT)

6 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.1 Allgemeines zum Mobilfunkstandard LTE

3GPP – Third Generation Partnership Project Auf den letzten Seiten wurde schon mehrfach das Third Generation Partnership Project (oder kurz 3GPP) erwähnt. Hier soll ein kurzer Überblick über das Selbstverständnis dieser Gruppe, seine Struktur und seine Aktivitäten gegeben werden. Die Informationen sind direkt der 3GPP–Website entnommen. Das 3GPP ist eine Gruppe verschiedener internationaler Normierungsorganisationen, die sich zum Zweck der Einheitlichkeit zusammengeschlossen haben. Es wurde am 4.12.1998 von fünf Partnern gegründet: ARIB (Association of Radio Industries and Businesses, Japan) ETSI (European Telecommunication Standards Institute) ATIS (Alliance for Telecommunications Industry Solutions, USA) TTA (Telecommunications Technology Association, Korea) TTC (Telecommunications Technology Committee, Japan) Das 3GPP entwickelt, akzeptiert und pflegt einen weltweit anwendbaren Standard im Mobilfunk. Die regelmäßig und häufig abgehaltenen Konferenzen sind die wichtigsten Instanzen bei der Fortschreibung der Standardisierung der technischen Spezifikationen von LTE. Änderungsanträge durchlaufen einen festgesetzten Standardisierungsprozess mit drei Stufen, der hohe Qualität und eine gute Strukturierung der Arbeit des 3GPP ermöglicht. Hat ein Release die letzte Stufe erreicht und ist fertiggestellt, wird er von den Partnern bzw. den in den Partnerorganisationen vereinigten Telekommunikationsunternehmen an den Markt weitergegeben. In [Gut10] findet man folgende Einschätzung: „Ziel der 3GPP–Standardisierung ist die Erstellung von technischen Spezifikationen (TS), die alle technischen Details einer Mobilfunktechnologie detailliert beschreiben. Die Spezifikationen für LTE sind extrem umfangreich. Der Detailgrad ist so hoch gewählt, damit Mobilfunkgeräte unterschiedlicher Hersteller in allen Netzen problemlos funktionieren”.

Lehrstuhl für Nac hric htentec hnik (LNT)

7 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

Zur Sprachübertragung bei LTE Anders als die bisherigen Mobilfunkstandards unterstützt LTE nur eine paketorientierte Übertragung. Für die Sprachübertragung wäre jedoch eine verbindungsorientierte Übertragung mit fester Reservierung der Ressourcen besser, da eine „gestückelte Übertragung” – wie es beim paketorientierten Verfahren der Fall ist – relativ kompliziert ist. Das Problem der Einbindung von Sprachübertragungsverfahren war eine der großen Herausforderungen bei der Entwicklung von LTE, denn die Sprachübertragung ist für die Netzbetreiber weiterhin die größte Einnahmequelle. Es gab einige Ansätze, wie dem Internet–Artikel [Gut10] entnommen werden kann. 1. Eine sehr einfache und nahe liegende Methode ist Circuit Switched Fallback (CSFB). Hier wird für die Sprachübertragung eine leitungsgebundene Übertragung verwendet. Das Prinzip ist: Das Endgerät meldet sich im LTE–Netz an und parallel dazu auch noch in einem GSM– oder UMTS–Netz. Bei eingehendem Anruf erhält das Endgerät von der Mobile Management Entity (MME, Kontrollknoten im LTE–Netz zur Nutzer–Authentifizierung) eine Nachricht, woraufhin eine leitungsgebundene Übertragung über das GSM– oder das UMTS–Netz aufgebaut wird. Ein Nachteil dieser Lösung (eigentlich ist es eine „Problemverschleierung”) ist der stark verzögerte Verbindungsaufbau. Außerdem verhindert CSFB die komplette Umstellung des Netzes auf LTE. 2. Eine weitere Möglichkeit zur Integration von Sprache in ein paketorientes Übertragungssystem bietet Voice over LTE via GAN (VoLGA), die auf der von 3GPP entwickelten GAN-Technologie ( Generic Access Network) basiert. In aller Kürze lässt sich das Prinzip wie folgt darstellen: GAN ermöglicht leitungsbezogene Dienste über ein paketorientiertes Netzwerk (IP–Netzwerk), beispielsweise WLAN (Wireless Local Area Network ). Mit kompatiblen Endgeräten kann man sich so im GSM–Netz über eine WLAN–Verbindung registrieren lassen und leitungsbasierte Dienste nutzen. VoLGA nutzt diese Funktionalität, in dem es WLAN durch LTE ersetzt. Vorteilhaft ist die schnelle Implementierung von VoLGA, da keine langwierige Neuentwicklung und keine Änderungen am Kernnetz notwendig sind. Allerdings muss dem Netz als Hardware ein sogenannter VoLGA Access Network Controller (VANC) hinzugefügt werden. Dieser sorgt für die Kommunikation zwischen Endgerät und Mobile Management Entity bzw. dem Kernnetz. Auch wenn VoLGA für Sprachverbindungen nicht auf ein GSM– oder UMTS–Netz zurückgreifen muss wie CSFB, wurde es auf Grund ihrer Benutzerunfreundlichkeit vom Großteil der Mobilfunkgemeinde auch nur als (unbefriedigende) Brückentechnologie betrachtet. T–Mobile war lange ein Verfechter der VoLGA–Technologie, beendete im Februar 2011 jedoch ebenfalls die weitere Entwicklung. Auf der nächsten Seite beschreiben wir einen besseren Lösungsvorschlag. Stichworte sind IP Multimedia Subsystem (IMS) sowie Voice over LTE (VoLTE). Die Betreiber in Deutschland haben relativ spät auf diese Technologie umgestellt: Vodafone und O2 Telefonica Anfang 2015, die Telekom Anfang 2016. Dies ist auch der Grund dafür, dass der Umstieg auf LTE in Deutschland (und in Europa allgemein) schleppender verlief als in den USA. Viele Kunden wollten nicht die höheren Preise für LTE zahlen, so lange es keine gut funktionierende Lösung für die Integration der Sprachübertragung gab.

Lehrstuhl für Nac hric htentec hnik (LNT)

8 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

VoLTE – Voice over LTE Der aus heutiger Sicht (2016) erfolgversprechendste, teilweise bereits etablierte Ansatz zur Integration der Sprachdienste in das LTE–Netz ist Voice over LTE – kurz: VoLTE. Dieser offiziell von der GSMA – die weltweite Industrievereinigung von mehr als 800 Mobilfunkanbietern und über 200 Herstellern von Mobiltelefonen und Netzinfrastruktur – verabschiedete Standard ist ausschließlich IP–paketorientiert und basiert auf dem IP Multimedia Subsystem (IMS), das bereits 2010 in der UMTS–Release 9 definiert wurde. Die technischen Fakten zu IMS sind: Das IMS–Basisprotokoll ist das von Voice over IP bekannte Session Initiation Protocol (SIP). Es handelt sich dabei um ein Netzprotokoll, mit dem Verbindungen zwischen zwei Teilnehmern aufgebaut und gesteuert werden können. Dieses Protokoll ermöglicht die Entwicklung zu einem vollständig (für Daten und Sprache) IP–basierten Netzwerk und bietet damit Zukunftssicherheit. Der Grund, warum sich die Einführung von VoLTE gegenüber der LTE–Etablierung im Datenverkehr um vier Jahre verzögert hat, liegt im schwierigen Zusammenspiel von 4G mit den älteren Vorgängerstandards GSM (2G) und UMTS (3G). Hierzu ein Beispiel: Verlässt ein Mobilfunknutzer seine LTE–Zelle und wechselt in ein Gebiet ohne 4G–Versorgung, so muss ein unmittelbarer Wechsel zum nächstbesten Standard (3G) erfolgen. Sprache wird hier technisch völlig anders übermittelt, nicht mehr durch viele kleine Datenpakete ⇒ „paketvermittelt”, sondern sequentiell in den eigens für den Teilnehmer reservierten logischen und physikalischen Kanälen ⇒ „leitungsvermittelt”. Diese Umsetzung muss derart schnell und problemlos verlaufen, dass der Endkunde davon nichts merkt. Und diese Umsetzung muss für alle Mobilfunkstandards und Techniken funktionieren. Nach Ansicht aller Experten wird VoLTE das mobile Telefonieren ähnlich positiv beeinflussen, wie LTE das mobile Internet seit 2011 vorangebracht hat. Wesentliche Vorteile für die Nutzer sind: Eine höhere Sprachqualität, da VoLTE AMR–Wideband Codecs mit 12.65 bzw. 23.85 kbit/s nutzt. Außerdem werden die VoLTE–Datenpakete für möglichst niedrige Latenzen priorisiert. Ein enorm beschleunigter Verbindungaufbau innerhalb von einer oder zwei Sekunden, während es bei Circuit Switched Fallback (CSFB) unangenehm lange dauert, bis eine Verbindung steht. Ein niedriger Akkuverbrauch, deutlich geringer als bei 2G und 3G, damit verbunden eine längere Akkulaufzeit. Auch gegenüber gängigen VoIP–Diensten ist der Energiebedarf bis zu 40% geringer. Aus Sicht der Provider ergeben sich folgende Vorteile: Eine bessere Spektraleffizienz: Doppelt so viele Gespräche im gleichen Frequenzband als bei 3G. Oder: Bei gleichem Gesprächsaufkommen steht für Datendienste mehr Kapazität zur Verfügung. Eine einfache Implementierung von Rich Media Services (RCS), etwa für Videotelefonie oder zukünftige Anwendungen, durch die neue Kunden geworben werden können. Eine bessere Akzeptanz der höheren Bereitstellungskosten durch LTE–Kunden, wenn man nicht zum Telefonieren in ein „niederwertiges” Netz wie 2G oder 3G ausgelagert werden muss.

Lehrstuhl für Nac hric htentec hnik (LNT)

9 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

Bandbreitenflexibilität LTE lässt sich durch die Verwendung von OFDM mit relativ wenig Aufwand an unterschiedlich breite Frequenzbänder anpassen. Diese Tatsache ist eine aus verschiedenen Gründen – siehe [Mey10] – wichtige Eigenschaft, insbesondere für die Netzbetreiber: Abhängig von den gesetzlichen Vorgaben in verschiedenen Ländern können die Frequenzbänder für LTE unterschiedlich groß sein. Auch der Ausgang der staatenspezifischen Versteigerungen der LTE–Frequenzen (getrennt nach FDD und TDD) hat die Breite der Spektren beeinflusst. Oft betreibt man LTE im Hinblick auf eine spätere Migration in der „Frequenz–Nachbarschaft” etablierter Funkübertragungssysteme, mit deren Abschaltung in Kürze gerechnet wird. Steigt die Nachfrage, so kann man LTE nach und nach auf den frei werdenden Frequenzbereich ausweiten. Als Beispiel sei die Migration der Fernsehkanäle nach der Digitalisierung genannt: Im jetzt frei gewordenen VHF–Frequenzbereich um 800 MHz wird ein Teil des LTE–Netzwerks angesiedelt – siehe Grafik im Kapitel 4.1. Eigentlich könnten die Bandbreiten mit einem Feinheitsgrad von bis zu 15 kHz (entsprechend einem OFDMA–Unterträger) gewählt werden. Da dies jedoch unnötig Overhead produzieren würde, hat man als kleinste adressierbare LTE–Ressource eine Dauer von einer Millisekunde und eine Bandbreite von 180 kHz festgelegt. Ein solcher Block entspricht zwölf Unterträgern (180 kHz geteilt durch 15 kHz). Um die Komplexität und den Aufwand bei der Hardwarestandardisierung möglichst gering zu halten, hat man sich zudem auf eine ganze Reihe zulässiger Bandbreiten zwischen 1.4 MHz und 20 MHz geeinigt. Die folgende Auflistung – entnommen aus [Ges08] – gibt die standarisierten Bandbreiten, die Anzahl der verfügbaren Blöcke sowie den „Overhead” an: 6 verfügbare Blöcke in der Bandbreite 1.4 MHz ⇒ relativer Overhead ca. 22.8%, 15 verfügbare Blöcke in der Bandbreite 3 MHz ⇒ relativer Overhead ca. 10%, 25 verfügbare Blöcke in der Bandbreite 5 MHz ⇒ relativer Overhead ca. 10%, 50 verfügbare Blöcke in der Bandbreite 10 MHz ⇒ relativer Overhead ca. 10%, 75 verfügbare Blöcke in der Bandbreite 15 MHz ⇒ relativer Overhead ca. 10%, 100 verfügbare Blöcke in der Bandbreite 20 MHz ⇒ relativer Overhead ca. 10%. Da sonst einige LTE–spezifische Funktionen nicht funktionieren würden, müssen mindestens 6 Blöcke bereitgestellt werden. Der relative Overhead ist bei kleiner Kanalbandbreite (1.4 MHz) vergleichsweise hoch: (1.4 – 6 · 0.18)/1.4 ≈ 22.8%. Ab einer Bandbreite von 3 MHz beträgt der relative Overhead konstant 10%. Weiter gilt, dass alle Endgeräte auch die maximale Bandbreite von 20 MHz unterstützen müssen [Ges08].

Lehrstuhl für Nac hric htentec hnik (LNT)

10 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

FDD, TDD und Halb–Duplex–Verfahren (1) Eine weitere wichtige Neuerung von LTE ist das Halb–Duplex–Verfahren, welches eine Mischung aus den beiden bereits von UMTS bekannten Duplexverfahren darstellt: Frequency Division Duplex (FDD), und Time Division Duplex (TDD) . Solche Duplexverfahren sind erforderlich, damit Uplink und Downlink klar voneinander getrennt sind und die Übertragung reibungslos funktioniert. Die Grafik illustriert den Unterschied zwischen FDD– und TDD–basierter Übertragung.

Mit Hilfe der beiden Methoden FDD und TDD kann LTE sowohl in gepaarten, als auch in ungepaarten Frequenzbereichen betrieben werden. Die beiden Verfahren stellen gewissermaßen einen Gegensatz dar: FDD benötigt ein gepaartes Spektrum, also jeweils ein Frequenzband für die Übertragung von der Basisstation in Richtung Endgerät (Downlink) und eines für die Übertragung in umgekehrter Richtung (Uplink). Downlink sowie Uplink können dabei aber gleichzeitig übertragen werden. TDD wurde für ungepaarte Spektren konzipiert. Zwar benötigt man nun für Uplink und Downlink nur noch ein einziges Band. Sender und Empfänger müssen sich nun allerdings bei der Übertragung abwechseln. Das Hauptproblem von TDD ist die erforderliche Synchronität der Netze.

Lehrstuhl für Nac hric htentec hnik (LNT)

11 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

FDD, TDD und Halb–Duplex–Verfahren (2) In der Grafik auf der vorherigen Seite sind die Unterschiede zwischen FDD und TDD zu erkennen. Man sieht, dass man bei TDD beim Wechsel von Downlink zu Uplink (bzw. umgekehrt) eine Guard Period einfügen muss, damit es nicht zu einer Überlagerung der Signale kommt. Obwohl FDD in der Praxis voraussichtlich stärker genutzt werden wird (und die FDD–Frequenzen für die Provider auch sehr viel teuerer waren), gibt es durchaus auch einige Gründe, die für TDD sprechen: Frequenzen sind – wie sich bei der Versteigerung 2010 wieder gezeigt hat – ein rares und teures Gut. TDD benötigt aber nur die halbe Frequenzbandbreite. Die TDD–Technik ermöglicht verschiedene Modi, die festlegen, wie viel Zeit für Downlink bzw. Uplink verwendet werden soll und kann so auf individuelle Anforderungen abgestimmt werden. Für die eigentliche Neuerung, das Halb–Duplex–Verfahren, benötigt man zwar wie bei FDD auch ein gepaartes Spektrum. Sender und Empfänger der Basisstation wechseln sich aber trotzdem wie bei TDD ab: Jedes Endgerät kann gleichzeitig entweder nur Senden oder nur Empfangen.

Man erkennt aus dieser Grafik: Durch eine zweite Verbindung zu einem anderen Endgerät mit vertauschtem Downlink/Uplink– Raster kann trotzdem das gesamte zur Verfügung stehende Band voll genutzt werden. Wesentlicher Vorteil des Halb–Duplex–Verfahrens besteht aber darin, dass durch die Verwendung des TDD–Konzepts die Anforderungen an die Endgeräte stark sinken und sich diese einfacher und billiger produzieren lassen. Dass diesem Aspekt in der Standardisierung große Bedeutung zugemessen wurde, lässt sich auch an der Verwendung von OFDMA im Downlink und SC–FDMA im Uplink erkennen: Dadurch erreicht man eine längere Batterielaufzeit der Endgeräte und es können günstigere Bauteile verwendet werden. Mehr dazu finden Sie im Kapitel 4.3.

Lehrstuhl für Nac hric htentec hnik (LNT)

12 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

Mehrantennensysteme (1) Verwendet ein Funksystem mehrere Sende– und Empfangsantennen, so spricht man von Multiple Input Multiple Output (MIMO). Dabei handelt es sich nicht um eine LTE–spezifische Entwicklung. So nutzt beispielweise auch WLAN diese Technologie. Das Prinzip der Mehrantennensysteme wird in der folgenden Grafik am Beispiel von 2×2–MIMO (zwei Sende– und zwei Empfangsantennen) verdeutlicht. Das Neue an LTE ist nicht die eigentliche Nutzung von Multiple Input Multiple Output, sondern die besonders intensive, nämlich 2×2–MIMO im Uplink und maximal 4×4–MIMO im Downlink. Beim Nachfolger LTE–Advanced ist die Nutzung von MIMO noch ausgeprägter, nämlich „4×4” im Uplink und „8×8” in Gegenrichtung.

Ein MIMO–System weist gegenüber Single Input Single Output (SISO, nur eine Sende– und eine Empfangsantennen) Vorteile auf. Man unterscheidet je nach Kanal zwischen mehreren Gewinnen: Leistungsgewinn gemäß der Anzahl von Empfangsantennen: Kombiniert man die über mehrere Antennen eintreffenden Funksignale in geeigneter Weise (Spatial Combining), so erhöht man die Empfangsleistung und verbessert so die Funkverbindung. Mit einer Verdoppelung der Antennen erreicht man einen Leistungsgewinn von maximal 3 dB. Diversitätsgewinn durch Raumdiversität (englisch: Spatial Diversity): Verwendet man mehrere räumlich getrennte Empfangsantennen in einer Umgebung mit starker Mehrwegeausbreitung, so ist das Fading an den einzelnen Antennen meist unabhängig voneinander und die Wahrscheinlichkeit, dass alle Antennen gleichzeitig von Fading betroffen sind, ist sehr gering. Datenratengewinn: Dieser steigert die Effizienz von MIMO vor allem in einer Umgebung mit erhöhter Mehrwegeausbreitung, insbesondere dann, wenn Sender und Empfänger keine direkte Sichtverbindung haben und die Übertragung über Reflexionen erfolgt. Die Verdreifachung der Antennenzahl bei Sender und Empfänger führt zu einer Verdoppelung der Datenrate. Nicht möglich ist jedoch, dass alle Vorteile gleichzeitig eintreten. Abhängig von der Kanalbeschaffenheit kann es auch passieren, dass man nicht einmal die Wahl hat, welchen Vorteil man nutzen will. Neben den MIMO-Systemen gibt es auch noch folgende Zwischenstufen: MISO–Systeme (nur eine Empfangsantenne, somit ist kein Leistungsgewinn möglich), und SIMO–Systeme (nur eine Sendeantenne, nur kleiner Diversitätsgewinn).

Lehrstuhl für Nac hric htentec hnik (LNT)

13 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

Mehrantennensysteme (2) Der Begriff „MIMO” fasst Mehrantennenverfahren mit unterschiedlichen Eigenschaften zusammen, die jeweils in gewissen Situationen von Nutzen sein können. Vier davon sind in der Grafik veranschaulicht.

Die folgende Beschreibung ist auf die vier hier gezeigten Schaubildern abgestimmt. Werden die weitgehend unabhängigen Kanäle eines MIMO–Systems einem einzigen Teilnehmer zugeteilt (Schaubild links oben), so spricht man von Single–User MIMO. Durch 2×2–MIMO verdoppelt sich die Datenrate gegenüber dem SISO–Betrieb und mit jeweils vier Sende– und Empfangsantennen kann die Datenrate bei guten Kanalbedingungen nochmals verdoppelt werden. LTE ermöglicht maximal 4×4–MIMO allerdings nur im Downlink. Als Empfänger (Endgeräte) kommen bei 4×4–MIMO aufgrund der Komplexität von Mehrantennensystemen nur Laptops mit LTE–Modems in Frage. Bei einem Handy beschränkt man sich auf 2×2–MIMO. Im Gegensatz zum Single–User MIMO ist das Ziel beim Multi–User MIMO nicht die maximale Datenrate für einen Empfänger, sondern die Maximierung der Anzahl der Endgeräte, die das Netz gleichzeitig nutzen können (Schaubild oben rechts). Dabei werden verschiedene Datenströme zu unterschiedlichen Nutzern übertragen. Dies ist besonders an Orten mit hoher Nachfrage nützlich, wie zum Beispiel an Flughäfen oder in Fußballstadien. Ein Mehrantennenbetrieb dient aber nicht nur der Maximierung von Nutzerzahl oder Datenrate, sondern im Falle von schlechten Übertragungsbedingungen können mehrere Antennen auch ihre Leistung bündeln und so gezielt Daten zu einem Nutzer übertragen, um dessen Empfangsqualität zu verbessern. Man spricht dann von Beamforming (Schaubild unten links), wodurch auch die Reichweite einer Sendestation erhöht wird. Die vierte Möglichkeit ist Antennendiversität (Schaubild unten rechts). Dadurch erhöht man die Redundanz (hinsichtlich Systemauslegung) und macht die Übertragung robuster gegen Störungen. Ein einfaches Beispiel: Es gibt vier Kanäle, die alle die gleichen Daten übertragen. Fällt ein Kanal aus, so sind immer noch drei Kanäle vorhanden, die die Information transportieren können. Lehrstuhl für Nac hric htentec hnik (LNT)

14 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

Systemarchitektur (1) Die LTE–Architektur ermöglicht ein vollständig auf dem IP–Protokoll basierendes Übertragungssystem. Um dieses Ziel zu erreichen, musste die für UMTS spezifizierte Systemarchitektur nicht nur verändert, sondern teilweise komplett neu konzipiert werden. Dabei wurden auch andere IP–basierte Technologien wie mobiles WiMAX oder WLAN integriert, um in diese Netze problemlos wechseln zu können. In UMTS–Netzen (linke Grafik) ist zwischen einer Basisstation (NodeB) und dem Kernnetz noch der Radio Network Controller (RNC) zwischengeschaltet, der für den Wechsel zwischen verschiedenen Zellen hauptverantwortlich ist und der zu Latenzzeiten von bis zu 100 Millisekunden führen kann.

Die Neukonzipierung der Basisstationen (eNodeB anstelle von NodeB) und die Schnittstelle X2 sind die entscheidenden Weiterentwicklungen von UMTS hin zu LTE. Die rechte Grafik illustriert insbesondere die mit der neuen Technologie einhergegangene Reduzierung der Komplexität gegenüber UMTS (linke Grafik). Auch die LTE–Systemarchitektur lässt sich in zwei große Bereiche einteilen: das LTE–Kernnetz Evolved Packet Core (EPC), die Luftschnittstelle Evolved UMTS Terrestrial Radio Access Network (EUTRAN) – eine Weiterentwicklung von UMTS Terrestrial Radio Access Network (UTRAN). EUTRAN überträgt die Daten zwischen dem Endgerät und der LTE–Basisstation ⇒ „eNodeB” über die sogenannte S1–Schnittstelle mit zwei Verbindungen, eine für die Übertragung von Nutzdaten und eine zweite für die Übertragung von Signalisierungsdaten. Aus obiger Grafik erkennt man: Die Basisstationen sind außer mit dem EPC auch mit den benachbarten Basisstationen verbunden. Diese Verbindungen (X2–Schnittstellen) bewirken, dass möglichst wenige Pakete verloren gehen, wenn sich das Endgerät aus dem Umkreis einer Basisstation in Richtung einer anderen bewegt. Dazu kann die Basisstation, deren Versorgungsgebiet der Nutzer gerade verlässt, eventuell noch zwischengespeicherte Daten direkt und schnell an die „neue” Basisstation weitergeben. Damit ist eine (weitgehend) durchgehende Übertragung sichergestellt. Die Funktionalität des RNC geht zum Teil in die Basisstation, zum anderen in die Mobility Management Entity (MME) im Kernnetz über. Diese Reduktion der Schnittstellen verkürzt die Signaldurchlaufzeit im Netzwerk und das Handover signifikant auf 20 Millisekunden. Die LTE–Systemarchitektur ist zudem so ausgelegt, dass sich zukünftig Inter–NodeB–Verfahren (wie Soft–Handover oder Cooperative Interference Cancellation) einfach integrieren lassen.

Lehrstuhl für Nac hric htentec hnik (LNT)

15 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.2 Technische Neuerungen von LTE

Systemarchitektur (2) Das LTE–Kernnetz Evolved Packet Core (EPC) eines Netzbetreibers – in der Fachsprache Backbone – besteht aus verschiedenen Netzwerkkomponenten. Das EPC ist mit den Basisstationen über das Backhaul (englische Bezeichnung für Rücktransport) verbunden. Darunter versteht man die Anbindung eines vorgelagerten, meist hierarchisch untergeordneten Netzknotens an einen zentralen Netzknoten. Momentan besteht das Backhaul zum Großteil aus Richtfunk und sogenannten E1–Leitungen. Diese sind Kupferleitungen und erlauben einen Durchsatz von ca. 2 Mbit/s. Für GSM– und UMTS–Netzwerke waren diese Verbindungen noch ausreichend, aber bereits für großflächig vermarktetes HSDPA reichen solche Datenraten nicht. Für LTE ist ein solches Backhaul komplett unbrauchbar: Das langsame Kabelnetzwerk würde die schnellen Funkverbindungen ausbremsen, und es wäre insgesamt kein Geschwindigkeitszuwachs festzustellen. Aufgrund der geringen Kapazitäten der Leitungen mit E1–Standard wäre auch ein Ausbau mit weiteren baugleichen Leitungen nicht wirtschaftlich. Das Backhaul muss also im Zuge der LTE–Einführung neu entworfen werden. Dabei ist es wichtig, Zukunftssicherheit im Auge zu behalten, steht doch die nächste Generation LTE–Advanced bereits vor der Einführung. Schenkt man dem von Experten propagierten Moore's Law für Mobilfunkbandbreiten Glauben, so ist die teure Neuverlegung von Kabeln der wichtigste Faktor für die Zukunftssicherheit. Aufgrund der rein paketorientierten Übertragungstechnik bietet sich für das LTE–Backhaul der ebenfalls IP–basierte Ethernet–Standard an, der mit Hilfe von Lichtwellenleitern realisiert wird. Die Firma Fujitsu stellt in der Studie [Fuj09] die These auf, dass die momentane Infrastruktur noch für die nächsten zehn bis fünfzehn Jahre eine wichtige Rolle für das LTE–Backhaul spielen wird. Für den Generationenwechsel hin zu einem Ethernet–basierten Backhaul gibt es zwei Ansätze: der parallele Betrieb der Leitungen mit E1 und Ethernet–Standard, die sofortige Migration zu einem auf Ethernet basierenden Backhaul. Ersteres hätte den Vorteil, dass die Netzbetreiber den Sprachverkehr weiterhin über die alten Leitungen laufen lassen und ausschließlich den bandbreitenintensiven Datenverkehr über die leistungsfähigeren Leitungen abwickeln könnten. Die zweite Möglichkeit wirft einige technische Probleme auf: Die vorher durch die langsamen E1-Standard–Leitungen transportierten Dienste müssten sofort auf ein paketbasiertes Verfahren umgestellt werden. Ethernet bietet (anders als der jetzige Standard) bisher keine End–to–End–Synchronisierung, was beim Funkzellenwechsel zu starken Verzögerungen bis hin zu Dienstunterbrechungen führen kann – also eine gewaltige Einbuße der Servicequalität. Im Konzept SyncE werden jedoch von der Fa. Cisco bereits Vorschläge unterbreitet, wie die Synchronisation realisiert werden könnte. Für Ballungsgebiete wäre eine direkte Umstellung des Backhauls sicher lohnenswert, da für eine vergleichsweise hohe Zahl an neuen Nutzern nur relativ wenige neue Kabel verlegt werden müssten. Im ländlichen Raum ergäben sich aber durch größere Grabungsarbeiten schnell hohe Kosten. Dies ist aber genau der Bereich, der laut Vereinbarung zwischen den (deutschen) Mobilfunkbetreibern und der Bundesregierung als erstes abgedeckt werden muss. Hier müsste (und wird wohl) der meist vorhandene Richtfunk auf hohe Datentaten erweitert werden. Lehrstuhl für Nac hric htentec hnik (LNT)

16 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.3 Die Anwendung von OFDMA und SC-FDMA in LTE

Allgemeines zur LTE–Übertragungstechnik Im Gegensatz zum Vorgänger UMTS setzt Long Term Evolution (LTE) eine Variante des auch von WLAN genutzten OFDM–Konzepts ein, um die Übertragungsressourcen systematisch aufzuteilen. Das Mehrfachzugriffsverfahren OFDM besitzt ebenso wie die UMTS–Grundlagentechnologie CDMA die Fähigkeit, das System gegen punktuell auftretende Übertragungsstörungen zu schützen. Zwar wäre es möglich, die bei der zweiten und dritten Mobilfunkgeneration verwendeten Technologien so anzupassen und zu erweitern, dass sie auch die geforderten Vorgaben der vierten Generation erfüllen. Die schnell ansteigende Komplexität von CDMA beim Empfang von Signalen auf mehreren Pfaden lässt die technische Realisierung jedoch als wenig sinnvoll erscheinen. Die stark abstrahierte Grafik zeigt die Aufteilung der kompletten Bandbreite für einzelne Unterträger und erklärt den Unterschied zwischen CDMA (UMTS) und OFDM (LTE).

OFDM besitzt also im Gegensatz zu CDMA viele – typischerweise sogar mehrere hundert – Unterträger mit einer Bandbreite von jeweils nur einigen Kilohertz. Dazu wird der Datenstrom aufgeteilt und jeder der vielen Unterträger einzeln mit nur geringer Bandbreite moduliert. In LTE benutzt man OFDMA, eine auf OFDM basierende Übertragungstechnik. Hierfür sprechen unter anderem folgende Gründe [HT09]: Eine hohe Leistung in frequenzgesteuerten Kanälen, die niedrige Komplexität im Empfänger, gute Spektraleigenschaften und Bandbreitenflexibilität, sowie Kompatibilität mit den neuesten Empfänger– und Multiantennentechnologien. Auf der folgenden Seite werden die Unterschiede zwischen den Mehrfachzugriffsverfahren OFDM und OFDMA kurz erläutert.

Lehrstuhl für Nac hric htentec hnik (LNT)

17 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.3 Die Anwendung von OFDMA und SC-FDMA in LTE

Gemeinsamkeiten und Unterschiede von OFDM und OFDMA Das Prinzip von Orthogonal Frequency Division Multiplexing (OFDM) wurde bereits im Kapitel 5.5 des Buches „Modulationsverfahren” erklärt. OFDM teilt das zur Verfügung stehende Frequenzband in eine große Anzahl von schmalbandigen Unterträgern auf, wobei zu beachten ist: Damit die einzelnen Unterträger möglichst wenig Intercarrier–Interferenz aufweisen, werden die Frequenzen der Unterträger so gewählt, dass sie zueinander orthogonal sind. Das bedeutet: Bei der Mittenfrequenz eines jeden Unterträgers weisen alle anderen Träger keine Spektralanteile auf. Ziel ist es, für jeden Nutzer die gegenwärtig günstigsten Ressourcen zu wählen, um ein in der Gesamtheit optimales Ergebnis zu erhalten. Konkret bedeutet das weiterhin, dass – angepasst an die jeweilige Netzsituation – die verfügbaren Ressourcen demjenigen Nutzer zugeteilt werden, der momentan damit am meisten anfangen kann. Zu diesem Zweck misst die Basisstation für die Abwärtsstrecke (Downlink) zum Endgerät hin die Leitungsqualität mit Hilfe von Referenzsymbolen.

Die Grafik zeigt oben die Frequenzzuteilung bei OFDM. Das untere Schaubild zeigt die Zuteilung bei Orthogonal Frequency Division Multiple Access (OFDMA). Man erkennt: Bei OFDMA beschränkt sich die Ressourcenzuteilung nach Kanalschwankungen nicht wie bei OFDM nur auf den Zeitbereich, sondern es wird auch der Frequenzbereich optimal einbezogen. Dadurch ist die OFDMA–Ressourcenzuteilung besser an die äußeren Umstände angepasst als bei OFDM. Um diese Flexibilität optimal nutzen zu können, ist allerdings eine Abstimmung zwischen der Basisstation (eNodeB) und dem Endgerät notwendig. Mehr dazu später im Kapitel 4.4.

Lehrstuhl für Nac hric htentec hnik (LNT)

18 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.3 Die Anwendung von OFDMA und SC-FDMA in LTE

Unterschiede zwischen OFDMA und SC–FDMA (1) Es gibt Übertragungsverfahren wie beispielsweise WiMAX, die OFDMA in beiden Richtungen nutzen. Die LTE–Spezifizierung durch das 3GPP–Konsortium legt dagegen fest: Im Downlink – Übertragung von der Basisstation zum Endgerät – wird OFDMA eingesetzt. Im Uplink – Übertragung vom Endgerät zur Basisstation – verwendet man Single Carrier Frequency Division Multiple Access (SC–FDMA). Aus der Grafik erkennt man, dass die beiden Systeme „SC–FDMA” und „OFDMA” sehr ähnlich sind. Oder anders ausgedrückt: SC–FDMA baut auf OFDMA auf (oder umgekehrt). Verzichtet man auf die beiden rot hinterlegten Komponenten (DFT) und auf die beiden blau hinterlegten Komponenten (IDFT) von SC–FDMA, so erhält man das OFDMA–System. Die anderen hier verwendeten Symbole stehen für Seriell/Parallel–Wandler (S/P), Parallel/Seriell– Wandler (P/S), D/A–Wandler, A/D–Wandler sowie Hinzufügen/Entfernen des zyklischen Präfix'.

Die Signalerzeugung für SC–FDMA funktioniert ähnlich wie bei OFDMA, allerdings mit kleinen, für den Mobilfunk aber durchaus wichtigen Änderungen: Der Hauptunterschied liegt in der zusätzlichen diskreten Fouriertransformation (DFT). Diese ist sendeseitig direkt nach der Seriell/Parallel–Wandlung durchzuführen. Es handelt sich somit nicht mehr um ein Mehrträgerverfahren, sondern um eine Einträger–FDMA. Man spricht wegen der notwendigen DFT/IDFT–Operationen auch von „DFT–spread OFDM”. Die Einzelheiten dieser Grafik werden auf den folgenden Seiten erklärt.

Lehrstuhl für Nac hric htentec hnik (LNT)

19 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.3 Die Anwendung von OFDMA und SC-FDMA in LTE

Unterschiede zwischen OFDMA und SC–FDMA (2) Fassen wir die Aussagen der letzten Seite nochmals kurz zusammen. SC–FDMA unterscheidet sich von OFDMA folgendermaßen: Die Datensymbole werden mit einer Gruppe gleichzeitig übertragener Unterträger gesendet und nicht jedes Symbol von einem einzelnen, orthogonalen Unterträger. Diese Unterträgergruppe kann dann als ein separates Frequenzband betrachtet werden, das die Daten sequenziell überträgt. Darauf geht der Name „Single Carrier FDMA” zurück. Während bei OFDMA die Datensymbole direkt die verschiedenen Unterträger erzeugen, durchlaufen sie bei SC–FDMA zuerst eine diskrete Fouriertransformation (DFT). So werden die Datensymbole aus dem Zeitbereich zuerst in den Frequenzbereich transformiert, bevor sie die OFDM–Prozedur durchlaufen [Ixi09].

Man kann den Unterschied zwischen OFDMA und SC–FDMA aber auch so beschreiben: Bei einer OFDMA–Übertragung enthält jeder orthogonale Unterträger nur die Informationen eines einzigen Signals. Hingegen beinhaltet bei SC–FDMA jeder einzelne Unterträger Informationen über alle in dieser Periode übertragenen Signale. Dieser Unterschied und die quasi–sequentielle Übertragung bei SC–FDMA lassen sich in obigem Schaubild besonders gut erkennen. Dieses stammt aus einem PDF–Dokument von Agilent–3GPP.

Lehrstuhl für Nac hric htentec hnik (LNT)

20 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.3 Die Anwendung von OFDMA und SC-FDMA in LTE

Funktionsweise von SC–FDMA (1) Nun soll der SC–FDMA–Übertragungsvorgang genauer betrachtet werden. Die Informationen hierzu stammen großteils aus [MG08]. Auf den Zweck und die Funktion des Cyclic Prefix wird hier nicht näher eingegangen. Die Gründe sind dieselben wie bei OFDM und können im Kapitel 5.6 des Buches „Modulationsverfahren” nachgelesen werden.

Die folgende Beschreibung bezieht sich auf den hier gezeigten SC–FDMA–Sender. Beachten Sie, dass bei LTE die Modulation an die Kanalqualität angepasst wird: In stark verrauschten Kanälen wird 4– QAM (Quadrature Amplitude Modulation mit nur vier Signalraumpunkten) verwendet. Bei besseren Bedingungen wird auf eine höherstufige QAM bis hin zu 64–QAM umgeschaltet. Weiter gilt: Ein Eingangsdatenblock besteht aus K komplexen Modulationssymbolen x ν, die mit einer Rate von RQ [Symbole/s] erzeugt werden. Die diskrete Fouriertransformation (DFT) erzeugt K Symbole im Frequenzbereich entsprechend

die auf K von insgesamt N orthogonalen Unterträgern moduliert werden. Die Unterträger werden über eine größere Bandbreite von BK = N · f 0 verteilt, wobei f 0 = 15 kHz die bei LTE kleinste adressierbare Bandbreite angibt. Nichtbelegte Kanäle sind hier gestrichelt gezeichnet. Die Kanalübertragungsrate ergibt sich zu RC = J · RQ mit dem Spreizfaktor J = N/K. Dieses SC– FDMA–System könnte dann gleichzeitig J orthogonale Eingangssignale verarbeiten. Im Fall von LTE wäre zum Beispiel K = 12 (kleinster adressierbarer Block) und N = 1024. J gibt folglich auch die Anzahl der Endgeräte an, die gleichzeitig mit dieser Basisstation verbunden sein können. Nach dem so genannten Subcarrier–Mapping – darunter versteht man die Zuordnung der von der DFT erzeugten Symbole auf die zur Verfügung stehenden Unterträger – sind die Symbole dann auf eine gewisse Bandbreite „gemappt”, zum Beispiel im Falle von K = 12 auf den Bereich von 0 bis 180 kHz oder von 180 kHz bis 360 kHz. Die folgende IDFT–Transformation (oben blau markiert) generiert aus den Ausgangswerten Yμ im Frequenzbereich dann die Zeitdarstellung yν dieses Mappings. Diese Symbole werden dann durch den Parallel/Seriell–Wandler in eine für die Übertragung geeignete Sequenz überführt.

Lehrstuhl für Nac hric htentec hnik (LNT)

21 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.3 Die Anwendung von OFDMA und SC-FDMA in LTE

Funktionsweise von SC–FDMA (2) Für das Subcarrier–Mapping gibt es verschiedene Ansätze: DFDMA oder Distributed Mapping: Hier werden die Modulationssymbole auf einen gewissen Bereich der zur Verfügung stehenden Kanalbandbreite verteilt. IFDMA oder Interleaved FDMA: Sonderform von DFDMA, wenn die Modulationssymbole auf die komplette Bandbreite mit jeweils gleichen Abständen verteilt werden. LFDMA oder Localized Mapping: Die K Modulationssymbole werden direkt benachbarten Unterträgern zugeordnet. Dies entspricht der derzeitigen 3GPP–Spezifikation. Die folgende Abbildung verdeutlicht diese drei Arten für das Subcarrier–Mapping. Zur Vereinfachung der Darstellung beschränken wir uns hier auf die (sehr kleinen) Parameterwerten K = 4 und N = 12.

Es kann dabei gezeigt werden, dass der Sender bei SC–FDMA die drei Schritte Diskrete Fouriertransformation (DFT), Subcarrier–Mapping, und Inverse diskrete Fouriertransformation (IDFT) bzw. Fast–Fouriertransformation (IFFT) gar nicht einzeln durchlaufen muss. Diese drei Operationen kann man vielmehr gemeinsam als eine einzige lineare Operation realisieren. Die vollständige und mathematisch nicht ganz einfache Herleitung findet sich zum Beispiel in [MG08]. Jedes Element der Ausgangssequenz yν ist dann durch eine gewichtete Summe der Eingangssequenzelemente x ν darstellbar, wobei die Gewichte komplexwertig sind. Anstatt der vergleichsweise komplizierten Fouriertransformation reduziert sich die Operation somit auf eine Multiplikation mit einer komplexen Zahl, und dem J–fachen Wiederholen der Eingangssequenz x ν. In Aufgabe A4.3 wird das (sendeseitige) Subcarrier–Mapping mit realistischeren Werten für K und N betrachtet und auf die Unterschiede zum Subcarrier–Demapping (am Empfänger) hingewiesen.

Lehrstuhl für Nac hric htentec hnik (LNT)

22 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.3 Die Anwendung von OFDMA und SC-FDMA in LTE

Vorteile von SC–FDMA gegenüber OFDM (1) Der entscheidende Vorteil von SC–FDMA gegenüber OFDMA ist auf Grund seiner Einzelträgerstruktur sein niedrigeres Peak–to–Average Power–Ratio (PAPR). Darunter versteht man das Verhältnis von momentaner Spitzenleistung Pmax zur mittleren Sendeleistung PS. PAPR lässt sich auch durch den Crest–Faktor (Quotient der Signalamplituden) ausdrücken. Die beiden Größen sind also nicht identisch. Die Grafik aus dem Internet–Dokument [Wu09] zeigt in doppelt–logarithmischer Darstellung die Wahrscheinlichkeit dafür, dass bei 64–QAM–OFDM die momentane Leistung über der mittleren Leistung liegt. Die Wahrscheinlichkeit für große „Ausreißer” ist zwar gering. Beispielsweise wird die mittlere Leistung nur in 0.1% der Zeit um mehr als 10 dB überschritten. Auch wenn solche hohen Leistungsspitzen nur sehr selten sind, stellen sie trotzdem ein Problem für den Leistungsverstärker des Empfängers dar. Die Leistungsverstärker sollten im linearen Bereich betrieben werden, da ansonsten das Signal verzerrt wird. Nichtlinearitäten ergeben sich insbesondere auf Grund von Intercarrier–Interferenz innerhalb des Signals, Interferenzen von benachbarten Kanälen aufgrund von Spektrumserweiterungen. Daher muss bei OFDM der Verstärker die meiste Zeit mit einer niedrigeren Leistung als möglich betrieben werden, was seine Effizienz drastisch reduzieren kann. Weil man SC–FDMA quasi als Einzelträger–Übertragungsverfahren betrachten kann, ist bei diesem das PAPR niedriger als bei OFDM(A). Dadurch kann zum Beispiel ein so genanntes Pulse–shaping–Filter verwendet werden, der das PAPR reduziert. Das niedrigere PAPR ist der wesentliche Grund dafür, dass im LTE–Uplink SC–FDMA zum Einsatz kommt und nicht OFDMA. Niedriges PAPR bedeutet eine längere Batterielaufzeit, ein für Mobiltelefone – insbesondere Smartphones – äußerst wichtiges Kriterium. Gleichzeitig bietet SC–FDMA eine ähnliche Leistungsfähigkeit und Komplexität wie OFDM. Für den Downlink ist der Punkt weniger bedeutend. Beispiel: Wir betrachten ein OFDM–System mit N Trägern, alle mit gleicher Signalamplitude A. Dann ist nach einer stark vereinfachten Rechnung mit gleichem Proportionalitätsfaktor die maximale Signalleistung proportional zu (N · A)2, und die mittlere Signalleistung proportional zu N · A2 . Daraus ergibt sich für Peak–to–Average Power–Ratio als der Quotient dieser beiden Leistungen zu PAPR = N. Schon bei nur zwei Trägern ergibt sich PAPR = 2 entsprechend 3 dB. Somit muss der Verstärker selbst bei nur zwei Trägern immer 3dB unterhalb der maximalen Leistung arbeiten, um im Fall von Signalspitzen keine Signalverzerrungen zu produzieren. Wie auf der nächsten Seite gezeigt wird, bedeuten 3dB aber bereits einen Rückgang des Wirkungsgrads auf 85%.

Lehrstuhl für Nac hric htentec hnik (LNT)

23 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.3 Die Anwendung von OFDMA und SC-FDMA in LTE

Vorteile von SC–FDMA gegenüber OFDM (2) PAPR steht in direkter Beziehung zur Sendeverstärkereffizienz. Die maximale Effizienz wird erreicht, wenn der Verstärker in der Umgebung der Sättigungsgrenze arbeiten kann. Die Grafik zeigt eine beispielhafte Verstärkerkennlinie, also die Ausgangsleistung aufgetragen über der Eingangsleistung. Bei PAPR = 0 dB (also 1) könnte man die mittlere Leistung PS gleich der zulässigen Spitzenleistung Pmax setzen. Entsprechend der Kennlinie Pout/Pin ergäbe sich (beispielhaft) der Verstärkerwirkungsgrad zu 95%. Bei großem PAPR muss man den Verstärker aber unterhalb der Sättigungsgrenze betreiben, um zu starke Signalverzerrungen zu verhindern. Hier einige numerische Beispiele: Bei einem PAPR = 2 entsprechend der Überschlagsrechnung auf der letzten Seite müsste man die mittlere Sendeleistung um 3 dB kleiner als zulässig wählen, damit Pmax zu keinem Zeitpunkt überschritten würde. Der Wirkungsgrad würde so auf 85% zurückgehen. Ein Back–off von 3 dB reicht aber meist nicht aus, vielmehr geht man in der Praxis von Werten zwischen 5 dB und 8 dB aus [Hin08]. Entsprechend obiger Kurve sinkt aber bereits bei 5 dB der Wirkungsgrad auf nur mehr 70% (System S1, grüne Linie). Mit dem System S2 können zwar alle Signalspitzen kleiner 8 dB vom Verstärker verzerrungsfrei übertragen werden, aber der Verstärkerwirkungsgrad beträgt nur noch 40%. Wie aus der Grafik der letzten Seite zu ersehen ist, treten trotzdem noch in ca. 2% der Zeit starke Verzerrungen auf. Die mittlere Sendeleistung sei PS = 100 mW. Dann muss bei einem PAPR von 8 dB (Faktor 9) der Verstärker bis zu Pmax = 900 mW verzerrungsfrei arbeiten, bei PAPR = 2 (3 dB) dagegen nur bis 200 mW. Der Unterschied zwischen den beiden Verstärkern ist ein enormer Kostenfaktor. Aufgrund dieser Auflistung kann zusammengefasst werden: OFDM mit einem großen Back–off im Uplink würde zu Problemen führen, nämlich zu extrem kurzen Batterielaufzeiten der mobilen Endgeräte. Daher wird im LTE–Uplink das konkurrierende Verfahren SC–FDMA verwendet. Zudem ist die Sender–Komplexität bei SC–FDMA allgemein niedriger als bei anderen Verfahren, was billigere Endgeräte bedeutet [MLG06]. Würde man das bei UMTS genutzte CDMA auf den 4G–Standard erweitern, so würde demgegenüber auf Grund der hohen Frequenzdiversität im Kanal die Empfängerkomplexität stark ansteigen [IXIA09]. Allerdings wird die Frequenzbereichsentzerrung bei SC–FDMA komplizierter als bei OFDMA. Dies ist der Hauptgrund, warum man SC–FDMA nur im Uplink verwendet. So müssen diese komplizierten Entzerrer nur in den Basisstationen eingebaut werden und nicht in den Endgeräten.

Lehrstuhl für Nac hric htentec hnik (LNT)

24 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Allgemeine Beschreibung (1) Die physikalische Schicht (englisch: Physical Layer) ist die unterste Schicht im OSI–Schichtenmodell der Internationalen Organisation für Normung (ISO), die man auch als Bitübertragungsschicht bezeichnet. Sie beschreibt die physikalische Übertragung der Bitfolgen bei LTE und die Funktionsweise der verschiedenen Kanäle gemäß der 3GPP–Spezifikation. Alle Spezifikationen sind dabei sowohl für FDD als auch für TDD gültig.

Die Grafik zeigt die drei Schichten der LTE–Protokollarchitektur. Die Kommunikation zwischen den einzelnen Schichten findet über drei verschiedene Arten von Kanälen statt: Logische Kanäle, Transportkanäle, Physikalische Kanäle. In diesem Kapitel geht es hauptsächlich um die Kommunikation zwischen Sender und Empfänger in der untersten, in der Grafik rot hervorgehobenen physikalischen Schicht. Grundsätzlich ist anzumerken: Genau wie das Internet verwendet LTE ausschließlich eine paketbasierte Übertragung, ohne einem einzelnen Nutzer spezifisch Ressourcen zuzuweisen. Das Design der LTE–Bitübertragungsschicht wird demzufolge durch das Prinzip der dynamisch zugewiesenen Netzressourcen geprägt. Die Bitübertragungsschicht spielt eine Schlüsselrolle bei der effizienten Zuordnung und Ausnutzung der vorhandenen Systemressourcen.

Lehrstuhl für Nac hric htentec hnik (LNT)

25 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Allgemeine Beschreibung (2) Entsprechend der Grafik auf der letzten Seite kommuniziert die physikalische Schicht mit dem Block Medium Access Control (MAC) und tauscht dabei über sogenannte Transportkanäle Informationen über die Benutzer und die Regelung bzw. Kontrolle des Netzes aus, dem Block Radio Resource Control (RRC), wobei hier laufend Kontrollbefehle und Messungen ausgetauscht werden, um die Übertragung an die Kanalqualität anzupassen. Die Komplexität der LTE–Übertragung soll durch die folgende Grafik angedeutet werden, die direkt vom European Telecommunications Standards Institute (ETSI) übernommen wurde. Sie zeigt die Kommunikation zwischen den einzelnen Schichten (Kanälen) und gilt ausschließlich für den Downlink.

Auf den nächsten Seiten werden die physikalische Schicht und die physikalischen Kanäle etwas genauer betrachtet, wobei wir zwischen Uplink und Downlink unterscheiden, uns aber nur auf das Wesentliche beschränken. In Wirklichkeit übernehmen die einzelnen Kanäle noch eine Reihe weiterer Funktionen, deren Beschreibung aber den Umfang dieses Tutorials sprengen würde. Wer interessiert ist, findet eine detaillierte Beschreibung zum Beispiel in [HT09].

Lehrstuhl für Nac hric htentec hnik (LNT)

26 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Physikalische Kanäle im Uplink (1) LTE verwendet im Uplink – Übertragung vom Endgerät zur Basisstation – das Vielfachzugriffsverfahren SC–FDMA. Dementsprechend existieren in der 3GPP–Spezifikation folgende physikalische Kanäle: Physical Uplink Shared Channel (PUSCH), Physical Random Access Channel (PRACH), Physical Uplink Control Channel (PUCCH). Die Nutzdaten werden im physikalischen Kanal PUSCH übertragen. Die Übertragungsgeschwindigkeit hängt davon ab, wie viel Bandbreite dem jeweiligen Nutzer in diesem Moment zur Verfügung steht. Die Übertragung basiert auf dynamisch zugeordneten Ressourcen in Zeit– und Frequenzbereich mit einer Auflösung von einer Millisekunde bzw. 180 kHz. Diese Zuordnung wird durch den Scheduler in der Basisstation (eNodeB) vorgenommen. Ohne Anweisung der Basisstation kann ein Endgerät keinerlei Daten übertragen. Die Ausnahme bildet dabei die Verwendung des physikalischen Kanals PRACH, dem einzigen Kanal im LTE–Uplink mit nicht–synchronisierter Übertragung. Eine wesentliche Aufgabe dieses Kanals ist die Anforderung einer Erlaubnis, über einen der beiden anderen physikalischen Kanäle Daten versenden zu dürfen. Durch das Versenden eines Cyclic Prefix und einer Signatur auf dem PRACH werden Endgerät und Basisstation synchronisiert und sind damit bereit für weitere Übertragungen. Der dritte Uplink–Kanal PUCCH wird ausschließlich zur Übertragung von Kontrollsignalen verwendet. Darunter versteht man positive und negative Empfangsbestätigungen (ACK/NACK), Anfragen nach wiederholter Übertragung (im Falle eines NACK), sowie den Austausch von Informationen über die Kanalqualität zwischen Endgerät und Basisstation. Die Beschreibung der physikalischen Kanäle des LTE–Uplinks wird auf der nächsten Seite fortgesetzt.

Lehrstuhl für Nac hric htentec hnik (LNT)

27 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Physikalische Kanäle im Uplink (2) Werden gleichzeitig Nutzdaten vom Endgerät zur Basisstation gesendet, so kann die Übertragung solcher Kontrollsignale ebenfalls über den PUSCH erfolgen. Sind keine Nutzdaten zu übertragen, wird dagegen PUCCH verwendet. Eine gleichzeitige Verwendung von PUSCH und PUCCH ist aufgrund von Einschränkungen durch das Einträger–Übertragungsschemas SC–FDMA nicht möglich. Hätte man für alle Kontrollinformationen nur einen Shared Channel gewählt, so hätte man sich entscheiden müssen zwischen zwischenzeitlichen Problemen bei der Nutzdatenübertragung, oder dauerhaft zu wenige Ressourcen für die Kontrollinformationen. Die Informationen über die Kanalqualität werden mit Hilfe sogenannter Referenzsymbolen gewonnen. Als Indikatoren für die Kanalqualität werden diese Informationen dann versendet zum Channel Quality Indicator (CQI), und zum Rank Indicator (RI). Eine detaillierte Erklärung zur Qualitätsgewährleistung findet sich zum Beispiel in [HR09] und [HT09].

Die Referenzsymbole bzw. Kanalqualitätsinformationen sind im PUSCH entsprechend der obigen Grafik verteilt. Diese beschreibt die Anordnung der Nutzinformatiom und der Signalisierungsdaten in einem „virtuellen” Unterträger. Virtuell deshalb, weil es ja bei SC–FDMA keine Unterträger gibt wie bei OFDMA. Die Referenzsymbole sind notwendig, um die Kanalqualität zu schätzen. Diese Informationen werden dann als Channel Quality Indicator (CQI) bzw. als Rank Indicator (RI) ebenfalls über den PUSCH übertragen.

Lehrstuhl für Nac hric htentec hnik (LNT)

28 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Physikalische Kanäle im Downlink (1) Im Gegensatz zum Uplink verwendet LTE im Downlink – also bei der Übertragung von der Basisstation zum Endgerät – das Vielfachzugriffsverfahren OFDMA. Entsprechend wurden vom 3GPP–Konsortium hierfür folgende physikalische Kanäle spezifiziert: Physical Downlink Shared Channel (PDSCH), Physical Downlink Control Channel (PDCCH), Physical Control Format Indicator Channel (PCFICH), Physical Hybrid ARQ Indicator Channel (PHICH), Physical Broadcast Channel (PBCH), Physical Multicast Channel (PMCH). Die Nutzdaten werden über den PDSCH übertragen. Die Ressourcenzuweisung geschieht sowohl im Zeitbereich (mit einer Auflösung von 1 ms) als auch im Frequenzbereich (Auflösung: 180 kHz). Aufgrund der Verwendung von OFDMA als Übertragungsverfahren hängt die individuelle Geschwindigkeit jedes Nutzers von der Anzahl der zugewiesenen Ressourcenblöcke (à 180 kHz) ab. Ein eNodeB vergibt die Ressourcen bezogen auf die Kanalqualität jedes einzelnen Nutzers. Im PDCCH sind alle Informationen bezüglich der Zuweisung von Ressourcenblöcken bzw. Bandbreite sowohl für den Uplink als auch für den Downlink enthalten. Ein Endgerät erhält dadurch Informationen, wie viele Ressourcen zur Verfügung stehen. Beispiel: Die Grafik zeigt beispielhaft die Aufteilung zwischen den Kanälen PDCCH und PDSCH: Der PDCCH kann pro Subframe bis zu vier Symbole belegen (in der Grafik: zwei). Somit verbleiben für die Nutzdaten (also für den Kanal PDSCH) zwölf Zeitschlitze.

Die weiteren physikalischen Kanäle des LTE–Downlinks werden auf der nächsten Seite beschrieben.

Lehrstuhl für Nac hric htentec hnik (LNT)

29 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Physikalische Kanäle im Downlink (2) Die Beschreibung der physikalischen Kanäle des LTE–Downlinks wird fortgesetzt: Über den Kanal PCFICH wird dem Endgerät mitgeteilt, wie viele Symbole den Kontrollinformationen des PDCCH zuzuordnen sind. Sinn dieser dynamischen Aufteilung zwischen Kontroll– und Nutzdaten ist folgender: Einerseits können auf diese Weise viele Nutzer mit jeweils nur geringer Datenrate unterstützt werden. Dieses Szenario benötigt eine größere Abstimmung, das heißt, in diesem Fall müsste der PDCCH drei oder vier Symbole umfassen. Andererseits kann man den durch PDCCH bedingten Overhead soweit reduzieren, dass bei wenigen gleichzeitigen Nutzern diesen eine hohe Datenrate gewährt werden kann. Über den PDCCH hinaus werden auch im Downlink Referenzsymbole benötigt, um die Kanalqualität zu schätzen und den Channel Quality Indicator (CQI) zu berechnen. Diese Referenzsymbole sind auf die Unterträger (verschiedene Frequenzen) bzw. Symbole (unterschiedliche Zeiten) verteilt, wie die folgende Grafik zeigt.

Zu den anderen physikalischen Kanäle des LTE–Downlinks ist anzumerken: Die einzige Aufgabe des Downlink–Kanals PHICH (Physical Hybrid ARQ Indicator Channel) ist es zu signalisieren, ob ein im Uplink verschicktes Paket angekommen ist. Über den Broadcast–Kanal PBCH (Physical Broadcast Channel) versenden die Basisstationen ungefähr alle 40 Millisekunden an alle mobilen Endgeräte in der Funkzelle Systeminformationen mit Betriebsparameter sowie Synchronisationssignale, die zur Anmeldung im Netz benötigt werden. Einen ähnlichen Zweck hat der Multicast–Kanal PMCH (Physical Multicast Channel), worüber Informationen für sogenannte Multicast–Übertragungen – zu mehreren Empfängern gleichzeitig – gesendet werden. Es kann sich zum Beispiel um das in einem zukünftigen Release geplanten mobilen Fernsehen via LTE oder um Ähnliches handeln.

Lehrstuhl für Nac hric htentec hnik (LNT)

30 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Abläufe in der physikalischen Ebene (1) Unter „Abläufen in der physikalischen Ebene” versteht man verschiedene Methoden und Verfahren, die in der Bitübertragungsschicht Anwendung finden. Darunter fallen unter anderem: Timing Advance, Paging, Random Access, Channel Feedback Reporting, Power Control, Hybrid Adaptive Repeat and Request. Eine komplette Auflistung mit zugehöriger Beschreibung findet sich zum Beispiel in [HT09]. Hier soll nur auf die beiden letztgenannten Verfahren genauer eingegangen werden. Leistungsregelung (englisch: Power Control) Unter Power Control versteht man im Allgemeinen die Regelung der Übertragungsleistung mit dem Ziel, die Übertragungsqualität zu verbessern, die Netzkapazität zu vergrößern, und den Stromverbrauch zu verringern. Hinsichtlich des letzten Punktes war bei der Standardisierung von LTE zu berücksichtigen: Einerseits sollte der Stromverbrauch in den Endgeräten minimiert werden, um für diese längere Batterielaufzeiten zu gewährleisten. Andererseits sollte verhindert werden, dass die Basisstationen eine zu große Leistungsspanne bereithalten müssen. Bei LTE wird Power Control nur im Uplink angewandt, wobei es sich eher um eine „langsame” Leistungsregelung handelt. Damit ist gemeint, dass das in LTE spezifizierte Verfahren nicht so schnell reagieren muss wie beispielsweise bei UMTS (W–CDMA). Der Grund ist, dass durch Verwendung des orthogonalen Trägersystems SC–FMDA das sogenannte Near–Far–Problem nicht existiert. Genau genommen wird bei LTE durch Power Control nicht die absolute Leistung kontrolliert, sondern die spektrale Leistungsdichte, also die Leistung pro Bandbreite. Anstatt zu versuchen, Leistungsspitzen durch zeitweiliges Reduzieren der Übertragungsleistung zu glätten, können Leistungsspitzen auch zur kurzzeitigen Erhöhung der Datenrate ausgenutzt werden. Insgesamt soll durch die LTE–Leistungsregelung die optimale Balance gefunden werden zwischen einer möglichst geringen Leistung und gleichzeitig einer für die Übertragungsqualität (QoS) noch akzeptablen Interferenz. Dies wird konkret erreicht durch Abschätzen des Verlustes bei der Übertragung sowie durch die Berechnung eines Korrekturfaktors entsprechend den momentanen Standorteigenschaften. Die hier gemachten Aussagen stammen großteils aus [DFJ08].

Lehrstuhl für Nac hric htentec hnik (LNT)

31 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Abläufe in der physikalischen Ebene (2) Hybrid Adaptive Repeat and Request Jedes Kommunikationssystem benötigt zur Sicherstellung einer ausreichenden Übertragungsqualität ein Schema zur erneuten Übertragung verloren gegangener Daten aufgrund auftretender Übertragungsfehler. In LTE wurde hierfür Hybrid Adaptive Repeat and Request (HARQ) spezifiziert. Dieses Verfahren wird auch bei UMTS in ähnlicher Form eingesetzt. Der auf der Stop–and–wait–Technik basierende Ablauf ist Folgender: Nachdem ein Endgerät ein Paket von der Basisstation erhalten hat, wird es decodiert und es wird ein Feedback über den PUCCH gesendet. Im Falle einer fehlgeschlagenen Übertragung („NACK”) wird das Paket erneut gesendet. Erst wenn die Übertragung erfolgreich war (Feedback: „ACK”), wird das nächste Paket verschickt. Um trotz der Stop–and–wait–Prozedur eine kontinuierliche Datenübertragung zu gewährleisten, benötigt LTE mehrere gleichzeitige HARQ–Prozesse. In LTE werden sowohl im Uplink als auch im Downlink jeweils acht parallele Prozesse verwendet. Beispiel: Die Grafik verdeutlicht die Funktionsweise bei acht gleichzeitigen HARQ–Prozessen. Der erste Prozess scheitert in diesem Beispiel im ersten Versuch bei der Übertragung von Paket 1. Der Empfänger teilt dieses „Fail” dem Sender durch ein „NACK” mit. Dagegen ist der zweite parallel ablaufende Prozess mit seinem ersten Paket erfolgreich: „Pass”.

Im nächsten Schritt (also nachdem die anderen sieben HARQ–Prozesse gesendet haben) sendet der erste HARQ aufgrund der Quittierung „NACK” sein zuletzt verschicktes Paket nochmals. Der zweite Prozess sendet hingegen aufgrund der Quittierung „ACK” nun ein neues Paket. Ebenso verfahren die anderen Prozesse, die in diesem Beispiel außer Acht gelassen wurden.

Lehrstuhl für Nac hric htentec hnik (LNT)

32 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Modulation bei LTE (1) LTE verwendet das Modulationsverfahren Quadratur–Amplitudenmodulation (englisch: Quadrature Amplitude Modulation, QAM). Dabei stehen sowohl im Uplink als auch im Downlink verschiedene Varianten zur Verfügung, nämlich 4–QAM (identisch mit QPSK) ⇒ 2 bit pro Symbol, 16–QAM ⇒ 4 bit pro Symbol, 64–QAM ⇒ 6 bit pro Symbol. Die folgende Grafik zeigt die Signalraumkonstellationen dieser Varianten.

Je nach Umgebungsbeschaffenheit bzw. je nach Entfernung zur Basisstation wählt der Scheduler das passende Modulationsverfahren (siehe nachfolgende Grafik): 64–QAM ermöglicht die besten Datenraten, ist aber auch am anfälligsten gegenüber Übertragungsstörungen und wird daher nur in der Nähe der Basisstationen verwendet. Je schwächer die Verbindung ist, desto einfacher muss das Modulationsverfahren sein, desto geringer wird aber auch die spektrale Effizienz (in bit/s pro Hertz). Sehr robust ist 4–QAM. Dieses Modulationsverfahren mit nur 2 bit pro Symbol (je eines für Real– und Imaginärteil) kann man auch noch für deutlich größere Entfernungen anwenden als beispielsweise 16–QAM. Aufgrund der genau gleichen Signalraumkonstellation bezeichnet man die 4–QAM häufig auch als Quaternary Phase Shift Keying (QPSK). Die vier Signalraumpunkte sind zum einen quadratisch angeordnet (QAM–Prinzip). Sie liegen aber auch auf einem Kreis (Kennzeichen der PSK). Hinweis: Die Quadratur–Amplitudenmodulation ist keine LTE–spezifische Entwicklung, sondern wird auch bei vielen bereits etablierten kabelgebundenen Übertragungsverfahren verwendet, wie zum Beispiel Digital Subscriber Line (DSL).

Lehrstuhl für Nac hric htentec hnik (LNT)

33 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Modulation bei LTE (2) Die Grafik aus [MG08] gibt folgenden Sachverhalt wieder: Mit 4–QAM bzw. QPSK (zwei bit/Symbol) erreicht man im LTE–Uplink bei den in [MG08] getroffenen Annahmen einen Durchsatz (englisch: Throughput) von knapp einem Mbit/s. Erst ab einer gewissen Signalstärke (englisch: Signal–to–Noise Ratio, SNR) verwendet man eine höherstufige QAM, zum Beispiel 16–QAM (4 bit/Symbol) oder 64–QAM (8 bit/Symbol). Ist das SNR hinreichend groß, so werden mit zunehmender Stufenzahl um so bessere Ergebnisse hinsichtlich des Datendurchsatzes erzielt.

Anzumerken ist, dass in den Kontrollkanälen stets die niederratige QPSK (4–QAM) verwendet wird, da diese Informationen einerseits auf Grund ihrer geringen Größe keine hohen Datenraten benötigen, und andererseits auf Grund ihrer Wichtigkeit (nahezu) fehlerfrei empfangen werden sollten. Eine Ausnahme bildet der Kanal PUSCH im Uplink, der sowohl Nutz– als auch Kontrolldaten überträgt. Aus diesem Grund wird hier für beide Signale die gleiche Modulationsart verwendet.

Lehrstuhl für Nac hric htentec hnik (LNT)

34 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.4 Bitübertragungsschicht bei LTE

Scheduling bei LTE Alle LTE–Basisstationen enthalten einen Scheduler, der zwischen einer möglichst großen Gesamtübertragungsrate bei gleichzeitig ausreichend guter Übertragungsqualität (englisch: Quality of Service, QoS) abwägt. Ein QoS–Kriterium ist zum Beispiel die Paketverzögerungsdauer. Der Scheduler versucht also, mit Hilfe von Algorithmen die Gesamtsituation zu optimieren. Scheduling ist notwendig, um eine faire Ressourcenverteilung zu gewährleisten. Ein konkretes Beispiel ist, dass einem Nutzer, der momentan zwar einen schlechten Kanal und damit eine geringe Effizienz besitzt, trotzdem ausreichend viele Ressourcen zugeordnet werden müssen, da sonst die angestrebte (und ihm garantierte) Übertragungsqualität nicht eingehalten werden kann. Der Scheduler kontrolliert dazu einerseits die Auswahl des Modulationsverfahrens und andererseits das Subcarrier–Mapping. Die Funktionsweise des Schedulers wird anhand der folgenden Grafik für den Uplink verdeutlicht. Für den Downlink gelten ähnliche Aussagen.

Basierend auf [SABM06], [WGM07] und [MG08] ist zusammenfassend zu vermerken: Scheduler–Algorithmen sind aufgrund der vielen Optimierungskriterien, Parameter und möglichen Szenarien oft sehr kompliziert. Beim Entwurf geht man daher meist von einem optimalen System aus, bei dem jede Basisstation die Kanalübertragungsfunktionen zu jeder Zeit ausreichend genau kennt und die Übertragungsverzögerung kein Problem darstellt. Aus diesen Randbedingungen werden mit Hilfe von mathematischer Analyse verschiedene Ansätze erstellt [WGM07], deren Effektivität allerdings nur über praktische Tests überprüft werden kann. Eine ausführliche Beschreibung solcher Tests findet sich beispielsweise in [MG08]. Prinzipiell kann die Gesamtübertragungsrate durch kanalabhängiges Scheduling (Ausnutzen von Frequenzselektivität) erhöht werden, allerdings verbunden mit großem Overhead, da Testsignale über die komplette Bandbreite gesendet werden müssen. Die Informationen sind an alle Endgeräte zu verteilen, wenn das komplette Optimierungspotential ausgenutzt werden soll. In verschiedenen Tests zeigten sich die eindeutigen und signifikanten Vorteile (Verdoppelung des Durchsatzes) von kanalbasiertem Scheduling, aber auch die zu erwartenden Verluste bei sich schneller bewegenden Nutzern. Mehr dazu in dem empfehlenswerten Dokument [SABM06]. Aufgrund vieler Vorteile ist Scheduling fester Bestandteil des vom 3GPP spezifizierten LTE–Release 8. Lehrstuhl für Nac hric htentec hnik (LNT)

35 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.5 LTE–Advanced – eine Weiterentwicklung von LTE

Wie schnell ist LTE wirklich? Von bereits etablierten kabelbasierten Diensten wie DSL (Digital Subscriber Line) ist der Verbraucher gewöhnt, die angebotene Geschwindigkeit (zumindest weitgehend) auch nutzen zu können. Wie verhält es sich jedoch bei LTE? Welche Datenraten kann der einzelne LTE–Nutzer tatsächlich erreichen? Für die Provider von Mobilfunksystemen ist es sehr viel schwieriger, konkrete Angaben zur Datenrate zu machen, da bei einer Funkverbindung viele schwer vorhersagbare Einflüsse zu berücksichtigen sind. Wie bereits im Kapitel 4.2 beschrieben, sind nach derzeitiger Planung (2011) mit LTE im Downlink Datenraten bis zu 326 Mbit/s möglich und im Uplink ca. 86 Mbit/s. Dabei handelt es sich aber nur um maximal erreichbaren Werte. In der Realität wird aber die Geschwindigkeit von einer Vielzahl von Faktoren beeinflusst. Wir beziehen uns im Folgenden auf den Downlink – siehe [Gut10]: Da LTE ein sogenanntes Shared Medium ist, müssen sich alle Teilnehmer einer Zelle die gesamte Datenrate von 326 Mbit/s teilen. Zu beachten ist, dass Sprachübertragung oder eine normale Nutzung des Internets weniger Verkehr erzeugt als zum Beispiel Filesharing oder Ähnliches. Je schneller sich ein Nutzer bewegt, desto geringer wird die ihm verfügbare Datenrate sein. Ein elementarer Bestandteil der LTE–Spezifikation ist, dass für eine Mobilität bis 15 km/h jeweils die höchsten Datenraten garantiert werden und bis 300 km/h zumindest noch „gute Funktionalität”. Die höchste theoretische Datenrate kann nur in nächster Nähe zur Basisstation erreicht werden. Je weiter ein Teilnehmer von dieser entfernt ist, desto geringer wird die ihm zugewiesene Datenrate, was u. a. auf das Umschalten von 64–QAM bzw. 16–QAM auf 4–QAM (QPSK) zu erklären ist. Eine Abschirmung durch Wände und Gebäude oder das Vorhandensein von Störquellen jeglicher Art begrenzen die erreichbare Datenrate. Optimal wäre eine Sichtverbindung zwischen Empfänger und Basisstation (englisch: Line of Sight, LoS), ein Szenario, das eher selten anzutreffen ist. Die Realität sah im Sommer 2011 wie folgt aus: LTE ist bereits in einigen Ländern (zumindest testweise) verfügbar. Dazu gehören außer dem LTE–Vorreiter Schweden auch die USA und Deutschland. In verschiedenen Tests wurden Download–Geschwindigkeiten zwischen 5 und 12 Mbit/s erreicht, bei sehr guten Bedingungen bis zu 40 Mbit/s. Details finden Sie in einem PDF–Dokument von CNN. Darüber hinaus schien das 2011 existierende LTE–Netz aufgrund von zu hohen Verzögerungszeiten und den daraus resultierenden gelegentlichen Verbindungsunterbrechungen noch nicht bereit, die etablierten kabelgebundenen Internetanschlüsse zu ersetzen. Die Entwicklung auf diesem Gebiet schreitet jedoch mit Riesenschritten voran, so dass diese Information vom Sommer 2011 nicht allzu lang aktuell sein dürfte.

Lehrstuhl für Nac hric htentec hnik (LNT)

36 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.5 LTE–Advanced – eine Weiterentwicklung von LTE

Einige Systemverbesserungen durch LTE–Advanced (1) Während im Sommer 2011 die ersten LTE–Systeme entsprechend dem Release 8 vom Dezember 2008 langsam auf den Markt kamen, stand der Nachfolger bereits vor der Tür. Das im Juni 2011 fertig gestellte Release 10 des „3GPP” ist Long Term Evolution–Advanced, oder kurz LTE–A. Es erfüllt als erste Technologie die Anforderungen der ITU ( International Telecommunication Union) an einen 4G–Standard. Eine Zusammenstellung dieser Anforderungen – auch IMT–Advanced genannt – finden Sie sehr detailliert auf der ITU–Website. Ohne Anspruch auf Vollständigkeit werden hier einige Eigenschaften von LTE–Advanced genannt: Die Datenrate soll bei geringer Bewegung des Teilnehmers bis zu 1 Gbit/s betragen, bei schneller Bewegung bis zu 100 Mbit/s. Um diese hohen Datenraten zu erreichen, wurden einige neue technische Spezifikationen getroffen, auf die hier kurz eingegangen werden soll. LTE–Advanced unterstützt Bandbreiten bis maximal 100 MHz, während die LTE–Spezifizierung (nach Release 8) nur 20 MHz vorsieht. Dabei müssen die FDD–Spektren nicht mehr symmetrisch zwischen Uplink und Downlink aufgeteilt sein. Es kann also zum Beispiel für den Downlink eine höhere Kanalbandbreite verwendet werden als für den Uplink, was der normalen Nutzung des mobilen Internets mit einem Smartphone entspricht. Im Uplink von LTE–Advanced wird ebenfalls SC–FDMA verwendet. Da das 3GPP–Konsortium mit der SC–FDMA–Übertragung bei LTE nicht zufrieden war, wurden aber einige wesentliche Verbesserungen im Ablauf erarbeitet, . Eine weitere interessante Neuheit stellt die Einführung sogenannter Relay Nodes dar. Ein solches Relay Node (RN) wird am Rand einer Zelle aufgestellt, um für bessere Übertragungsqualität an den Grenzen einer Zelle zu sorgen und so die Reichweite der Zelle zu erhöhen. Ein Relay Node sieht für ein Endgerät aus wie eine normale Basisstation (eNodeB). Sie muss aber nur ein relativ kleines Einsatzgebiet versorgen und muss deshalb nicht aufwändig an das Backbone angeschlossen werden. In den meisten Fällen ist ein RN über Richtfunk mit der nächsten Basisstation verbunden. Auf diese Art und Weise werden ohne großen Aufwand hohe Datenraten und gute Übertragungsqualität ohne Unterbrechungen gewährleistet. Durch Erhöhen der räumlichen Nähe zu den Basisstationen wird damit auch die Empfangsqualität in Gebäuden verbessert. Die Aufzählung der LTE–Neuerungen wird auf der nächsten Seite fortgesetzt.

Lehrstuhl für Nac hric htentec hnik (LNT)

37 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.5 LTE–Advanced – eine Weiterentwicklung von LTE

Einige Systemverbesserungen durch LTE–Advanced (2) Ein weiteres bei LTE–A hinzugekommenes Feature ist unter der Bezeichnung Coordinated Multiple Point Transmission and Reception (CoMP) bekannt. Damit versucht man, den störenden Einfluss von Interzellinterferenzen zu reduzieren. Mit intelligentem Scheduling über mehrere Basisstationen hinweg gelingt es sogar, Interzellinterferenz nutzbar zu machen. Dabei steht die Information für ein Endgerät an zwei benachbarten Basisstationen zur Verfügung und kann gleichzeitig übertragen werden. Details zur CoMP–Technik finden sich zum Beispiel in dem Internet–Artikel LTE–Advanced von 3gpp. Durch die genannten Maßnahmen in Kombination mit vielen weiteren Verbesserungen – in erster Linie die Einführung von 4×4–MIMO für den Uplink und 8×8–MIMO im Downlink – gelingt es, die spektrale Effizienz (darunter versteht man den übertragbaren Informationsfluss in einem Hertz Bandbreite innerhalb einer Sekunde) von LTE–A gegenüber LTE signifikant zu erhöhen, und zwar im Downlink von 15 bit/s/Hz auf 30 bit/s/Hz und im Uplink von 3.75 bit/s/Hz auf 15 bit/s/Hz. Natürlich muss zusätzlich auch die Rückwärtskompatibilität zum vorangegangenen Standard LTE und zu früheren Mobilfunksystemen gewährleistet werden. Auch mit einem UMTS–Handy sollte man sich in ein LTE–Netz einwählen können, auch wenn man die LTE–spezifischen Features nicht nutzen kann. Anfang Juni 2011 gab es bereits die ersten Tests zu LTE–Advanced. Schweden, das bereits das erste kommerzielle LTE–Netz aufgebaut hat, übernahm auch hier wieder die Vorreiterrolle. Die Fa. Ericsson demonstrierte erstmals ein Testsystem mit praxistauglichen, handelsüblichen Endgeräten und will nach eigenen Angaben bereits 2013 mit der kommerziellen Nutzung von LTE–Advanced beginnen. In einem Youtube–Video ist ein LTE–Test in einem fahrenden Kleinbus zu sehen, bei dem Datenraten von über 900 Mbit/s im Downlink und 300 Mbit/s im Uplink erreicht wurden.

Lehrstuhl für Nac hric htentec hnik (LNT)

38 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.5 LTE–Advanced – eine Weiterentwicklung von LTE

Standards in Konkurrenz zu LTE bzw. LTE–Advanced Neben dem vom 3GPP–Konsortium spezifizierten LTE gibt es weitere Standards, die der schnellen mobilen Datenübertragung dienen sollen. Hier soll kurz auf die zwei wichtigsten eingegangen werden: cdma2000 (oder IS–2000) und dessen Weiterentwicklung UMB (Ultra Mobile Broadband): Hierbei handelt es sich um einen Mobilfunkstandard der dritten Generation, der vom 3GPP2 (Third Generation Partnership Project 2) spezifiziert und weiterentwickelt wurde. Weitere Informationen zu cdma2000 finden Sie im Kapitel 4.1 des Buches „Beispiele von Nachrichtensystemen”. Über die Weiterentwicklung dieses Standards ist weitaus weniger bekannt als zu LTE. Erwähnenswert ist, dass es für cdma2000 und UMB einen ausschließlich für Datenübertragung spezifizierten Substandard gibt. Der Kölner Telekommunikationsanbieter NetCologne bietet derzeit (2011) auf dieser Basis mobiles Internet im Bereich um 450 MHz an. Darüber hinaus ist cdma2000 in Deutschland unbedeutend. Anmerkung: Das „3GPP2” wurde nahezu zeitgleich mit dem fast namensgleichen 3GPP im Dezember 1998 gegründet, offenbar aufgrund von ideologischen Differenzen. WiMAX (Worldwide Interoperability for Microwave Access): Unter dieser Bezeichnung versteht man eine auf dem IEEE–Standard 802.16 basierende drahtlose Übertragungstechnik. Sie gehört damit wie auch WLAN (802.11) und Ethernet (802.3) zur Familie der 802–Standards. Es gibt zwei verschiedene Unterspezifikationen zu WiMAX, nämlich einen für den Betrieb einer statischen Verbindung, die kein Handover erlaubt, und einen für den mobilen Betrieb, der UMTS und LTE Konkurrenz machen soll. Das Potential der statischen WiMAX–Verbindungen liegt hauptsächlich in der der großen Reichweite bei trotzdem vergleichsweise hoher Datenrate. Aus diesem Grund wurde statisches WiMAX zunächst als DSL–Alternative für dünn besiedelte Gebiete gehandelt. So sind bei einer Sichtverbindung zwischen Sender und Empfänger (Line of Sight, LoS) über 15 Kilometer etwa 4.5 Mbit/s möglich. In urbanem Gebiet ohne Sichtverbindung wird für WiMAX immerhin noch eine Reichweite von ca. 600 Meter angegeben, ein deutlich besserer Wert als die 100 Meter, die WLAN typischerweise bietet. Momentan (2011) wird auch an einer Weiterentwicklung namens WiMAX2 gearbeitet. Nach Aussage der Initiatoren ist WiMAX2 in der mobilen Version ein 4G–Standard, der genau wie LTE–Advanced Datenraten bis zu 1 Gbit/s erreichen kann. Ende 2011 soll WiMAX2 in die Praxis umgesetzt werden. Ob es zu diesem Termin und der prognostizierten Datenrate klappt, wird sich zeigen. In Deutschland spielt WiMAX (derzeit noch) keine große Rolle, da sowohl die Bundesregierung in ihrer Breitbandoffensive als auch alle großen Mobilfunkbetreiber Long Term Evolution (LTE bzw. LTE–A) als Zukunft der mobilen Datenübertragung ausgerufen haben.

Lehrstuhl für Nac hric htentec hnik (LNT)

39 / 40

Tec hnisc he Universität Münc hen

Buch: Mobile Kommunikation Kapitel: 4 LTE Long Term Evolution

Lerntutorial LNTwww (online unter www.lntwww.de) Abschnitt: 4.5 LTE–Advanced – eine Weiterentwicklung von LTE

Meilensteine der Entwicklung von LTE und LTE–Advanced Abschließend noch ein kurzer Überblick über einige Meilensteine bei der Entwicklung hin zu LTE: 2004: Das japanische Telekommunikationsunternehmen NTT DoCoMo schlägt LTE als neuen internationalen Mobilfunkstandard vor. 09/2006: Nokia Siemens Networks (NSN) stellt zusammen mit Nomor Research erstmals einen Emulator eines LTE–Netzes vor. Zur Demonstration wird ein HD–Video übertragen und zwei Nutzer spielen ein interaktives Onlinespiel. 02/2007: Auf dem 3GSM World Congress , der weltweit größten Mobilfunkmesse, demonstriert das schwedische Unternehmen Ericsson ein LTE–System mit 144 Mbit/s. 04/2008: DoCoMo demonstriert eine LTE–Datenrate von 250 Mbit/s. Nahezu zeitgleich erreicht Nortel Networks Corp. (Kanada) 50 Mbit/s bei einer Fahrzeuggeschwindigkeit von 100 km/h. 10/2008: Test des ersten funktionsfähigen LTE–Modems durch Ericsson in Stockholm. Dieser Termin ist der Startschuss für die kommerzielle Nutzung von LTE. 12/2008: Fertigstellung der Release 8 des 3GPP, gleichbedeutend mit LTE. Das Unternehmen LG Electronics entwickelt den ersten LTE–Chip für Mobiltelefone. 03/2009: Auf der CeBIT in Hannover zeigt T–Mobile Videokonferenzen und Onlinespiele aus einem fahrenden Auto heraus. 12/2009: Das weltweit erste kommerzielle LTE–Netz startet in der Stockholmer Innenstadt, nur 14 Monate nach Beginn der Testphase. 04/2010: 3GPP beginnt mit der Spezifikation von Release 10, gleichbedeutend mit LTE–A. 05/2010: Die LTE–Frequenzauktion in Deutschland endet. Der Erlös ist mit 4.4 Milliarden Euro deutlich geringer, als von den Experten erwartet und von Politikern erhofft. 08/2010: T-Mobile baut in Kyritz die erste kommerziell nutzbare LTE–Basisstation Deutschlands. Für einen funktionierenden Betrieb fehlen aber noch die passenden Endgeräte. 12/2010: In Deutschland laufen die ersten größeren Pilottests in den Netzen von Telekom, O2 und Vodafone an. Inzwischen sind auch entsprechende LTE–Router verfügbar. 02/2011: In Südkorea werden erste erfolgreiche Tests mit dem Nachfolger LTE–Advanced durchgeführt. 03/2011: Das 3GPP Release 10 ist fertiggestellt. 06/2011: Start des ersten deutschen LTE–Netzes in Köln. Bis Ende 2011 will die Telekom in 100 weiteren Städten für eine großflächige Verbreitung von LTE sorgen.

Lehrstuhl für Nac hric htentec hnik (LNT)

40 / 40

Tec hnisc he Universität Münc hen