Maciej Gajewski / 06.11.2017

Wszystko, co musisz wiedzieć o 5G, a nawet nie wiedziałeś, jak zapytać

95 interakcji Przejdź do dyskusji

Wielkimi krokami nadchodzi technologia 5G, która będzie rewolucją w świecie łączności bezprzewodowej. Jeśli wszystko pójdzie zgodnie z planem, to sieć 5G ma zmienić cyfrowy świat na lepsze, ale jak to zrobi i czy na mapie wdrożeń jest Polska?

Większość naszych kieszonkowych urządzeń działa dzięki pewnemu panu, który nazywał się Heinrich Hertz. To niemiecki naukowiec, który był zafascynowany pracą Michaela Faradaya nad polem elektromagnetycznym i Jamesa Maxwella nad korpuskularno-falową naturą światła. Hertz zbudował pierwsze urządzenie, które transmitowało i wykrywało fale elektromagnetyczne.

Hertz zadowolił się udowodnieniem tego, że Maxwell miał rację, ale reszta świata nauki czuła, że na tym nie koniec. Fale Hertza zostały określone jako fale radiowe, a ich częstotliwość mierzymy dziś w hercach (Hz). Owa częstotliwość to główny parametr definiujący falę radiową.

Przykładowo, fale światła poruszają się przy bardzo wysokich częstotliwościach w zakresie 430-750 teraherców (różnice w częstotliwościach to różne kolory widzialnego światła). Fale radiowe operują w znacznie niższych częstotliwościach, poniżej trzech teraherców. I tu robi się ciekawie, bowiem częstotliwość fal radiowych opisuje też jak wiele informacji fale radiowe mogą przenosić i na jaką odległość.

Jak fala radiowa może przenosić informacje?

Fale radiowe możemy skłonić do przekazywania informacji za pomocą techniki nazywanej modulacją. To właśnie od niej pochodzi nazwa modem, a więc modulacja i demodulacja. Owa technika to kształtowanie rzeczonych fal poprzez wpływanie na ich amplitudę, częstotliwość i fazę.

Zaawansowana technika modulacji oznacza więcej przesyłanych informacji.

Im bardziej zaawansowana technika modulacji, tym więcej danych można wysłać przez eter za pomocą fal radiowych. Przy czym zawsze obowiązuje pewna zasada: im niższa częstotliwość, tym fale radiowe pokrywają większy obszar i mają mniej problemów z pokonywaniem fizycznych przeszkód. Im wyższa częstotliwość, tym więcej informacji mogą przenosić.

I tu wreszcie dochodzimy do sedna. Jak zaoferować usługi radiowe – a konkretniej telekomunikacyjne – tak, by klient miał jak największą przepustowość, by owe usługi były szeroko dostępne i by koszty całości pozwoliły usługodawcy nadal zarabiać?

Skoro mówimy o 5G, to czy istniało kiedyś 1G?

Oczywiście. Choć nikt wtedy tego tak nie określał. Literka G oznacza generację, a te się zmieniają średnio co dekadę. Owo 1G zostało wprowadzone przez Nordic Mobile Telephone w 1982 roku. 2G pojawiło się na rynku w 1992 roku, a 3G w 2001. 4G w pełni, opisanej w dokumencie standaryzującym możliwości, pojawiło się w 2012 roku.

Również opracowywanie każdej z tych technik trwało około 10 lat. Prace nad 4G zaczęły się już na przełomie 2001 i 2002 roku. Część z nich było wykorzystywanych do wzmocnienia aktualnej generacji sieci, czego efektem były takie techniki, jak wzmacniający 2G CdmaOne/IS95 czy wzmacniający 3G WiMAX. Prace nad 5G rozpoczęły się w kwietniu 2008 roku, ze wspólnej inicjatywy NASA i firmy M2Mi. I już sam pomysł wywołał pewien problem.

W powietrzu robi się gęsto

Nowe generacje sieci komórkowych to nowe pasma częstotliwości i szersze pasma widmowe na kanał częstotliwości. W przypadku 1G było to 30 KHz, w przypadku 2G – 200 kHz, w przypadku 3G – 5 MHz, w przypadku 4G – 20 MHz. Sceptycy zauważają, że kończy się miejsce na naziemne usługi radiowe. Jesteśmy coraz bliżej momentu, w którym wyższe częstotliwości zakłócają transmisje z satelitów telekomunikacyjnych.

Na dodatek eksperci szybko zauważyli, że samo zwiększanie przepustowości nie ma sensu, biorąc pod uwagę to, co oferuje 4G. Sieć nowej generacji powinna też umożliwiać stacjom obsługę większej liczby urządzeń, wyższą wydajność spektralną (stosunek maksymalnej ilości danych do obszaru, na który mogą zostać wysłane), zmniejszyć zużycie energii przez urządzenia odbiorcze, zmniejszyć opóźnienia (tzw. latencję) i koszt utrzymania infrastruktury.

Unia Europejska podała własne wymagania dotyczące 5G.

Do listy wymagań dorzuciła się Komisja Europejska, która bierze aktywny udział w formowaniu standardu 5G. Powołane przez nią programu 5G PPP i Horizon 2020 zakładają, że celem 5G jest wzmocnienie największych w Europie sektorów przemysłowych, a więc motoryzacyjnego, transportowego, służby zdrowia, energetycznego, wytwórczego i rozrywkowego.

Postawiła więc dodatkowe wymagania:

  • latencja nie może przekraczać 5 ms,
  • możliwa obsługa do 100 urządzeń na metr kwadratowy,
  • określony zasięg stacji, choć tego nadal nie uściślono,
  • możliwość integracji z systemami przewodowymi i satelitarnymi.

Jak wyglądała kuchnia prac nad 5G?

Na zapoczątkowaną przez NASA i M2Mi inicjatywę jako pierwsza – w 2008 roku – odpowiedziała południowokoreańska administracja, powołując swój własny program rozwoju sieci 5G. Dopiero w 2012 roku kolejny kraj powołał własną inicjatywę, a więc brytyjskie Centrum Innowacji 5G na uniwersytecie w Surrey.

2012 rok był punktem zwrotnym w rozwoju 5G.

W Nowym Jorku powstało centrum rozwojowe NYU Wireless fundowane z pieniędzy podatników, ale które w zarządzie ma przedstawicieli prywatnych operatorów komórkowych. Prace tego centrum wykazały, że fale milimetrowe nadają się do wykorzystania w tym standardzie.

W tym samym też roku Komisja Europejska zaalokowała budżet w wysokości 50 mln euro na wprowadzenie na teren Unii Europejskiej sieci. Sztandarową inicjatywą stał się projekt METIS 2020. Wspierany przez firmy telekomunikacyjne odegrał kluczową rolę w standaryzacji 5G. Komisja powołała też inicjatywę 5GrEEn, której rolą jest wspieranie rozwiązań energooszczędnych.

Liderem rozwoju stała się Europa, choć i Chiny okazały się ważnym graczem

Inicjatywa KE szybko zaczęła przynosić efekty. W listopadzie 2012 roku powołano program i-JOIN, którego celem było zbadanie możliwości świadczenia usług radiowych (RAN) jako usługi (RANaaS). Styczeń 2013 to nowy projekt o nazwie CROWD, którego celem stało się opracowanie zagęszczonej, heterogenicznej sieci komórkowej.

Jednak nie tylko Europa zaczęła pracować nad częściami składowymi 5G. We wrześniu 2013 roku amerykańskie laboratorium CPS (Cyber-Physical System) zaczęło pracować nad dynamiczną alokacją zasobów infrastruktury 5G, określaną jako C-RAN. W listopadzie tego samego roku Huawei ogłosił, że przeznaczy 600 mln dol w przeciągu 5 lat na badania i rozwój na rzecz 5G. Dwa lata później, wspólnie z Ericssonem, firma rozpoczęła testowanie usług 5G w północnej części Holandii.

Tego samego roku, a więc w lipcu 2015, Komisja Europejska powołała programy METIS-II i 5GNORMA. Pierwszy z nich wykorzystał prace METIS i zajął się projektowaniem sieci 5G oraz szukaniem efektywnych kosztowo rozwiązań składowych umożliwiających jej wdrożenie, przy współpracy z innymi ciałami mającymi wpływ na standaryzację sieci. Z kolei 5GNORMA miało zapewnić gwarancję dalszego rozwoju sieci 5G i możliwości jej modernizacji.

Jakby tego było mało, w lipcu 2015 roku Europa uruchomiła projekt mmMAGIC który koncentruje się na badaniach nad falami milimetrowymi, które okażą się kluczowe do zapewnienia najbardziej wymagających usług strumieniowych i chmurowych. Partnerami mmMAGIC są Samsung, Ericsson, Intel, Fraunhofer HHI, Nokia i Huawei. W tym samym miesiącu uruchomiono również projekt Xhaul, którego celem jest optymalizacja sprawności (QoS) sieci oraz Flex5Gware, mająca zapewnić sprzętowe elementy składowe 5G, które ułatwiłyby przejście z sieci 4G.

Najciekawszy wydaje się projekt SUPERFLUIDITY.

Nazwa SUPERFLUIDITY pochodzi od fizycznego określenia nadciekłość na stan materii charakteryzujący się całkowitym zanikiem lepkości. Nazwa stosowna, bowiem projekt zakłada osiągnięcie internetowej nadciekłości, a więc możliwości umieszczania usług w dowolnym punkcie składowym sieci, co znacząco zmniejszyłoby jej obciążenie.

Nieco ponad rok później, we wrześniu 2016 roku, chińskie ministerstwo telekomunikacyjne przeprowadziło pierwsze testy sieci 5G. Przeprowadzono je na terenie 100 miast, wspólnie z Datang Telecom, Ericssonem, Huawei, Intelem, Nokią, Samsungiem i ZTE. Wyniki, według raportu, okazały się satysfakcjonujące. Podobne – choć na znacznie mniejszą skalę – testy przeprowadził Huawei wspólnie z operatorem Telenor na terenie Norwegii.

Ciekawym graczem na tym polu wydaje się też Intel, który z dużym sukcesem nadrabia swoje duże zaległości na rynku telekomunikacyjnym. Dla tej firmy fundamentem testów rozwiązań 5G jest platforma Intel 5G Mobile Trial Platform. Będzie ona obsługiwać nowy standard non-standalone NR (New Radio), który udostępniony zostanie jeszcze w tym roku. Dzięki temu możliwe będzie przeprowadzenie testów operacyjnych i wykonanie próbnych wdrożeń. Jest to pierwsze tego typu rozwiązanie w branży. Dodatkowo Intel współpracuje z operatorami, chcąc rozpocząć testy transmisji NR poza laboratorium, w zastosowaniach praktycznych.

A pierwszym krajem, który otworzy na klientów sieć 5G prawdopodobnie będzie… San Marino

To właśnie w tym kraju operator Telecom Italia chce wprowadzić coś w rodzaju publicznych beta-testów sieci 5G, mimo iż ta nie została jeszcze ustandaryzowana. Operator podpisał nawet w tej sprawie memorandum z rządem tego niewielkiego państewka. Sieć ma ruszyć… już w przyszłym roku.

W tym szaleństwie jest jednak metoda. San Marino to kraj o powierzchni raptem 61 kilometrów kwadratowych, mieszka w nim około 30 tys. osób. Sieć ma być uruchomiona w przyszłym roku, choć dokładna data nie jest jeszcze potwierdzona. Wnioski wyciągnięte z wdrożenia mają być zastosowane przy kolejnym wdrożeniu: Telecom Italia chce uruchomić w 2020 r. sieć 5G pokrywającą całe miasto Turyn.

Z jakich technologii składa lub potencjalnie będzie się składać sieć 5G, które dadzą jej przewagę nad 4G?

  • Massive MIMO: punkt nadawczy z dużą liczbą anten obsługujący wielu użytkowników, co pozwala osiągnąć dużą wydajność przy minimalnych interferencjach.
  • 3DBF: wykorzystanie setek anten w stacji bazowej pracujących w zakresie fal milimetrowych z możliwością wysyłania sygnału kierunkowego.
  • Proaktywne tworzenie danych podręcznych: przechowywanie często pobieranych treści w stacjach bazowych celem redukowania opóźnień w ich dostępności.
  • Wyposażenie punktów transmisyjnych w zaawansowane mechanizmy do zarządzania interferencją i mobilnością. A więc, upraszczając, wprowadzenie mechanizmów zarządzających do sieci komórkowej, by żadna z komórek nie wchodziła sobie w drogę.
  • Identyfikacja rodzaju urządzeń. A więc ich priorytetowanie w zależności od zastosowania poprzez wprowadzenie innego modelu usługi dla licznych urządzeń IoT czy usług krytycznych – takich jak kontrola ruchu drogowego czy lotów – którym należy zapewnić minimalną latencję i pierwszeństwo w komunikacji.
  • Wykorzystanie fal milimetrowych na poziomie infrastrukturalnym, mające usprawnić transfer danych od usługodawcy do stacji.
  • Wirtualizacja sieci bezprzewodowej: ta znana już technika ma być wykorzystana w szerszym zakresie w sieci 5G. Dzięki niej mogą funkcjonować tak zwani wirtualni operatorzy.
  • Cognitive radio (CR): to technika polegająca na wykorzystywaniu wolnego elementu spektrum radiowego celem współdzielenia kilku usług radiowych w zadanym zakresie pasma.
  • Dynamic Adhoc Wireless Networks (DAWN), a więc mechanizm sieci typu ad-hoc o zdecentralizowanej strukturze, w której urządzenia mogą pełnić funkcję zarówno klienta, jak i punktu dostępu.
  • VFDM, czyli standard modulacji umożliwiający koegzystencję Cognitive radio i makrokomórek.
  • IPv6, czyli standard umożliwiający przydzielenie numeru IP na bazie miejsca i wykorzystywanej sieci.
  • Li-Fi, a więc wykorzystanie w standardzie MIMO diod i światła do wysyłania danych.

Przy czym – z uwagi na dalej toczące się rozmowy – możemy potraktować powyższą listę dość umownie…

Rekordy na razie bije ZTE

To ZTE ustanowił w tym roku nowy rekord w mobilnej transmisji danych. Podczas drugiej fazy testów rozwiązań dla sieci nowej generacji, udało się osiągnąć transfer na poziomie 19 Gb/s, ustanawiając tym samym nowy rekord prędkości dla sieci komórkowych. Co więcej, opóźnienia sięgały zaledwie 0,416 ms. Testy przeprowadzono na początku lipca w Pekinie.

Najważniejszym ze sprawdzianów był udoskonalony mobilny test szerokopasmowy (tzw. eMBB), który został przeprowadzony w oparciu o technikę sub-6GHz. ZTE udało się dostarczyć 28 niezależnych strumieni danych za pośrednictwem nowej stacji bazowej przeznaczonej dla sieci 5G, pracującej w paśmie 3,5 GHz. Jak podkreśla ZTE, tego typu rozwiązania nadają się idealnie do gęsto zaludnionych obszarów miejskich.

W drugim teście, który opierał się na wykorzystaniu fal milimetrowych wysokiej częstotliwości wykorzystano stację bazową 26 GHz. W przypadku tego rozwiązania osiągnięta prędkość przekroczyła 13 Gb/s przy czterech strumieniach danych. Infrastruktura sieciowa stworzona przez ZTE do masowej komunikacji maszynowej była w stanie obsłużyć aż 90 milionów połączeń w ciągu godziny na obszarze 1 km2, na każdy MHz częstotliwości. To oznacza aż 600% przyrost wydajności sieci.

Cieszymy się, że testy technologii 5G weszły w kolejną fazę. Dzieli nas już tylko krok od tego, aby nasze telefony stały się zupełnie inne, a czas oczekiwania na pobranie danych przestał niemal zupełnie istnieć. Telefony nie będą musiały mieć zainstalowanych aplikacji, bo szybkie łącze pozwoli trzymać je w chmurze. Całkowicie zmieni się zatem sposób korzystania ze smartfonów i konsumowania cyfrowych treści. Co więcej, dzięki technologii 5G mobilne pobieranie danych z prędkością 1 Gb/s, a nawet wyższą, stanie się rzeczywistością.

 

Dodatkowo, takie sieci obsłużą ogromną liczbę urządzeń „Internetu rzeczy”. Komunikacja z kamerą zainstalowaną w domu, ekspresem do kawy czy bramą wjazdową stanie się codzienną rzeczywistością. Czeka nas także znaczące przyśpieszenie prac nad autonomicznymi samochodami. Te będą mogły otrzymywać ogromne ilości danych z serwerów zewnętrznych, zamiast obrabiać wszystkie dane lokalnie – komentuje Adam Getka, product menager w ZTE Polska.

Sztuka kompromisów dla operatora

Operator komórkowy musi podejmować bardzo trudne decyzje, by pozostać konkurencyjnym na rynku a zarazem notować odpowiednie zyski ze świadczenia usługi. W miastach jest duże zagęszczenie wymagających klientów, więc na obszarach wielkomiejskich operatorzy stosują sieć 4G (LTE) wykorzystując częstotliwości 1,8 GHz i 2,6 GHz. To kosztowna operacja, zwłaszcza że w miastach jest od groma budynków blokujących fale radiowe, a to oznacza inwestycje w znacznie większą liczbę stacji. Inwestycję jednak opłacalną, z uwagi na duże zagęszczenie płacących klientów.

Z tego samego powodu inaczej podchodzi się do obszarów pozamiejskich, gdzie zagęszczenie klientów jest relatywnie niewielkie. Inwestycja w liczne stacje pracujące na wysokich częstotliwościach jest mało opłacalna, więc operatorzy stosują niższe częstotliwości pozwalające na mniejsze ich zagęszczenie.

To sztuka kompromisów, której częściowo przecież zaradzić ma 5G. A więc umowna nazwa telefonii komórkowej nowej generacji.

Czym stało się 5G?

No i tu zaczyna robić się zabawnie, bowiem nadal trwają dyskusje na temat tego, czym właściwie powinna być sieć 5G. Producenci telekomunikacyjnej infrastruktury nadal na ten temat prowadzą rozmowy, mimo iż Międzynarodowy Związek Komunikacyjny (ITU) opublikował już wstępną specyfikację sieci 5G.

Takowa sieć – by spełniać standardy – musi oferować co najmniej 20 Gb/s przepustowości dla stacji, z czego minimalnie 100 Mb/s pobierania i 50 Mb/s wysyłania dla każdego z użytkowników. Dla porównania, maksymalna przepustowość LTE to 1 Gb/s. Sieć też musi obsłużyć co najmniej milion urządzeń na jednym kilometrze kwadratowym z uwagi na coraz szersze zastosowanie urządzeń Internetu rzeczy (IoT). Sieć 5G ma oferować usługi nawet jeśli urządzenie odbiorcze porusza się z prędkością 500 km/h.

Wróćmy do tych kompromisów, bo w teorii ITU żąda niemożliwego

Z jednej strony, jak wynika z powyższych założeń, standard 5G ma na celu zwiększenie przepustowości sieci w relatywnie niedrogi sposób, by sprostać popytowi na wysokowydajne łącza, generowanemu przez takie usługi, jak YouTube czy Netflix. Z drugiej zaś ma sprostać rosnącemu ekosystemowi urządzeń IoT, często operujących w trudno dostępnych miejscach.

Dlatego 5G musi operować w dwóch zakresach

Po pierwsze, poniżej 1 GHz, by móc relatywnie łatwo pokonywać przeszkody, takie jak ściany czy wzgórza. Musi też oferować pasmo powyżej 20 GHz, by sprostać wymaganiom związanym z przepustowością. Nie można mieć jednego bez drugiego.

Co więcej, niektóre urządzenia będą potrzebowały korzystać z obu zakresów. Na przykład drony, które potrzebują pewnego i stabilnego łącza w niskiej częstotliwości, by operator nie stracił nad nimi kontroli, i wysokowydajnego, by mogły strumieniować obraz w wysokiej rozdzielczości.

A operatorzy się niecierpliwią. Chcąc zyskać przewagę nad konkurencją wdrażają własne niby-standardy

Nadal nie jest jasne, jaka częstotliwość dla wysokiej przepustowości będzie uznana za standard. W teorii, według szkicu specyfikacji, miało być to 26 Ghz. Tymczasem południowokoreańscy i amerykańscy operatorzy już teraz budują swoją infrastrukturę 5G, która wykorzystuje pasmo 28 GHz. Choć to nie pierwszy taki spór w historii telekomunikacji. Nawet Apple otrzymał od amerykańskiej Federalnej Komisji Łączności zezwolenie na testowanie iPhone’ów współpracujących z siecią operującą w zakresie 28 GHz i… 39 GHz.

Ostatnia pełna zgodność między wszystkimi podmiotami miała miejsce przy okazji wdrażania sieci 3G, kiedy wszyscy się zgodzili, że 2,1 GHz to najlepszy pomysł, a jego globalna standaryzacja umożliwi tańsze i łatwiejsze w produkcji urządzenia odbiorcze. Niestety, już podczas standaryzowania LTE pojawiły się problemy i niedopowiedzenia, przez co dziś typowy sztandarowy telefon przystosowany do pracy w większości sieci komórkowych musi obsługiwać aż 25 zakresów częstotliwości.

Spór o właściwe częstotliwości na 5G będzie miał jednak poważniejsze konsekwencje, niż ten o LTE. Tak wysokie częstotliwości przekładają się na niski zasięg i problemy z pokonywaniem przeszkód. A to oznacza, że gęstość stacji znacznie wzrośnie. Na dodatek, by uniknąć wzajemnych interferencji, technika MIMO (a konkretniej, w przypadku 5G, massive MIMO) będzie konieczna. A to oznacza stosowanie tysięcy małych anten kierunkowych, co z kolei oznacza niesamowite ich zagęszczenie. Efektem ubocznym możliwości oglądania Netfliksa w 4K na tablecie będzie gąszcz zainstalowanych na budynkach anten. W tym tych prywatnych, co rodzi problem prawny, którego na razie nie rozwiązano.

5G okaże się jednak dużo istotniejsze dla przemysłu i IoT niż dla konsumenta

Jasne, wydajne i niedrogie strumieniowanie wideo w 4K to coś, na co wszyscy czekamy. Jednak jak zauważa Ericsson w przeprowadzonym przez siebie badaniu Healthcare to Homecare, sieć 5G będzie miała ogromne znaczenie dla transformacji opieki lekarskiej, zapewniając skuteczność transmisji w usługach informacji zwrotnych i alarmów, mobilność i niewielkie opóźnienia.

5G umożliwi wiele zastosowań, jak na przykład zdalne monitorowanie dzięki noszonej na ciele aparaturze medycznej, wirtualne kontakty lekarza z pacjentem i operacje przeprowadzane przez zdalnie kierowane roboty. Kluczowe odkrycia obejmują decentralizację opieki zdrowotnej poprzez jej przeniesienie ze szpitali do domów, oraz, ponieważ dane pacjentów stają się bardziej scentralizowane, przekształcenie szpitali w ośrodki danych.

Zwiększające się uzależnienie od noszonej na ciele aparatury i zdalne leczenie sprawią, że 5G stanie się nieodzowne dla zapewnienia niezawodnych i bezpiecznych usług.

Jak to wygląda w Polsce?

Całkiem niedawno, bo raptem 29 czerwca bieżącego roku, szefowa Ministerstwa Cyfryzacji podpisała Porozumienie na rzecz Strategii 5G dla Polski. Celem dokumentu jest nawiązanie współpracy pomiędzy państwem, jednostkami naukowymi i przedsiębiorcami w celu wdrożenia w Polsce sieci piątej generacji.

W uroczystości, obok Anny Streżyńskiej, wzięli udział przedstawiciele partnerów – Urzędu Komunikacji Elektronicznej i Instytutu Łączności, a także sygnatariusze – przedstawiciele operatorów, dostawców infrastruktury, sprzętu i rozwiązań w zakresie telekomunikacji, instytucji badawczo-rozwojowych, izb gospodarczych oraz uczelni technicznych. Jak zaznaczyli organizatorzy, porozumienie na rzecz strategii „5G dla Polski” jest otwarte na nowych członków. W najbliższym czasie Ministerstwo Cyfryzacji planuje zaprosić do niego przedstawicieli władz samorządowych.

– 5G to nowe możliwości dla konsumentów i przedsiębiorców, nowe modele biznesowe i rozwiązania, których dziś nie jesteśmy jeszcze w stanie precyzyjnie opisać. Dlatego tak wiele krajów na całym świecie patrzy na wdrożenie 5G nie jako na nową platformę technologiczną, ale jako na platformę rozwoju gospodarczego – mówi Anna Streżyńska. – Chcemy, żeby technologia 5G była trampoliną, która pozwoli naszej gospodarce wybić się na wyższy poziom. To wielka szansa dla Polski – dodaje.

Porozumienie podpisali m.in. wszyscy polscy operatorzy, a więc T-Mobile, Orange, Plus i Play.

Jedną z ostatnich prezentacji działania 5G w Polsce przeprowadził Exatel, przy współpracy z organami Komisji Europejskiej

Test przeprowadzono w warszawskim centrum handlowym Blue City. Polegał on na transmisji wideo w rozdzielczościach 4K i 8K przez zainstalowane w obiekcie moduły antenowe 5G. Wideo było odbierane na ruchomym terminalu oraz komputerze z goglami VR.

Celem było sprawdzenie współdziałania wszystkich elementów infrastruktury sieciowej, z uwzględnieniem etapu konwersji sygnału radiowego na przesyłany światłowodem do i z sieci szkieletowej. Testy zakończyły się pozytywnym rezultatem.

Na polski rynek z dużym optymizmem patrzy T-Mobile

Trudno jest odróżnić PR-owe zapewnienia od faktycznych deklaracji, ale słowa Tima Höttgesa – prezesa Deutsche Telekom – wypowiedziane na konferencji Impact’17 wydają się być krzepiące.

Jestem tutaj, aby powiedzieć, że Deutsche Telekom spowoduje, że Polska będzie jednym z pierwszych krajów, które będą miały sieć 5G – twierdził.

Faktycznie, T-Mobile poszukuje partnerów, którzy chcą tworzyć w ramach prowadzonego przez operatora hub:raum nowe produkty działające w tej technologii w środowisku testowym. Inicjatywa nosi nazwę Prototyping Hub.

Deutsche Telekom i kontrolowana przez niego T-Mobile Polska uruchamiają również program Prototyping Hub skoncentrowany na sieci 5G i sieci niskich opóźnień. Podczas Impact’17 Tim Höttges zaprosił do współpracy start-upy, które uważają, że mogą wykorzystać możliwości technologii 5G i mają już interesujące pomysły.

Budujemy sieć Narrowband IoT. Ogłosiliśmy plan budowy sieci NB IoT na skalę Europejską do końca 2017 roku w Polsce, Niemczech, Holandii, Austrii, Grecji, Chorwacji, na Węgrzech i na Słowacji – mówił Höttges – Udane wdrożenie 5G wymaga silnej współpracy, uczciwej konkurencji i mniej regulacji – dodał.

No właśnie, czy ten optymizm jest uzasadniony?

Podczas tej samej konferencji, Marcin Cichy, pełniący funkcję prezesa UKE (Urzędu Komunikacji Elektronicznej) ogłosił, że częstotliwości do rozwoju sieci 5G w Polsce w zasadzie zostały już wytypowane. W pierwszej kolejności ma być zagospodarowane pasmo 700 MHz, chociażby z uwagi na fakt, że nie podlega ono żadnym sporom u podmiotów współtworzących standaryzację tej sieci.

W kolejnych latach mają być uwalniane na potrzeby 5G kolejne częstotliwości. Najpierw 2,3-2,4 GHz, częściowo nadal wykorzystywane przez wojsko. Dopiero potem – według szacunków po 2019 r. – będą uwalniane pasma 6 GHz i 10 GHz. Tu jednak wiele zależy od decyzji podmiotów międzynarodowych. Według prezesa, Polska dysponuje bardzo dobrymi podstawami do rozwoju tej infrastruktury. I ma do dyspozycji 4 mld zł na dalszy jej rozwój.

Orange widzi szansę w wirtualizacji. A testy ma już dawno za sobą

Wirtualizacja to nie tylko wspomniana wcześniej w materiale możliwość współpracy z operatorami wirtualnymi, ale również sposób, aby operator mógł konfigurować i włączać do swojego systemu dodatkowe podmioty na zasadzie plug&play. Jest to także sposób na sprawne zarządzanie swoimi zasobami sieciowymi. Już w listopadzie 2016 r. Orange przeprowadził pierwsze w Polsce testy w ramach elementów zwirtualizowanych sieci Radio Access Network (vRAN).

W ramach vRAN funkcje, które obecnie pełni stacja bazowa, zostają przeniesione do chmury obliczeniowej. W przyszłości jeden serwer może obsługiwać nawet kilkaset stacji. Technologia jest w pełni skalowalna. Tę technologię Orange testował w jednym z obiektów Orange Labs oraz w terenie, na dwóch ogólnodostępnych stajach bazowych pod Warszawą . Testy wyszły pomyślnie i udało się przenieść obsługę trzech stacji bazowych do jednej chmury.

Największą zaletą takiego podejścia jest kontrola systemu z poziomu serwerów, co ogranicza potrzebę nadzorowania i konserwowania tysięcy stacji bazowych rozsianych po Polsce. Dzięki temu system staje się prostszy, łatwiejszy w obsłudze, a co za tym idzie – tańszy. Do tego jest bardziej energooszczędny.

Testy przeprowadzone przez Orange były pierwszymi takimi testami w Polsce. Orange aktywnie uczestniczy m.in. w projekcie „5G! Pagoda”, finansowanym przez Komisję Europejską, jako uczestnik konsorcjum i lider jednej z grup roboczych, a także w pracach nad standardami bezpieczeństwa sieci 5G.

Plus spogląda w przyszłość, ale chce też wyciągnąć jak najwięcej z LTE Advanced

Niektórzy nie czekają na to, aż poszczególne podmioty w końcu ustalą ostateczną formę, jaką ma przybrać sieć komórkowa piątej generacji. Plus, choć podpisał porozumienie o rozwoju infrastruktury celem przygotowania jej pod 5G, zamierza dalej sprawdzać gdzie kończą się granice możliwości, jakie zapewnia sieć 4G. Trzeba przyznać, że idzie to operatorowi zaskakująco dobrze.

Choć 5G staje coraz bardziej popularnym terminem używanym w kontekście rozwoju Internetu mobilnego, niewątpliwie upłynie jeszcze sporo czasu do momentu kiedy 5G zacznie rozszerzać funkcjonalności oferowane przez 4G. Warto tutaj zauważyć, że standard 4G cały czas jest rozwijany, a doskonałym przykładem jest niedawne komercyjne wdrożenie technologii QAM256, MIMO 4×4 oraz agregacja w trzech częstotliwościach pasma o łącznej szerokości 50 MHz w sieci LTE Plus Advanced, dzięki czemu maksymalna prędkość pobierania danych w Białymstoku wzrosła do 500 Mb/s.

 

Natomiast, wdrożenie 5G po pierwsze wymaga zmiany przepisów regulujących kwestie związane z budową odpowiedniej infrastruktury, a po drugie ta technologia nie została jeszcze w pełni wystandaryzowana. Niemniej jednak, dostawcy infrastruktury oraz operatorzy mobilni sformułowali już oczekiwania strategiczno-funkcjonalne, które spełniać ma standard 5G. Te oczekiwania determinują to, które technologie na pewno będą potrzebne w systemie 5G, nawet jeżeli jeszcze nie przygotowano dla nich odpowiednich standardów. Plus od dłuższego czasu testuje te technologie. Jest to na przykład formowanie wiązki w kierunku abonentów – beamforming i wielodrogowość nadawania i odbioru sygnału radiowego – massive MIMO – powiedział w rozmowie ze Spider’s Web Arkadiusz Majewski z Działu Komunikacji Korporacyjnej Plusa.

Czy Polska uczestniczy w aktywnym rozwoju sieci 5G?

Po części tak, za sprawą Nokii. Jej polski oddział jest jednym z największych w Europie. Zatrudnia ponad 3750 osób i uczestniczy w najważniejszych projektach pozwalających realizować wizję rozwoju 5G według Nokii. Nokia słusznie diagnozuje, że najwięcej na 5G skorzysta branża IoT.

Agnieszka Szufarska, Radio Research Manager z Centrum R&D Nokii we Wrocławiu, która kieruje jednym z zespołów badawczych pracujących nad projektowaniem rozwiązań technicznych dla sieci 5G, podaje nawet wstępny termin wdrożenia technologii w życie:

Projekt systemu telekomunikacji mobilnej piątej generacji (5G) jest ściśle związany z rozwojem komunikacji pomiędzy urządzeniami (Internet of Things), ale również rosnącym ruchem danych we wszystkich sieciach. 5G jest obecnie w fazie badań i pierwsze bazujące na standardzie 5G komercyjne wdrożenia tej technologii spodziewane są około roku 2020.

Zaś Bartosz Ciepluch, Dyrektor Europejskiego Centrum Oprogramowania i Inżynierii w Wrocławiu zapewnia:

Jesteśmy jednym w wiodących graczy w tworzeniu standardu 5G biorąc udział w międzynarodowych projektach METIS czy 5G PPP. Oprócz wytyczania drogi do 5G, polscy inżynierowie opracowują oprogramowanie i aplikacje dla technologii LTE, LTE-Advanced oraz uczestnicząc w tworzeniu rozwiązań 3G oraz LTE, wspierając operatorów z całego świata. Słowem, nasi ludzie tworzą przyszłość telekomunikacji mobilnej.

Sztandarowym opracowanym tu produktem są małe stacje bazowe – Small cells, które zapewniają wysokiej jakości dostęp do sieci. Są też jedną z ważnych technologii dostępu, które będą wspierały przyszłe sieci 5G. Nokia współpracuje też blisko z dziewięcioma wyższymi uczelniami w Polsce, realizując wspólne projekty dydaktyczne i badawcze.

Zainaugurowaliśmy działalność nowego laboratorium dydaktycznego LTE dla studentów Wydziału Informatyki, Elektroniki i Telekomunikacji AGH w Krakowie. Jest to pierwsza tego typu pracownia uruchomiona na polskich uczelniach – tłumaczy Krzysztof Persona z krakowskiego laboratorium Nokii.

Prace w Polsce prowadzi również Ericsson, w swoim centrum rozwojowym w Łodzi, przy współpracy naukowej z Politechniką Łódzką.

To w jaki sposób 5G zmieni nasz świat na lepsze?

Według raportu Ericssona, już w 2022 roku liczba subskrypcji 5G będzie wynosić 550 mln. Ameryka Północna będzie liderem w przechodzeniu do sieci nowej generacji. W 2022 jedną czwartą wszystkich subskrypcji będą stanowić subskrypcje 5G. Rejon Azji i Pacyfiku będzie drugim najszybciej rozwijającym się regionem, posiadając w 2022 roku 10 procent wszystkich subskrypcji 5G.

Ruch w tych sieciach zdominowany będzie przez wideo. Według raportu, ruch w sieciach mobilnych, za który odpowiadają materiały wideo, będzie wzrastać o około 50 proc. w skali roku do 2022, by wynieść prawie 75 proc. całego ruchu. Zwłaszcza że w coraz większym stopniu korzystamy z aplikacji umożliwiających streaming na żywo do komunikacji ze znajomymi lub fanami.

Kluczowa jednak będzie koncentracja na Internecie rzeczy. Do 2022 roku na całym świecie do sieci podłączonych będzie 29 mld urządzeń, z czego około 18 mld to urządzenia IoT. Najnowsza edycja Ericsson Mobility Report obejmuje bliższe spojrzenie na IoT. I jeżeli gdziekolwiek nastąpi faktyczna rewolucja za sprawą 5G, to właśnie w tym sektorze.

Samo zwiększenie przepustowości sieci to bez wątpienia wspaniałe wieści. 5G przybliży nam jednak świat, w którym wszystko wokół nas jest inteligentne i połączone. Jednych ta wizja przeraża, ta wszechobecna chmura i sztuczna inteligencja w każdym przedmiocie. Z drugiej jednak strony… przecież kilka lat temu przerażały nas algorytmy Google’a i Facebooka. Świat się jednak za ich sprawą nie zawalił, a my chętnie i często korzystamy z usług profilowanych.

Advertisement