Нові комунікаційні технології

Нові комунікаційні технології

телефон

Моделі комунікації продовжують розвиватися, і цей розвиток визначає вигляд нових технологій, які, в свою чергу впливають на бізнес. У цій статті поговоримо про еволюцію технологій, на яких грунтується гігантська цифрова мережа, побудована нами за останні десятиліття, а почнемо цей свій огляд з Інтернету як такого.

В основі технологій Інтернету - та й всього середовища цифрової комунікації в цілому - лежить концепція пакетизації. Відповідно до цієї моделі пакет наказує мережі, як себе вести. І в цьому плані тут в осяжному майбутньому навряд чи щось зміниться. IP викликав справжній переворот в індустрії, де раніше безроздільно панувала телефонія. Замість активної мережі з комутацією каналів, як в телефонній мережі, архітектура IP побудована на пасивній, по суті, мережі, елементи якої просто комутують пакети. Функція відповіді на запит послуги передана комп'ютеру, що знаходиться на краю мережі.

Але зміни - справа важка, і ми кілька десятиліть намагалися повернутися до старої моделі мережевого сервісу. Ми щосили намагалися зберегти відповідь на запит послуги в мережі, пов'язавши його з обробкою пакетів. Автори деяких підходів до якості обслуговування (Quality of Service, QoS) намагалися реалізувати різну мережеву поведінку для різних класів пакетних потоків в рамках однієї і тієї ж мережевої платформи. До сих пір деякі технології, такі як MPLS або варіанти маршрутизації від джерела, зовні емулюють віртуальні. Минуле не відпускає, і спроби відродити принципи комутації каналів в пакетній мережі до цього часу не припиняються. Однак не варто вважати ці технології новими: вони здаються швидше кроком назад.

собака

У той же час ми досягли неймовірного прогресу в інших аспектах мережевих технологій. Ми будуємо географічно розподілені відмовостійкі системи, які обходяться без централізованого управління і контролю. Той, хто вивчає протокол міждоменної маршрутизації BGP, який вже три десятиліття непомітно підтримує Інтернет, не може не подивуватися дизайном, створеним з очевидним даром передбачення, розподіленої системи, що управляє мережею на дев'ять порядків величини більше мережі початку 1990-х років, для якої вона була спочатку розроблена. Ми створили мережу нового типу: відкриту і доступну. Створення нових додатків в телефонній мережі було практично неможливо, а в Інтернеті саме це відбувається весь час. Весь світ мережевих технологій, від різноманіття додатків до самих основ цифрової передачі даних, знаходиться в безперервному русі, а нові технології з'являються з приголомшливою швидкістю.

Які нові технології відіграють важливу роль в наступні роки? Пропонуємо вашій увазі наш особистий шорт-лист недавніх технологічних досягнень, які, з нашої точки зору, визначать розвиток Інтернету в майбутньому.

Оптична когерентність

Оптика довго не могла зробити крок далі рівня звичайного електричного ліхтарика: або в кабелі горить світло, або він там не горить. Такий примітивний підхід до оптичного кодування, який отримав назву OOK (англ. On-off keying - включення-виключення), безперервно допрацьовувався і поліпшувався, поки не доріс до підтримки швидкостей до 10 Гбіт/с в оптиці - але далі інженери вперлися в, здавалося б , нездоланні обмеження застосовності наших цифрових сигнальних процесів. Тепер ми звернулися до принципів оптичної когерентності, і тут нас чекала друга хвиля інновацій. Використання оптичної когерентності саме по собі далеко не нове - і вже послужило нам відмінну службу в інших областях. Ми налаштували аналогові модеми для основної смуги частот голосового зв'язку так, що вони стали видавати 56 кбіт/с на частоті 3 кГц. А в світі радіо аналогічний підхід дозволив системам 4G підтримувати швидкості передачі даних аж до 200 Мбіт/с.

В основі цього підходу лежить використання фазово-амплітудної модуляції для того, щоб вичавити з оптики максимум, впритул наблизившись до теоретичної межі Шеннона. Зараз на ринку звичайною справою стали оптичні системи з пропускною спроможністю 100 Гбіт на довжину хвилі, вже з'являються і 400-гігабітні. Дуже ймовірно, що в найближчі роки ми побачимо і терабітні системи, що використовують фазово-амплітудну модуляцію високої щільності в поєднанні з індивідуально налаштованою цифровою обробкою сигналів. І, як було і з іншими оптичними системами, ціни на одиницю пропускної здатності увійдуть в глибоке піке по мірі нарощування обсягів. Нинішній світ багатий ресурсами зв'язку, і через призму цього багатства відкривається новий, часто несподіваний погляд на мережеві архітектури.

5G

А що можна сказати про радіозв'язок? 5G, наприклад, нова технологія чи ні? В принципі, 5G не так вже й сильно відрізняється від 4G. 4G дійсно була новаторською, тому що зажадала переходу від PPP-тунелів до власної, безпосередньої пересилки пакетів IP. А 5G - це та ж сама 4G, тільки на більш високих частотах. У перших системах 5G використовуються несучі частоти 3,8 ГГц, але планується охопити і міліметровий діапазон з частотами до 24 ГГц, до 84 ГГц. Це неоднозначна перспектива, так як, з одного боку, збільшення несучої частоти дозволить виділяти великі блоки частот (а отже, підвищити пропускну здатність радіомережі), але, з іншого боку, висока частота означає малу довжину хвилі, а міліметровий діапазон за своїми характеристиками ближче до світла, ніж до радіо. На високих частотах радіосигнал весь час блокується будівлями, стінами, деревами і іншими великими предметами, що створюють тінь. В результаті для досягнення такої ж якості покриття потрібно набагато більше базових станцій. Якщо відволіктися від рекламних обіцянок, неясно, чи є для 5G-міліметрового діапазону вигідна економічна модель.

флешка

Тому не будемо включати 5G в свій список. Радіо і мобільні сервіси були і залишаться надзвичайно важливим аспектом Інтернету, але 5G не представляє собою якогось радикального прогресу в плані використання цих систем за межами того, на що здатна вже укорінена технологія 4G.

IPv6

Якось навіть незручно зараховувати IPv6 до «нових технологій» в 2020 році. Перша специфікація IPv6 - RFC1883 - датується 1995 роком, тобто самій технології вже 25 років. Але схоже, що через багато років нерішучості і навіть заперечення проблем можливості IPv4 практично вичерпані, а тому на сьогоднішній момент IPv6 використовується в чверті Інтернету. Ця частка неминуче збільшуватиметься. Важко сказати, скільки часу це займе, але кінцевий результат, по суті, однозначний. Тому якщо говорити про «нове» в тому плані, які технології будуть широко впроваджуватися в наступні роки, IPv6 точно слід віднести до цієї категорії, не дивлячись на поважний вік!

BBR

Розроблений Google алгоритм BBR (Bottleneck Bandwidth and Round-trip time) для TCP є революційним алгоритмом управління. Він переосмислює взаємозв'язок між кінцевими пристроями, мережевими буферами і швидкістю, дозволяючи кінцевим системам ефективно використовувати доступну пропускну здатність мережі, не відчуваючи негативного впливу внутрішньої буферизації в активних мережевих елементах. Алгоритми контролю перевантаження на базі втрат послужили нам хорошу службу в минулому, але тепер, коли швидкості передачі даних від краю до краю наближаються до сотень гігабіт на секунду, консервативні алгоритми контролю на основі втрат перестали бути практичними. BBR є абсолютно новим підходом і до управління потоком, і до управління швидкістю: він намагається стабілізувати швидкість потоку на одному і тому ж рівні для більшої частини доступної пропускної здатності мережі. Це абсолютно приголомшлива технологія.

QUIC

Мережі та додатки з давніх пір знаходяться в стані своєрідної холодної війни між собою. У світі, де повсюдно застосовується наскрізний контроль перевантаження TCP, мережеві ресурси спільно використовуються декількома активними клієнтами, причому спосіб такого використання визначають самі клієнти. Для мережевих операторів це завжди було справжнім прокляттям: вони б вважали за краще активно управляти ресурсами своїх мереж і надавати клієнтам чітко визначений сервіс. Для цієї мети в мережах можуть бути встановлені різноманітні обмежувачі швидкості на основі політик. Працюють вони так: по «сигнатурі» заголовка пакета визначається додаток, який її створив, і далі політика визначає, як з пакетом вчинити. Для цього потрібна прозорість вмісту кожного пакета IP, яка як раз передбачена в TCP.

QUIC - це форма інкапсуляції, в якій використовується видима зовнішня оболонка пакета UDP, а внутрішнє корисне навантаження - TCP і контент - шифрується. При такому підході параметри управління потоком TCP виявляються приховані від мережі і мережевих обмежувачів, що працюють на основі політик, але це ще не все: управління алгоритмом потоку даних відбирається у загальної операційної системи хоста і передається кожному окремому додатку. Додаток отримує більший контроль, а тому може незалежно розвиватися і коригувати свою поведінку незалежно від платформи.

фотоапарати

Крім того, усувається необхідність в однаковій і однаково незручній для всіх моделі управління потоком даних, яка використовується в платформних TCP-додатках операційних систем. При використанні QUIC додаток сам може налаштовувати свої способи управління потоком так, щоб оптимізувати поведінку додатка в рамках поточного стану мережевого шляху.

DNS без резолверів

Можна було написати «DNS поверх HTTPS» (DoH), але ми не впевнені, що DoH є такою вже новою технологією, тому сумніваємося, що її можна сюди віднести. Ми використовували HTTPS в якості технології для тунелювання брандмауерів і забезпечення приватності комунікації практично з тих пір, коли з'явилися брандмауери і побоювання стеження. Програмні інструменти для тунелювання пакетів IP у сеанси HTTPS широко поширені і використовуються вже кілька десятиліть, так що тут нічого особливо нового немає. (Якщо ви не використовуєте HTTPS, то переходьте за цими рекомендаціями. Інкапсуляція DNS всередині HTTPS - лише незначний розвиток моделі, в якій HTTPS використовується для тунелювання всього.

У той же час, сам HTTPS дає нам ряд додаткових можливостей, які недоступні старому доброму DNS поверх TLS (частини HTTPS, яка відповідає за створення безпечного каналу). Йдеться про технології відправки даних з ініціативи сервера (англ. Server push) в Інтернет. Наприклад, веб-сторінка може посилатися на кастомну сторінку стилю, щоб визначити, як має виглядати її візуальне оформлення. Замість того щоб змусити клієнта запросити сторінку стилю окремо, тобто виконати ще одне перетворення DNS і встановити ще одне з'єднання, сервер може просто відправити цей ресурс клієнту разом зі сторінкою, яка використовує його. Для HTTP запити і відповіді DNS виглядають точно так само, як будь-які інші транзакції з об'єктами даних, так що, з точки зору HTTP, відправка відповіді DNS без запиту, який йому передує, DNS за тим же принципом мало чим відрізняється, скажімо, від відправки таблиці стилів.

Однак для архітектури імен в Інтернеті таке нововведення означає дуже, дуже багато. Справа ось у чому: раптом імена, які так пересилаються по HTTPS, були доступні тільки в контексті даного конкретного веб-середовища і недоступні для будь-яких інших інструментів, включаючи звичайні запити DNS? Інтернет можна визначити як єдиний, взаємозалежний і внутрішньо несуперечливий простір імен. При спілкуванні ми відправляємо один одному посилання на ресурси, наприклад, їх імена, і це можливо тільки в разі, якщо дане конкретне ім'я для вас означає один і той самий ресурс. Результат перетворення DNS залишається тим самим, незалежно від того, яка програма його запитує, в якому контексті і навіщо. Але коли контент відправляє перетворені імена клієнтам, це робиться просто для створення власного контексту і середовища, які будуть унікальними, тобто відрізнятися від будь-якого іншого контексту імен. Замість одного несуперечливого простору імен виникає безліч фрагментованих і, можливо, просторів, які перекриваються, і немає ніякого чіткого способу розрулити потенційні конфлікти імен.

дроти

Рушійними силами багатьох нових технологій є швидкість, зручність і настройка середовища під кожного окремого користувача. З цієї точки зору поява DNS без резолвера практично неминуча. Але зворотною стороною медалі при цьому буде втрата зв'язності Інтернету, і неясно, чи послужить дана конкретна технологія на благо Інтернету або завдасть йому величезної шкоди. Що ж, так чи інакше, час покаже!

Квантові мережі

У 1936 році, задовго до появи перших програмованих комп'ютерів сучасного типу, один британський математик (Алан Тьюринг, Alan Turing - прим. Ред.) описав в якості уявного експерименту універсальну обчислювальну машину - і, що ще важливіше, поділив задачі на обчислювані (для яких рішення можна досягти за кінцевий час) і необчислювані (при вирішенні яких машина ніколи не зупиниться). То ж можна сказати, що ще до появи першого фізичного комп'ютера було відомо про існування цілого класу задач, вирішити які на комп'ютері неможливо. У 1994 році аналогічний прорив здійснив Пітер Шор (Peter Shor), розробивши алгоритм розкладання числа на прості множники за кінцевий час для квантового комп'ютера, який тоді був ще теоретичною абстракцією. Можливості (і обмеження) цієї нової машини для обробки даних були описані задовго до того, як її вдалося побудувати. Зараз квантові комп'ютери стали реальністю - новою і потенційно революційною технологією в комп'ютерному світі.

З цією технологією пов'язана ще одна - квантові мережі, між якими передаються квантові біти (кубіти) інформації. Тут ми нічого не можемо сказати про те, що нас чекає: чи приготована квантовим мережам роль якоїсь езотеричної бічної гілки в еволюції цифрових мереж або ж вони отримають загальне поширення і ляжуть в основу цифрових сервісів завтрашнього дня. Час покаже, а поки його пройшло зовсім небагато.

Еволюція архітектури

Чому технічна еволюція все ніяк не зупиниться? Чому ми все ніяк не можемо сказати: «Все, хлопці, справу зроблено, пішли вип'ємо!» Нам здається, що постійне прагнення модифікувати технічні платформи Інтернету походить від еволюції архітектури самого Інтернету.

Початкова модель Інтернету, по суті, була призначена для того, щоб з'єднувати клієнтів з сервісами. Тепер же можна побудувати архітектуру, в якій будь-який сервіс може підтримувати виділену мережу доступу, і клієнтові потрібно підключитися до потрібної мережі, щоб отримати доступ до потрібної послуги. Правда, ми вже спробували цю модель в невеликому масштабі в 80-і роки минулого століття, і вона спричинила у всіх жах! Тому ми стали використовувати Інтернет як універсальну мережу для з'єднання всіх клієнтів з усіма сервісами. До тих пір, поки всі сервіси і всі сервери підключені до цієї загальної мережі, клієнт, підключившись до неї, отримує доступ до них до всіх. У 90-х роках це був революційний крок, але з тих пір число користувачів безперервно зростала і в кінці кінців переросла можливості серверної моделі. Ситуація стала нестабільною. Популярні сервіси стали в якомусь сенсі схожі на чорні діри в мережі. Нам гостро потрібне інше рішення, і ми винайшли мережі доставки контенту (англ. Content distribution networks, CDN). CDN використовує виділені мережі для того, щоб розгорнути кілька рівноправних точок доставки своїх послуг по всьому Інтернету. Замість того щоб звертатися до будь-якого сервісу по єдиній глобальній мережі, клієнтові потрібно всього лише підключитися до мережі доступу, яка «доведе» його до локальної агрегованої точки доступу CDN. Чим більше ми користуємося локально доступними сервісами, тим менше ми використовуємо глобальну мережу.

мікросхема

Що це означає для технологій?

В результаті слабшає мотивація підтримувати Інтернет єдиним і зв'язковим. Якщо велика частина цифрових сервісів для користувачів доступна в чисто локальній структурі, то хто ж буде платити величезні гроші за глобальний транзит для доступу до крихітного рудимента решти сервісів, доступних тільки віддалено? Чи потрібен локальним сервісам доступ до унікальних інфраструктурних елементів глобальної мережі? NAT - екстремальний приклад того, що чисто локальні сервіси цілком функціональні при роботі з чисто локальними адресами, і широке використання локальних імен - ще одне цьому підтвердження. Не варто прямо робити висновок, що зростання популярності мереж доставки контенту призведе до фрагментації Інтернету, але фрагментація за самою своєю суттю подібна такому фізичному явищу, як ентропія. А значить, потрібні постійні зусилля, щоб протистояти фрагментації. Якщо послабити пильність, якщо не прикладати постійні зусилля до підтримки єдиної глобальної системи унікальних ідентифікаторів, ми почнемо рухатися в бік мереж, які зможуть працювати лише локально.

Тут проявляється ще одна тенденція: зростання масштабу ізоляції сервісів в додатках. Прикладом може служити перший сценарій застосування QUIC. QUIC використовувався виключно браузером Google Chrome при доступі до веб-серверів Google. Функції транспортного протоколу, зазвичай, є частиною загального сервісу для додатків операційної системи, були переміщені в додаток. Старі концепції проектування, які передбачають використання загального набору функцій операційної системи замість спроектованих на замовлення функціональних можливостей додатків, більше не застосовуються. Розгортаючи більш потужні кінцеві системи і більш швидкі мережі, ми можемо створювати додатки з високим ступенем кастомізації. Уже зараз браузери реалізують безліч функцій, які раніше були доступні лише операційним системам, а тепер тим самим шляхом пішли багато додатків. Справа не просто в бажанні більш тонкого контролю над взаємодією з кінцевим користувачем, хоча це теж важлива обставина - справа ще і в тому, що кожен додаток закриває свою поведінку і взаємодію з користувачем від інших додатків, від операційної системи хоста і від мережі. Якщо тепер припустити, що гроші, які вкладаються в розвиток Інтернету, - це гроші, одержувані з знання звичок і бажань кінцевого користувача (а у випадку з Google, Amazon, Facebook, Netflix і багатьох інших це чиста правда), то який сенс цим програмам розкривати свою інформацію третім особам? На зміну додаткам, що спираються на багатий набір сервісів операційної системи і мережі, приходить нова технологічна модель, яку можна характеризувати як «програми-параноїки». Такі програми-параноїки не тільки прагнуть звести до мінімуму залежність від зовнішніх ресурсів - вони намагаються якнайкраще замаскувати свою власну поведінку.

Фото: flickr.com
Обробка: Vinci
назад
далі