Oświadczenie: Poglądy i opinie wyrażone w tym tekście należą wyłącznie do autora i nie reprezentują poglądów ani opinii redakcji crypto.news.
Internet osiągnął skalę, ponieważ IP stworzył uniwersalną strukturę dla danych. Web3 nigdy nie miał tego luksusu. Zamiast tego odziedziczył sieci z lat 80. i zlepek protokołów ad-hoc, które zwalniają i przeciążają się w momencie, gdy próbujesz przeprowadzić rzeczywiste transakcje na dużą skalę, nie mówiąc już o miliardach agentów AI, globalnych warstwach rozliczeniowych czy planetarnej skali zdecentralizowanej siatki czujników infrastruktury fizycznej. Dawno minęliśmy punkt, w którym szybsze łańcuchy lub większe bloki mogłyby pomóc.
Web3 potrzebuje własnego momentu TCP/IP: zdecentralizowanego protokołu internetowego zbudowanego na zasadach, które uczyniły oryginalny internet niepowstrzymanym, ale zaprojektowanego tak, aby zachować to, co czyni blockchain ważnym: brak zaufania, odporność na censurę i udział bez pozwolenia, który wreszcie działa na dużą skalę.
Przed IP komputery nie mogły komunikować się między sieciami. IP stworzył uniwersalny standard routingu danych między dowolnymi dwoma punktami na ziemi, przekształcając izolowane systemy w internet. Stał się jednym z trzech filarów infrastruktury internetowej (obok obliczeń i przechowywania). Każda aplikacja web2 działa na TCP/IP. To protokół, który umożliwił komunikację w skali planetarnej.
Web3 powtarza te same wczesne błędy. Każdy blockchain wynalazł własną warstwę sieciową, w tym protokoły plotek, Turbine, Snow, Narwhal, mempools i próbkowanie DA. Żaden z nich nie jest uniwersalny i są niepotrzebnie restrykcyjne. Wszyscy gonią za prędkością z większymi blokami, większą liczbą rollupów, większą równoległością. Ale wszyscy używają fundamentalnie wadliwych modeli sieciowych.
Jeśli poważnie myślimy o skalowaniu web3, potrzebujemy niezawodnie szybkiego, bezpiecznego, odpornego na awarie i, co najważniejsze, modułowego protokołu internetowego.
Przez ponad dwie dekady moje badania w MIT koncentrowały się na jednym pytaniu: Czy systemy zdecentralizowane mogą przenosić informacje tak szybko i niezawodnie jak scentralizowane — i czy możemy to udowodnić matematycznie?
Aby na to odpowiedzieć, połączyliśmy dwie dziedziny, które rzadko się przecinały: teorię kodowania sieci, która matematycznie optymalizuje ruch danych, oraz algorytmy rozproszone, kierowane przełomową pracą Nancy Lynch nad konsensusem i bizantyjską tolerancją błędów.
To, co odkryliśmy, było jasne: systemy zdecentralizowane mogą osiągnąć wydajność na poziomie scentralizowanym — ale tylko wtedy, gdy przeprojektujemy ruch danych od podstaw. Po latach dowodów i eksperymentów, losowe liniowe kodowanie sieci (RLNC) okazało się matematycznie optymalną metodą do tego w sieciach zdecentralizowanych.
Gdy pojawiły się blockchainy, zastosowanie stało się oczywiste. Internet, który mamy, został zbudowany dla zaufanych pośredników. Zdecentralizowana sieć potrzebuje własnego protokołu: takiego, który został zaprojektowany, aby wytrzymać awarie i ataki, jednocześnie skalując się globalnie. Zmiana architektoniczna jest taka, że:
Podobnie jak oryginalny protokół internetowy, nie ma on zastępować tego, co istnieje, ale umożliwiać to, co nadejdzie.
Systemy zdecentralizowane osiągają swoje granice w dokładnie tym momencie, gdy świat potrzebuje, aby się skalowały. Pojawiają się cztery makrotrendy — i każdy ujawnia to samo wąskie gardło: Web3 nadal działa na założeniach sieciowych odziedziczonych po systemach scentralizowanych.
Mamy teraz ponad sto blockchainów, i chociaż każdy może zoptymalizować własne lokalne wykonanie, w momencie gdy te sieci muszą koordynować się globalnie, wszystkie napotykają te same wyzwania: ruch danych jest ograniczony, nieefektywny i fundamentalnie nieoptymalny.
Czego brakuje blockchainom, to odpowiednik sieci elektrycznej, współdzielonej warstwy, która kieruje przepustowość tam, gdzie jest potrzebna. Zdecentralizowany protokół internetowy dałby każdemu łańcuchowi dostęp do tej samej struktury kodowanych danych, przyspieszając propagację bloków, pobieranie DA i dostęp do stanu bez dotykania konsensusu. I jak każda dobra sieć, kiedy działa, przeciążenie jest zminimalizowane.
DeFi nie może rozliczać bilionów w sieciach, gdzie propagacja jest wolna, załamuje się pod obciążeniem lub gdzie wąskie gardła RPC centralizują dostęp. Gdyby wiele łańcuchów było połączonych wspólną kodowaną siecią, skoki propagacji prawdopodobnie nie przytłoczyłyby żadnego pojedynczego łańcucha — zostałyby wchłonięte i redistrybuowane w całej sieci.
W tradycyjnych systemach budujesz większe centra danych, aby wchłonąć szczytowe obciążenie. Są one drogie i prowadzą do pojedynczych punktów awarii. W systemach zdecentralizowanych nie możemy polegać na megacentrach; musimy polegać na kodowanej dystrybucji.
Globalna sieć z milionami urządzeń i autonomicznych maszyn nie może funkcjonować, jeśli każdy węzeł czeka na wolną, jednościeżkową komunikację. Te urządzenia muszą zachowywać się jak jeden, spójny organizm.
W systemach energetycznych elastyczne sieci wchłaniają zarówno komercyjne operacje wydobywcze, jak i pojedynczą suszarkę do włosów. W sieciach zdecentralizowany protokół musi robić to samo dla danych: optymalnie wchłaniać każde źródło i dostarczać je tam, gdzie jest najbardziej potrzebne. Wymaga to kodowanego przechowywania, kodowanego pobierania i możliwości wykorzystania każdej dostępnej ścieżki, zamiast polegania na kilku z góry określonych.
Rozproszona sztuczna inteligencja, czy to trenowana na zaszyfrowanych fragmentach, czy koordynująca floty agentów AI, zależy od wysokoprzepustowego, odpornego na awarie ruchu danych. Dziś zdecentralizowane przechowywanie i obliczenia są rozdzielone; dostęp jest wolny; pobieranie zależy od scentralizowanych bramek. To, czego potrzebuje sztuczna inteligencja, to logistyka danych, a nie proste przechowywanie: oznacza to, że dane są kodowane podczas ruchu, przechowywane w kodowanych fragmentach, pobierane z tego, co jest najszybsze w danym momencie, i natychmiast rekombinowane bez polegania na żadnej pojedynczej lokalizacji.
Każdy główny skok w ewolucji internetu rozpoczął się od przełomu w sposobie przemieszczania się danych. IP dostarczył globalną łączność. Szerokopasmowy internet umożliwił Netflix i przetwarzanie w chmurze. 4G i 5G umożliwiły Uber, TikTok i media społecznościowe w czasie rzeczywistym. GPU wywołały rewolucję głębokiego uczenia się. Inteligentne kontrakty odblokowały programowalne finanse.
Uniwersalna warstwa kodowanych danych zrobiłaby dla blockchainów to, co IP zrobiło dla wczesnego internetu: stworzyłaby warunki dla aplikacji, których jeszcze nie możemy sobie wyobrazić. To fundament, który przekształca Web3 z eksperymentalnego w nieunikniony.


