Unikanie badań nad bałkanizacją Blockchain

Przez Everett Muzzy i Mally Anderson

Priorytetyzacja interoperacyjności

Ten artykuł jest pierwszym z serii, w której badamy stan i przyszłość interoperacyjnych funkcji w ekosystemie blockchain. Definiujemy tutaj „interoperacyjność” jako zdolność łańcuchów bloków do wymiany danych między platformami – w tym danych i transakcji poza łańcuchem – bez pomocy stron trzecich. Badając postęp architektury Web2 od wczesnej teorii do masowej adaptacji, seria dowodzi, że interoperacyjność protokołu blockchain jest niczym innym jak podstawowym wymaganiem do wykorzystania pełnego potencjału technologii. Seria pokazuje, jak ekosystemowi grozi obecnie „bałkanizacja” – tj. stając się serią niepowiązanych ze sobą systemów działających równolegle, ale odizolowanych od siebie – w obliczu konkurencji i presji handlowej. Aby ekosystem mógł nadać priorytet interoperacyjności, musi ustanowić bezpieczną, radykalnie zdecentralizowaną i pozbawioną zaufania warstwę rozliczeniową, na której jednocześnie działające łańcuchy bloków mogą zakotwiczyć swoje transakcje. Biorąc pod uwagę obecny stan systemów blockchain, architektura Ethereum najbardziej przypomina to, czego wymaga ten uniwersalny łańcuch rootów.

Ryzyko bałkanizacji

Problemy dzisiejszej architektury Web2 – w szczególności silosowanie, podatność i złe zarządzanie danymi użytkowników – można prześledzić jako odchylenie branży od wczesnych wartości internetowych, które pierwotnie traktowały priorytetowo interoperacyjność jako klucz do zrównoważonego i sprawiedliwego świata połączonego z siecią. W obecnym tempie ekosystemowi blockchain grozi podobna „bałkanizacja”, w której interoperacyjność protokołów jest pozbawiona priorytetów, ponieważ firmy starają się wykazać zastosowanie własnego łańcucha blokowego szybciej niż konkurenci. Istnieje ryzyko, że presja na przyjęcie do głównego nurtu może pojawić się, zanim infrastruktura Web3 będzie wystarczająco interoperacyjna i bezpieczna, aby ukazać pełną wizję jej pierwotnych architektów. Web3 może wyglądać podobnie do dzisiejszego Web2 pod względem wykluczenia finansowego, silosowania informacji i niepewności danych – ale zamiast tego gwarantowany przez serię łańcuchów bloków, które ze względu na konkurencyjny projekt nie współpracują na poziomie protokołu.

Lekcje z wczesnego Internetu

Internet powstał jako finansowany ze środków publicznych, akademicki projekt badawczy, który rozpoczął się w latach sześćdziesiątych XX wieku w celu zwiększenia zdolności ludzi do tworzenia, przesyłania i udostępniania informacji. Wczesne iteracje informacji online przybrały postać podstawowego tekstu i obrazów, połączonych i udostępnionych przez sieć hiperłączy. Od tego czasu „informacje” w sieci ewoluowały, aby reprezentować własność zasobów (zwłaszcza pieniądze), profile użytkowników i tożsamość (w szczególności rozproszone cyfrowe fragmenty tożsamości).

Niezależnie od tego, jak szeroka stała się definicja informacji reprezentowanych cyfrowo, teoria zarządzania informacjami online ma swoje korzenie we wczesnej teorii sieci. Tworząc kolejną ewolucję w dziedzinie transmisji informacji, pierwsi pionierzy Internetu starali się zapewnić przepływ informacji w sieci w sposób naśladujący naturalne wzorce ludzkiego zachowania. Tim Berners-Lee, wynalazca World Wide Web, wyznaczył swoją misję zbudowania struktury sieci, która umożliwi humanistyczną transmisję informacji w przeciwieństwie do hierarchicznej struktury korporacji – do tego momentu jednej z dominujących struktur, za pośrednictwem których ludzie wytwarzali i zarządzali dużymi ilościami informacji. Podczas gdy sztywna, odgórna struktura firmy starała się dyktować przepływ informacji w ustalony, wzorowany i możliwy do prześledzenia sposób, rzeczywistość tego, w jaki sposób ludzie się komunikowali i współdzielili, była znacznie bardziej chaotyczna i bardziej amorficzna. Aby naśladować naturalną społeczną wymianę informacji typu peer-to-peer, Berners-Lee zalecił prostotę w architekturze sieci Web. Zapewniając jedynie podstawowe elementy systemu cyfrowego, informacja mogłaby rosnąć i ewoluować w najbardziej naturalny – a zatem musi być skalowalny – sposób. Z chwilą, gdy „metoda przechowywania… nałoży [d] własne ograniczenia” na to, w jaki sposób rzeczy mogą zostać przekazane, informacja ucierpi. Berners-Lee ugruntował swoje przekonanie, że Sieć powinna naśladować naturalne struktury, opisując rozwój sieci jako „tworzenie komórek w globalnym mózgu” [źródło] i mając nadzieję, że pewnego dnia może „odzwierciedlić” sposób, w jaki ludzie wchodzą w interakcje, spotykają się i żyją na co dzień [źródło].

Cel uzyskania skalowalnych, przekazywanych humanistycznie informacji cyfrowych zależał od kluczowej koncepcji: „efektu od końca do końca” [źródło]. Efekt „od końca do końca” oznaczał, że użytkownicy Internetu (tj. Ci, którzy byli po obu stronach transmisji informacji) otrzymywali te informacje w spójny sposób. Ludzie musieli mieć możliwość przyjmowania powtarzalnych zachowań, które pozwoliłyby im pobierać, przetwarzać i przesyłać informacje w mniej więcej ten sam sposób za każdym razem, gdy wchodzą w interakcję z siecią. Mówiąc inaczej, plik technologia która służyła konsumentowi, informacja musi to robić w spójny sposób za każdym razem, w różnych lokalizacjach i typach treści.

Efekt end-to-end można osiągnąć na dwa sposoby: 1) Osoby trzecie mogą występować jako pośrednicy, świadcząc usługi w zakresie dostarczania informacji w spójnej formie, tak jak były one przesyłane z punktu A do punktu B.Te firmy i ich inżynierowie „Trzeba nauczyć się sztuki projektowania systemów”, aby negocjować i kontrolować przepływ informacji przez cyfrowe granice oddzielające niekompatybilne protokoły. 2) Drugą opcją było to, że wszystkie protokoły, przez które musiałyby przechodzić informacje, aby były interoperacyjne, zapewniając, że dane mogą płynnie przechodzić od użytkownika do użytkownika bez barier, które wymagałyby dodatkowych negocjacji w celu naruszenia. Natywna interoperacyjność protokołów automatycznie stworzyłaby „efekt od końca do końca”, zamiast polegać na wykorzystujących eksploatację stron trzecich, aby zapewnić tę jednolitość za kulisami.

Spośród tych dwóch metod interoperacyjność była preferowanym podejściem tych, którzy byli liderami we wczesnych projektach internetowych. Berners-Lee często opisywał ten cel jako „uniwersalność”, sugerując, że przyszłość sieci obejmowałaby szereg odrębnych protokołów, ale wszystkie istniałyby w tym samym makrokosmosie, zapewniając w ten sposób kompatybilność. Berners-Lee błagał technologów, aby uznali uniwersalną interoperacyjność za ważniejszy cel niż „wymyślne techniki graficzne i złożone dodatkowe udogodnienia” [źródło]. Uważał, że mniej ważne jest uleganie rosnącemu apetytowi na zysk i komercjalizację (która wymagała wymyślnej grafiki i dodatkowych udogodnień), niż skupienie się na projektowaniu protokołów..

Wraz z przyspieszeniem komercjalizacji i stopniowym osłabieniem publicznego pochodzenia Internetu, wprowadził on nowy zestaw zachęt dla przemysłu, który wcześniej był w dużej mierze akademicki. W rezultacie, w miarę jak prywatne firmy konkurowały ze sobą, by prześcignąć się nawzajem, zaczęły pojawiać się serie zamkniętych standardów, grożąc nieodwracalną fragmentacją ekosystemu sieci. Stworzenie odrębnych, indywidualnych systemów było sprzeczne z długoterminową optymalizacją ekonomiczną. W jednym z podstawowych artykułów Internetu Paul Baran zauważył w 1964 r., Że „W komunikacji, podobnie jak w transporcie, dla wielu użytkowników najbardziej opłacalne jest dzielenie się wspólnym zasobem, a nie każdemu budowanie własnego systemu”. W 1994 r. Utworzono konsorcjum World Wide Web Consortium w celu ustanowienia standardów branżowych, aby zapewnić, że przesłanie o interoperacyjności pozostanie głównym priorytetem w rozwoju sieci. Celem Konsorcjum WWW jest „wykorzystanie pełnego potencjału sieci” [źródło] zależało od przekonania, że tylko dzięki interoperacyjności – osiągniętej poprzez ustanowienie standaryzacji między protokołami – można by w pełni wykorzystać taki potencjał.

 

Tim Berners tworzący komórki cytują badania Consensys

 


Zmienne zachęty informacyjne

Spojrzenie na zarządzanie treścią w Internecie stanowi przejmujący przykład wczesnej ideologii interoperacyjności i standaryzacji. Kwestia zarządzania treścią – w szczególności kwestie przechwytywania wartości, ustanawiania własności i ochrony praw autorskich – była często przywoływana, aby uwypuklić potencjalne niedociągnięcia w Internecie i zachęcić programistów, organy regulacyjne i technologów do rozpoczęcia omawiania tych kwestii na wczesnym etapie..

„Informacja chce być wolna” często wywodzi się od Stewarta Branda na zjeździe w 1984 roku. Myślono, że informacja powinna rozprzestrzeniać się otwarcie i organicznie w formie cyfrowej, tak jak miało to miejsce między przedstawicielami gatunku w całej historii ludzkości. Sieć umożliwiła niemal nieskończone rozpowszechnianie informacji, zapewniając ostateczne miejsce do wyrażenia zamiłowania do wolności wykraczającej poza granice dotychczasowych metod komunikacji analogowej. Internet stanowił powiększony poziom rozpowszechniania informacji, ale robił to kosztem jasnych definicji własności, rzadkości i wartości, do których przyzwyczaiły się rynki światowe. Sieć pozwoliła na swobodne udostępnianie informacji, ale także ujawniła możliwość ich ekonomicznego wykorzystania. (Było to prawdą w innych okresach postępu technologii informacyjnej, takich jak rewolucja drukarska w XV wieku i radio na początku XX – przyznaje się, w wykładniczo mniejszej skali). Ta konsekwencja odnosi się do drugiej i rzadziej przytaczanej części cytatu Branda: „Informacja chce być droga” [Media Lab, str. 202-203]. Patrząc wstecz, argument Branda może zostać lepiej sformułowany jako „informacja chce być cenny za to, ile jest warte ”, co oznacza, że ​​czasami – choć nie zawsze – jest drogie. Nowe wzorce i możliwości obiegu informacji zasilane przez sieć WWW uniemożliwiły właściwą wycenę informacji cyfrowych. Nie można było na przykład dokładnie prześledzić pochodzenia fragmentu treści, aby zapewnić jego pierwotnemu twórcy odpowiednią rekompensatę. Ten brak standardowych protokołów własności treści umożliwił stronom trzecim wkroczenie i zapewnienie tej standaryzacji – a dokładniej iluzji standaryzacji – poprzez ułatwienie koniec końców efekt, który został określony jako kluczowy dla skalowalnego korzystania z internetu. Zrobili to dla wszystkich rodzajów informacji, nie tylko wizualnych i pisemnych. Iluzja interoperacyjności protokołów zaplecza została zwiększona przez rosnącą sterylizację tego, co użytkownicy doświadczali w interfejsie użytkownika. Kate Wagner, pisząc o zniknięciu wczesnych dziwactw związanych z projektowaniem Internetu w latach 90. i na początku 2000 r., Odnosi się do „… umierającego westchnienia rodzimej, rodzimej estetyki sieci, zdefiniowanej przez brak ograniczeń co do tego, jak strona mogłaby lub powinna wyglądać ”[źródło]. Internet skierowany do konsumentów stawał się coraz bardziej znormalizowany, ale zaplecze pozostało niezauważone, przez co pozostawało gotowe do wykorzystania danych i zysków.

Gdy strony trzecie wkroczyły i stały się kluczowe dla standardowego przekazywania informacji, zaczęły dyktować „wartość” informacji. Ta wczesna dynamika gospodarcza zachęciła do tworzenia sztucznego niedoboru informacji. Odmawianie informacji jej naturalnej skłonności do bycia wolnym stworzyło sztucznie zawyżone metki z cenami, związane z różnymi danymi, zamiast pozwalać na wycenę informacji pod kątem ich wartości. Firmy te radziły sobie dobrze, ograniczając przepływ informacji, które kontrolują. Próbują traktować informacje jak większość innych towarów na Ziemi, gdzie prosta teoria popytu i podaży mówi, że niedobór równa się wartości. Jak jednak zauważył John Barlow w swojej „Ekonomii idei” z 1994 r., „Technologia cyfrowa oddziela informacje od płaszczyzny fizycznej” [źródło]. Traktując informacje jako produkt fizyczny i kontrolując lub ograniczając ich możliwość swobodnego przepływu, strony trzecie stłumiły wyjątkową jakość informacji – która staje się bardziej wartościowe the bardziej powszechne to jest. „Jeśli przyjmiemy, że wartość opiera się na rzadkości, tak jak w przypadku obiektów fizycznych”, argumentuje Barlow, świat byłby narażony na ryzyko rozwoju technologii, protokołów, praw i gospodarek sprzecznych z prawdziwą, ludzką naturą informacji [źródło].

„Znaczenie [Internetu] nie leży w technologii sieciowej, ale w fundamentalnych zmianach w ludzkich praktykach, które spowodowały,” napisał Peter Denning w refleksji z 1989 roku na temat pierwszych dwudziestu lat Internetu [źródło]. Ostatecznie Web2 rozprzestrzenił się, ponieważ efekt end-to-end został pomyślnie wdrożony, osiągając masową adopcję i dając zwykłym użytkownikom iluzja jednego globalnego Internetu. Chociaż interoperacyjność była podstawową aspiracją Berners-Lee i innych wczesnych architektów Internetu, wszystko, co liczyło się dla konsumentów końcowych (a tym samym dla firm, które chcą na nich czerpać zyski), to jak najszybsze skalowanie Internetu do codziennej użyteczności. Informacja pojawiło się podróżować organicznie i humanistycznie; zawartość pojawiło się być pozyskanym i zweryfikowanym; i dane pojawiło się być powszechnie dostępnym i godnym zaufania. Jednak za kulisami te same firmy zewnętrzne (lub ich potomkowie) od najwcześniejszych dni pozostawały strażnikami transmisji informacji w Internecie – z godnymi uwagi konsekwencjami.

Pierwsi teoretycy internetu nie chcieli, aby technologia pozostała na zawsze niezależna od prywatnych firm. W rzeczywistości realizacja potencjału Internetu opierała się na założeniu, że chęć wykorzystania go na szeroką skalę zmusi prywatne firmy do wkroczenia i sfinansowania szybszego i globalnego rozwoju. Pojawienie się prywatnych firm przyspieszyło jednak ostateczną bałkanizację ekosystemu.

Pojawienie się bałkanizacji

Pierwotna wizja architektów Internetu była otwartą, rozproszoną i zdecentralizowaną „siecią sieci” [źródło]. Ufundowany z miliardów publicznych dolarów amerykańskich na badania i początkowo pomyślany jako projekt akademicki, pierwsze dwadzieścia lat rozwoju Internetu potoczyło się we względnym zapomnieniu. Jego początkowi sponsorzy, w szczególności ARPA (Agencja Zaawansowanych Projektów Badawczych, która później przekształciła się w DARPA) i Narodowa Fundacja Nauki (NSF), niekoniecznie oczekiwali zysku z projektu, więc wczesny Internet skalował się powoli i celowo [źródło].

Pierwsze przypadki tworzenia sieci były praktyczne: komputery typu mainframe na uniwersytetach badawczych były zbyt drogie, więc współdzielenie zasobów między nimi skutkowałoby lepszymi badaniami. Rząd kontrolował te sieci, co oznacza, że ​​wszyscy uczestnicy byli zachęcani do dzielenia się swoim kodem w celu zapewnienia dalszego finansowania i utrzymania etosu otwartego oprogramowania. Protokoły pojawiły się w połowie lat siedemdziesiątych, a wkrótce potem pojawiły się interoperacyjne standardy komunikacji cyfrowej z powodów praktycznych: maszyny musiały być w stanie porozumiewać się ze sobą. Do 1985 roku sieć NSFNET połączyła wszystkie główne komputery mainframe uniwersytetów, tworząc pierwszy szkielet Internetu, jaki znamy. Pod koniec lat 80. do tej sieci szkieletowej przybywało więcej uczestników – na tyle, że ruch zaczął przekraczać przepustowość sieci do jej hostowania.

Zatory w sieci były głównym problemem w miarę wzrostu aktywności i entuzjazmu dla technologii. W 1991 roku Vinton Cerf – współtwórca protokołów TCP / IP i inny główny architekt Internetu – przyznał, że rosnące wyzwanie związane jest ze skalowaniem infrastruktury: „We wrzącym fermentie nowoczesnej technologii telekomunikacyjnej krytycznym wyzwaniem jest określenie, w jaki sposób rozwinęła się architektura Internetu. w ciągu ostatnich 15 lat będą musiały się zmienić, aby dostosować się do pojawiających się technologii gigabitowych lat 90-tych ”[źródło]. Sieć NSFNET wymusiła zakaz prowadzenia działalności komercyjnej, ale to wciąż nie wystarczyło, aby ograniczyć ruch. Zakaz przyspieszył równoległy rozwój sieci prywatnych do prowadzenia działalności komercyjnej.

W odpowiedzi na ten równoległy trend sieciowy i obciążenie NSFNET, przewodniczący NSF Stephen Wolff zaproponował prywatyzację warstwy infrastruktury. Zmniejszyłoby to zatory, wprowadzając prywatne inwestycje w zwiększenie przepustowości sieci, umożliwiając NSFNET integrację z sieciami prywatnymi w jeden system współpracujący i uwolniłoby projekt spod kontroli rządu, aby Internet stał się medium masowym. Do 1995 roku NSFNET został całkowicie wyeliminowany, a jego miejsce zajął ekosystem sieci prywatnych. W jego następstwie powstało pięć firm (UUNET, ANS, SprintLink, BBN i MCI), które utworzyły nową warstwę infrastruktury Internetu. Nie mieli prawdziwych konkurentów, żadnego nadzoru regulacyjnego, żadnych zasad ani zarządzania kierującego ich interakcją, ani żadnych wymagań dotyczących minimalnych wyników wydawanych przez jakikolwiek podmiot rządowy. To całkowicie otwarte, konkurencyjne środowisko, choć dość bezprecedensowe, spotkało się z niewielkim sprzeciwem wśród myślących liderów wczesnego Internetu, ponieważ zawsze zamierzali oni przekazywać sieci prywatnym dostawcom infrastruktury, gdy istniało wystarczające zainteresowanie głównego nurtu, aby je utrzymać. Innymi słowy, oni spodziewany bodźce do zmiany, gdy społeczeństwo zaakceptuje technologię. Protokół i warstwy linków w sieci rozwinęły się stosunkowo niejasno; rynki powstały dopiero w warstwie sieciowej lub infrastruktury.

Pięciu nowych głównych dostawców połączyło i zintegrowało sieci lokalne i na małą skalę w całych Stanach Zjednoczonych. Zasadniczo firmy te zaczęły jako mediatorzy i stały się de facto dostawcami, ponieważ nadzorowały wszystkie dane w systemie na pewnym etapie ich transmisji. Ta organizacja wydaje się sprzeczna z intuicją scentralizowana w porównaniu z ustalaniem priorytetów rozproszonej, odpornej architektury systemu do tego momentu, ale architekci Internetu byli tego świadomi. Ponieważ jednak w grze uczestniczyło więcej niż jeden dostawca, zwolennicy prywatyzacji uważali, że konkurencja będzie wystarczająca, aby zapobiec bałkanizacji warstwy usług infrastrukturalnych. W latach następujących po likwidacji NSFNET w praktyce tak się nie stało. Prywatyzacja warstwy infrastruktury doprowadziła do powstania oligopolu dostawców zasadniczo kontrolujących przepływ danych w całym Internecie, całkowicie w tajemnicy, dzięki kontrolowaniu ruchu i przepustowości informacji. Mogliby przyznać sobie nawzajem skróty, aby przezwyciężyć ogólne przeciążenie sieci i zaoferować preferencyjne traktowanie stronom internetowym, które płacą za szybsze dostarczanie treści. Umowy między tymi dostawcami były całkowicie nieznane, ponieważ nie byli oni zobowiązani do ujawniania swoich warunków, więc mniejsze sieci dostawców nie mogły konkurować na rynku.

Tak więc próba uniknięcia bałkanizacji Internetu na początku lat 90. ostatecznie doprowadziła do przypadkowej, skrajnej centralizacji, w której kabała pięciu dostawców infrastruktury przejęła kontrolę nad całą warstwą protokołu. W pewnym sensie jest to lekcja na temat znaczenia rodzimych protokołów zarządzania i rozsądnych regulacji w rozwijaniu zdrowych rynków dla nowych technologii. Dobre regulacje, które prowadzą do bardziej sprawiedliwej i bardziej otwartej konkurencji, ostatecznie skutkują bogatszym rynkiem. Pewne zatrzymanie interesu publicznego wprowadza również pętlę sprzężenia zwrotnego sprawdzającą rozwój nowatorskiej technologii w miarę jej skalowania. Jedną z niedociągnięć warstwy infrastruktury prywatnej w trakcie jej kształtowania się było to, że niewystarczająca uwaga poświęcona bezpieczeństwu została przeniesiona z sieci NSFNET, która nie była tak krytycznym problemem; brak mechanizmów bezpieczeństwa ani R.&D do kwestii bezpieczeństwa generalnie wprowadził luki, które nadal istnieją. Niemal całkowity brak celowego zarządzania doprowadził również do skrajnego braku tak zwanej „neutralności sieci”, stąd niesprawiedliwe ustalanie priorytetów prędkości sieci w stosunku do oferenta oferującego najwyższą cenę i ogólnie bardzo nierówny dostęp do sieci. Zamiast tego środki podjęte w celu zapobieżenia bałkanizacji doprowadziły do ​​powstania całkowicie, ale nieodwracalnie zbalkanizowanej warstwy infrastruktury.

Lekcje płynące z centralizacji dostawców na początku lat 90. są dość istotne dla dzisiejszej fazy rozwoju ekosystemu blockchain. Ustanowienia standardów interoperacyjności prawdopodobnie pojawią się na dużą skalę jako konieczność zapewnienia funkcjonalności. Odnosi się to do warstwy protokołów w Internecie i jest równie prawdopodobne w przypadku sieci Web3, gdy pojawią się wystarczające naciski na sieć, a tym samym zachęty ekonomiczne. Ale podczas gdy warstwa protokołu w sieci była finansowana ze środków publicznych, a zatem przez ponad dwadzieścia lat była wolna od oczekiwań dotyczących zysków, pierwsza fala blockchainów miała zasadniczo finansowy charakter, a zachęty finansowe były obecne od ich powstania i przez całą drogę aż do warstwa protokołu. Tak więc, chociaż istnieją wspólne wzorce w rozwoju Web2 i Web3, ryzyko bałkanizacji pojawia się w bardzo różnych punktach ich osi czasu.  

 

cytat zbalkanizowany

 

Priorytetyzacja interoperacyjności

Pomimo faktu, że prognozy jego istnienia istnieją od dziesięcioleci, a teoria kryptograficzna od dziesięcioleci dłużej, technologia blockchain w praktyce – nie mówiąc już o programowalnej, użytecznej technologii blockchain – wciąż się rodzi. Na tak wczesnym etapie karkołomne innowacje i konkurencja są ważne dla wzrostu ekosystemu. Jednak dzisiejsza wczesna branża blockchain podlega takiej samej presji, jak wczesna branża internetowa z lat 80. i 90. Szansa, jaką daje blockchain, zmienia świat – a tym samym ryzyko.

Możliwości technologii blockchain, jak będzie argumentować ta seria, zależą od interoperacyjności między wszystkimi głównymi projektami blockchain, ponieważ fundamentalny do opracowania tych protokołów. Tylko dzięki zapewnieniu, że wszystkie łańcuchy bloków, niezależnie od tego, czy są całkowicie niepowiązane ze sobą, czy też są ze sobą silnie konkurencyjne, wbudują kompatybilność w ich podstawową funkcjonalność, możliwości technologii będą skalowane do globalnego wykorzystania i konsekwencji.

Ze względu na ogromną siłę medialną, która przyspieszyła sprzedaż kryptowalut, tokenów i rynków tokenów w ciągu ostatnich dwóch lat, firmy blockchain znajdują się pod ogromną presją, aby udowodnić przydatność, rentowność i komercjalizację technologii. W ten sposób bodźce, które skłoniły Internet do pozbycia się priorytetów w zakresie interoperacyjności i skupienia się na codziennej użyteczności technologii, nie różnią się od dzisiejszych. Jeśli już, nasza dzisiejsza zdolność do ciągłego łączenia się i otrzymywania aktualizacji w czasie rzeczywistym w dowolnym miejscu na świecie zapewnia, że ​​ekosystem blockchain jest pod jeszcze presja, aby zademonstrować swoje możliwości komercyjne niż wczesny Internet na podobnym etapie rozwoju. Ponieważ firmy starają się udowodnić, że są „lepsze” lub bardziej „gotowe do wprowadzenia na rynek” niż inne istniejące protokoły, porzucają interoperacyjność, aby skupić się na – przerobić słowa Bernersa-Lee – na „fantazyjnych technikach graficznych i skomplikowanych dodatkowych udogodnieniach”, które przemawiają więcej dla krótkowzrocznych inwestorów i konsumentów.

Wyścig o natychmiastową funkcjonalność jest ekonomicznie efektywny, ale jego kontynuacja może zagrozić całemu rozwojowi branży blockchain. Gdyby firmy nadal ignorowały interoperacyjność, a zamiast tego budowały własny zastrzeżony łańcuch bloków i próbowały zmierzyć go z domniemanym konkurentem rynkowym, ekosystem w perspektywie lat mógłby wyglądać bardzo podobnie do początków nieinteroperacyjnego Internetu. Zostalibyśmy z rozproszoną kolekcją zamkniętych łańcuchów bloków, z których każdy jest obsługiwany przez słabą sieć węzłów i podatny na atak, manipulację i centralizację.

Wyobrażenie sobie nieinteroperacyjnej przyszłości technologii blockchain nie jest zbyt trudne. Cały materiał i obrazy potrzebne do namalowania tego obrazu istnieją we wczesnej doktrynie internetowej i zostały już omówione w pierwszej części tego artykułu. Podobnie jak w dzisiejszym Internecie, najważniejszą cechą danych w Web3 jest efekt „end-to-end”. Konsumenci wchodzący w interakcję z Web3 muszą doświadczyć płynnej interakcji niezależnie od używanej przeglądarki, portfela lub witryny internetowej, aby technologia została skalowana do masowej adopcji. Aby ten cel do końca został osiągnięty, informacja musi przepływać w jej organiczny, humanistyczny sposób. Musi być wolne. Jednak dzisiejszy blockchain tak Nie znajomość informacji, które mogą istnieć w innym łańcuchu bloków. Informacje, które znajdują się w sieci Bitcoin, nie mają żadnej wiedzy na temat informacji, które znajdują się w sieci Ethereum. Dlatego odmawia się informacji jej naturalnego pragnienia i zdolności do swobodnego przepływu.

Konsekwencje wyciszenia informacji w łańcuchu bloków, w którym zostały utworzone, pochodzą wprost z podręczników historii Internetu. Internet scentralizował się w warstwie infrastruktury z powodu presji na skalowanie, aby sprostać entuzjazmowi opinii publicznej i masowej adaptacji. Jeśli ekosystem Web3 osiągnie ten punkt, zanim interoperacyjność protokołów stanie się dostatecznie powszechna, to samo stanie się ponownie. Bez natywnej interoperacyjności blockchain strony trzecie wkroczą, aby zarządzać transferem informacji z jednego łańcucha bloków do drugiego, wydobywając wartość dla siebie w tym procesie i tworząc rodzaj tarcia, który technologia ma wyeliminować. Będą mieli dostęp do tych informacji i kontrolę nad nimi, a także będą mogli tworzyć sztuczny niedobór i zawyżoną wartość. Wizja przyszłości Internetu opartego na blockchain, którą przemysł tak często przywołuje, jest niczym bez interoperacyjności. Bez tego w przyszłości znajdziemy się w globalnej sieci prawie identycznej z dominującym dziś krajobrazem Web2. Każdego dnia konsumenci będą nadal cieszyć się płynną i spójną interakcją z Web3, ale ich dane nie będą bezpieczne, ich tożsamość nie będzie pełna, a ich pieniądze nie będą ich własnością..

Patrząc w przyszłość

Nie oznacza to, że branża całkowicie zapomniała lub porzuciła znaczenie interoperacyjności. Dowody koncepcji, takie jak Przekaźnik BTC, konsorcja, takie jak Enterprise Ethereum Alliance, i projekty takie jak Wanchain pokazują, że niektórzy ludzie nadal uznają krytyczną wartość interoperacyjności. Istnieje duża szansa, że ​​presja rynkowa zachęci ekosystem blockchain do interoperacyjności, niezależnie od tego, jak sytuacja rozwinie się w krótkim okresie. Jednak interoperacyjność reakcyjna i proaktywna nadal może oznaczać różnicę między miejscem przechwytywania wartości a sposobem wykorzystywania danych. Reakcyjna interoperacyjność – tj. decyzja, że ​​interoperacyjność powinna być kluczowym czynnikiem w łańcuchu bloków wiele lat później, gdy wymaga tego rynek – stwarza możliwości dla stron trzecich do wkroczenia i ułatwienia tej interoperacyjności. Korzystają ze swoich usług i mają asymetryczny dostęp do danych użytkowników. Proaktywna interoperacyjność – tj. zapewnienie, że interoperacyjność jest zakodowana w protokołach w tej początkowej fazie ekosystemu – z drugiej strony zapewnia bezpieczne i wydajne przesyłanie danych między łańcuchami bloków bez konieczności przekazywania kontroli pośredniczącemu podmiotowi trzeciemu.

Bez wątpienia istnieje niezbędna i zdrowa równowaga między komercjalizacją a interoperacyjnością typu open source. Komercjalizacja promuje konkurencję i innowacje, motywując programistów i przedsiębiorców do tworzenia systemów, które najlepiej sprawdzają się dla ich klientów. Jednak w przeszłości równowaga okazała się niepewna. W miarę narastania presji, aby blockchain mógł spełnić swoje obietnice, komercjalizacja będzie kładła coraz większy nacisk na to, aby blockchain był gotowy na rynek, bez względu na to, jakie ideologie musi poświęcić w krótkim okresie..

ConsenSys Research

 

 

O Autorach

Everett Muzzy

Everett jest autorem i badaczem w ConsenSys. Jego pisarstwo pojawiło się w Hacker Noon, CryptoBriefing, Moguldom, i Monety.

Mally Anderson

Mally jest pisarką i badaczką w ConsenSys. Jej teksty pojawiały się w MIT Journal of Design and Science, MIT Innowacje, Kwarc, i tytuł grzecznościowy.

Uzyskaj najnowsze informacje z ConsenSys Research

Zarejestruj się, aby otrzymywać powiadomienia o przyszłych publikacjach badawczych ConsenSys

Zarejestruj się →

Mike Owergreen Administrator
Sorry! The Author has not filled his profile.
follow me
Like this post? Please share to your friends:
Adblock
detector
map