Blockchain-balkaniseringonderzoek vermijden

Door Everett Muzzy en Mally Anderson

Prioriteit geven aan interoperabiliteit

Dit stuk is het eerste in een serie waarin de staat en toekomst van interoperabele functionaliteit in het blockchain-ecosysteem wordt verkend. We definiëren “interoperabiliteit” hier als de mogelijkheid voor blockchains om gegevens uit te wisselen tussen platforms – inclusief off-chain gegevens en transacties – zonder de hulp van derden. Door de voortgang van Web2-architectuur van vroege theorie tot massale acceptatie te onderzoeken, stelt de serie dat de interoperabiliteit van blockchain-protocol niets minder is dan een fundamentele vereiste om het volledige potentieel van de technologie te realiseren. De serie laat zien hoe het ecosysteem momenteel het gevaar loopt van “balkanisering” – dat wil zeggen. een reeks niet-verbonden systemen worden die naast elkaar opereren, maar afgeschermd van elkaar – in het licht van concurrentie en commerciële druk. Om ervoor te zorgen dat het ecosysteem prioriteit geeft aan interoperabiliteit, moet het een veilige, radicaal gedecentraliseerde en betrouwbare afwikkelingslaag tot stand brengen waarop gelijktijdig werkende blockchains hun transacties kunnen verankeren. Gezien de huidige staat van blockchain-systemen, lijkt de architectuur van Ethereum het meest op wat nodig is voor deze universele root chain.

Het risico van balkanisering

De problemen van de huidige Web2-architectuur – met name de silo, kwetsbaarheid en wanbeheer van gebruikersgegevens – zijn terug te voeren op de afwijking van de branche van de vroege internetwaarden, die oorspronkelijk prioriteit gaven aan interoperabiliteit als sleutel tot een duurzame en rechtvaardige met internet verbonden wereld. In het huidige tempo loopt het blockchain-ecosysteem het risico op een vergelijkbare ‘balkanisering’, waarbij de interoperabiliteit van protocollen geen prioriteit heeft omdat bedrijven sneller racen om de use case van hun eigen blockchain te demonstreren dan die van hun concurrenten. Het risico is dat de druk voor reguliere acceptatie kan ontstaan ​​voordat de Web3-infrastructuur voldoende interoperabel en veilig is om de volledige visie van de oorspronkelijke architecten tot uiting te laten komen. Web3 zou er uiteindelijk uit kunnen zien zoals Web2 dat tegenwoordig doet in termen van financiële uitsluiting, informatie-siloing en gegevensonzekerheid, maar in plaats daarvan wordt het onderschreven door een reeks blockchains die door een competitief ontwerp niet samenwerken op protocolniveau..

Lessen van het vroege internet

Het web is ontwikkeld als een door de overheid gefinancierd, academisch onderzoeksproject dat begon in de jaren zestig om het vermogen van mensen om informatie te creëren, door te geven en te delen te vergroten. Vroege herhalingen van online-informatie namen de vorm aan van basistekst en afbeeldingen, verbonden en gedeeld door een web van hyperlinks. Sindsdien is ‘informatie’ op het web geëvolueerd om het eigendom van activa (vooral geld), gebruikersprofielen en identiteit (met name verspreide digitale fragmenten van iemands identiteit) weer te geven..

Ongeacht hoe breed de definitie van digitaal weergegeven informatie is geworden, de theorie van online informatiemanagement vindt zijn oorsprong in de vroege webtheorie. Bij het opbouwen van de volgende evolutie in de overdracht van informatie, probeerden de vroege internetpioniers ervoor te zorgen dat informatie op het web zou stromen op een manier die natuurlijke patronen van menselijk gedrag nabootste. Tim Berners-Lee, de uitvinder van het World Wide Web, positioneerde zijn missie om een ​​webstructuur te bouwen die humanistische overdracht van informatie mogelijk maakte in tegenstelling tot naar de hiërarchische structuur van een bedrijf – tot dat moment een van de dominante structuren waardoor mensen grote hoeveelheden informatie produceerden en beheren. Terwijl de rigide top-downstructuur van een bedrijf de informatiebeweging op een gevestigde, gestructureerde en traceerbare manier trachtte te dicteren, was de realiteit van hoe mensen communiceerden en deelden veel rommeliger en amorfer. Om de natuurlijke peer-to-peer sociale uitwisseling van informatie na te bootsen, raadde Berners-Lee eenvoud in webarchitectuur aan. Door slechts de kale botten van een digitaal systeem te bieden, zou informatie kunnen groeien en evolueren op de meest natuurlijke – en dus schaalbare – manier. Op het moment dat de “methode van opslag … zijn eigen beperkingen oplegt” over hoe dingen kunnen worden overgedragen, zou de informatie eronder lijden. Berners-Lee versterkte zijn overtuiging dat het web natuurlijke structuren moet nabootsen door de groei van het web te beschrijven als “cellen vormen binnen een globaal brein” [bron] en in de hoop dat het op een dag de manier zou kunnen weerspiegelen waarop mensen dagelijks omgaan, socialiseren en leven [bron​.

Het doel om schaalbare, humanistisch overgedragen digitale informatie te verkrijgen, was afhankelijk van een cruciaal concept: het “end-to-end-effect” [bron​Het ‘end-to-end’-effect betekende dat gebruikers van internet (d.w.z. degenen die zich aan een van de uiteinden van de overdracht van een stuk informatie bevonden) die informatie op een consistente manier ervoeren. Mensen moesten in staat zijn om repetitief gedrag aan te nemen waarmee ze informatie op ongeveer dezelfde manier konden ophalen, verwerken en indienen bij elke interactie met internet. Anders gezegd, de technologie die de consument een stukje informatie heeft geboden, moet dit keer op keer op een consistente manier doen, in verschillende geografische gebieden en met verschillende soorten inhoud.

Het end-to-end-effect kan op twee manieren worden bereikt: 1) Derden kunnen zich als tussenpersoon vestigen en diensten verlenen om informatie in een consistente vorm weer te geven zoals deze van punt A naar punt B werd gestuurd. “Moeten de kunst van het ontwerpen van systemen leren” om de doorgang van informatie door de digitale grenzen tussen incompatibele protocollen te onderhandelen en te controleren. 2) De tweede optie was dat alle protocollen waardoor informatie mogelijk moet worden doorgegeven om interoperabel te zijn, ervoor zorgen dat gegevens naadloos van gebruiker naar gebruiker kunnen gaan zonder barrières die extra onderhandeling vereisen om inbreuk te maken. Native protocol-interoperabiliteit zou automatisch het “end-to-end-effect” creëren, in plaats van te vertrouwen op uitbuitende derde partijen om die uniformiteit achter de schermen te bieden.

Van deze twee methoden was interoperabiliteit de voorkeursbenadering van degenen die de leiding hadden over de vroege webontwikkeling. Berners-Lee omschreef dit doel vaak als ‘universaliteit’, wat suggereert dat de toekomst van het web een reeks verschillende protocollen zou omvatten, maar dat ze allemaal in dezelfde macrokosmos zouden bestaan, waardoor compatibiliteit wordt gegarandeerd. Berners-Lee smeekte technologen om universele interoperabiliteit als een belangrijker doel te beschouwen dan “fraaie grafische technieken en complexe extra faciliteiten” [bron​Hij vond het minder belangrijk om te bezwijken voor de groeiende honger naar winst en commercialisering (die mooie grafische afbeeldingen en extra faciliteiten vereiste) dan om zich te concentreren op protocolontwerp..

Naarmate de commercialisering versnelde en de publieke oorsprong van internet geleidelijk afnam, introduceerde het een nieuwe reeks prikkels voor een voorheen grotendeels academische industrie. Als gevolg hiervan ontstond er een reeks in silo’s staande standaarden toen particuliere bedrijven streden om beter te presteren dan elkaar, waardoor onherstelbare fragmentatie van het webecosysteem werd bedreigd. Het creëren van afzonderlijke, individuele systemen stond haaks op economische optimalisatie op de lange termijn. In een van de fundamentele artikelen van het internet merkte Paul Baran in 1964 op dat “in communicatie, net als in transport, het voor veel gebruikers het meest economisch is om een ​​gemeenschappelijke bron te delen in plaats van dat ieder zijn eigen systeem bouwt”. In 1994 werd het World Wide Web Consortium opgericht om industriestandaarden vast te stellen om ervoor te zorgen dat de boodschap van interoperabiliteit een kernprioriteit bleef bij de ontwikkeling van het web. Het doel van het WWW Consortium om “het volledige potentieel van internet te realiseren” [bron] hing af van de overtuiging dat enkel en alleen door interoperabiliteit – bereikt door standaardisatie tussen protocollen tot stand te brengen – zou aan dit volledige potentieel kunnen worden voldaan.

 

tim berners die cellen vormen citeren consensys onderzoek

 


Verschuivende informatie-prikkels

Een blik op inhoudsbeheer op het web is een schrijnend voorbeeld van de vroege ideologie van interoperabiliteit en standaardisatie. De kwestie van inhoudsbeheer – in het bijzonder de zaken van het vastleggen van waarde, het vestigen van eigendom en het beschermen van auteursrechten – werd vaak opgeroepen om de mogelijke tekortkomingen van internet te benadrukken en om ontwikkelaars, regelgevende instanties en technologen ertoe aan te zetten deze zaken in een vroeg stadium te bespreken..

“Informatie wil gratis zijn” wordt vaak teruggevoerd op Stewart Brand op een congres in 1984. Informatie, zo ging het denken, zou zich openlijk en organisch in digitale vorm moeten verspreiden, net als tussen leden van de soort door de menselijke geschiedenis heen. Het web maakte de bijna oneindige verspreiding van informatie mogelijk, waardoor het de ultieme locatie was om zijn voorliefde voor vrijheid te uiten buiten de grenzen van de analoge communicatiemethoden tot nu toe. Het internet vormde een uitvergroot stadium voor de uitzending van informatie, maar dat ging ten koste van duidelijke definities van eigendom, schaarste en waarde waaraan de wereldmarkten gewend waren geraakt. Het web maakte het mogelijk dat informatie gratis was, maar stelde ook de mogelijkheid bloot om deze economisch te exploiteren. (Dit was het geval in andere periodes van informatietechnologische vooruitgang, zoals de drukkerijrevolutie van de vijftiende eeuw en de radio aan het begin van de twintigste – toegegeven, op exponentieel kleinere schaal). Dit gevolg heeft betrekking op het tweede en minder vaak gerefereerde deel van het citaat van Brand: “Informatie wil duur zijn” [Het Media Lab, pag. 202-203]. Terugkijkend kan het argument van Brand nauwkeuriger worden geherformuleerd als ‘informatie wil zijn’ gewaardeerd voor wat het waard is ‘, wat betekent dat het soms – maar niet altijd – duur is. Nieuwe patronen en mogelijkheden van informatiecirculatie, mogelijk gemaakt door het web, maakten de juiste waardering van digitale informatie onmogelijk. Men zou bijvoorbeeld de oorsprong van een stuk inhoud niet nauwkeurig kunnen traceren om de oorspronkelijke maker een passende compensatie te bieden. Door dit gebrek aan standaard eigendomsprotocollen voor inhoud konden derden ingrijpen en die standaardisatie – of, beter gezegd, de illusie van standaardisatie – bieden door de eind tot eind effect dat werd geïdentificeerd als cruciaal voor geschaald gebruik van internet. En ze deden dit voor alle soorten informatie, niet alleen voor visuele en geschreven inhoud. De illusie van interoperabiliteit van back-end-protocol werd versterkt door een toenemende sterilisatie van wat gebruikers aan de voorkant hebben ervaren. Kate Wagner, die schrijft over het verdwijnen van de eigenaardigheden van het vroege internetontwerp in de jaren ’90 en het begin van de jaren 2000, verwijst naar de “… stervende snik van een native web-esthetiek, een bepaald door een gebrek aan beperkingen op hoe de pagina eruit zou kunnen zien of zou moeten zien. “[bron​Het consumentgerichte web werd steeds meer gestandaardiseerd, maar de back-end bleef afgeschermd en bleef daardoor rijp voor data-exploitatie en winst.

Toen derden tussenbeide kwamen en cruciaal werden voor de standaardoverdracht van informatie, begonnen ze de ‘waarde’ van informatie te dicteren. Deze vroege economische dynamiek stimuleerde het ontstaan ​​van kunstmatige informatietekort. Door de natuurlijke neiging van informatie om vrij te zijn te ontkennen, werden kunstmatig hoge prijskaartjes gecreëerd die verband houden met verschillende gegevens in plaats van toe te staan ​​dat informatie wordt gewaardeerd voor wat het waard was. Deze bedrijven hebben het goed gedaan door de informatiestroom die ze beheren te beperken. Ze proberen informatie te behandelen zoals de meeste andere goederen op aarde, waar de eenvoudige vraag-aanbod-theorie dicteert dat schaarste gelijk is aan waarde. Zoals John Barlow opmerkte in zijn “The Economy of Ideas” uit 1994, “maakt digitale technologie informatie los van het fysieke vlak” [bron​Door informatie te behandelen als een fysiek product en het vermogen om vrij te stromen te controleren of te beperken, onderdrukten derden de unieke kwaliteit van informatie – dat het wordt meer waard de vaker het is. “Als we aannemen dat waarde gebaseerd is op schaarste, zoals het is met betrekking tot fysieke objecten,” betoogt Barlow, zou de wereld het risico lopen technologieën, protocollen, wetten en economieën te ontwikkelen die in strijd zijn met de ware, menselijke aard van informatie [bron​.

“De betekenis van [internet] ligt niet in de netwerktechnologie, maar in de fundamentele verschuivingen in menselijke praktijken die hebben geleid”, schreef Peter Denning in een reflectie uit 1989 over de eerste twintig jaar van internet [bron​Aan het eind van de dag verspreidde Web2 zich omdat het end-to-end-effect met succes werd geïmplementeerd, waardoor massale acceptatie werd bereikt en dagelijkse gebruikers de illusie van één wereldwijd internet. Hoewel interoperabiliteit een kernaspiratie was van Berners-Lee en andere vroege internetarchitecten, was het enige dat van belang was voor de eindgebruikers (en dus voor de bedrijven die ervan wilden profiteren) dat het internet zo snel mogelijk werd geschaald naar het dagelijkse gebruik. Informatie verscheen om organisch en humanistisch te reizen; inhoud verscheen worden ingekocht en geverifieerd; en gegevens verscheen algemeen beschikbaar en betrouwbaar zijn. Achter de schermen bleven echter dezelfde externe bedrijven (of hun nakomelingen) vanaf de vroegste dagen de poortwachters van de informatieoverdracht op internet – met opmerkelijke gevolgen.

Vroege internettheoretici waren niet van plan dat de technologie voor altijd onafhankelijk zou blijven van particuliere bedrijven. In feite was de realisatie van het potentieel van internet gebaseerd op de veronderstelling dat de wens voor grootschalig gebruik particuliere bedrijven ertoe zou aanzetten om in te stappen en een snellere en wereldwijde ontwikkeling te financieren. De komst van particuliere bedrijven versnelde echter de uiteindelijke balkanisering van het ecosysteem.

De opkomst van balkanisering

De oorspronkelijke visie van de internetarchitecten was een open, gedistribueerd en gedecentraliseerd “netwerk van netwerken” [bron​Gefinancierd door miljarden openbare Amerikaanse onderzoeksdollars en aanvankelijk opgevat als een academisch project, ontvouwden de eerste twintig jaar van internetontwikkeling zich in relatieve onduidelijkheid. De aanvankelijke financiers, met name ARPA (het Advanced Research Projects Agency, dat later DARPA werd) en de National Science Foundation (NSF), verwachtten niet noodzakelijkerwijs winst van het project, dus het vroege internet schaalde langzaam en opzettelijk [bron​.

De eerste voorbeelden van netwerken waren praktisch: mainframecomputers op onderzoeksuniversiteiten waren onbetaalbaar, dus het delen van bronnen tussen hen zou resulteren in beter onderzoek. De overheid controleerde die netwerken, wat betekende dat alle deelnemers werden gestimuleerd om hun code te delen om blijvende financiering veilig te stellen en een open-source-ethos te behouden. Halverwege de jaren zeventig waren protocollen ontstaan ​​en kort daarna kwamen er om praktische redenen interoperabele digitale communicatiestandaarden: de machines moesten met elkaar kunnen praten. In 1985 had het NSFNET-netwerk alle grote universitaire mainframes met elkaar verbonden en vormde het de eerste ruggengraat van het internet zoals we dat nu kennen. Eind jaren tachtig stroomden meer deelnemers naar dit backbone-netwerk, genoeg dat het verkeer de capaciteit van het netwerk om het te hosten te overtreffen.

Congestie van het netwerk was een primaire zorg, aangezien de activiteit en het enthousiasme voor de technologie toenamen. In 1991 erkende Vinton Cerf – mede-ontwerper van de TCP / IP-protocollen en een andere grote internetarchitect – de groeiende uitdaging van het opschalen van infrastructuur: in de afgelopen 15 jaar zullen moeten veranderen om zich aan te passen aan de opkomende gigabit-snelheidstechnologieën van de jaren negentig ”[bron​De NSFNET dwong een verbod op commerciële activiteiten af, maar dat was nog niet voldoende om het verkeer te beperken. Het verbod veroorzaakte een parallelle ontwikkeling van particuliere netwerken voor commerciële activiteiten.

Als reactie op deze parallelle netwerktrend en de druk op NSFNET, stelde NSF-voorzitter Stephen Wolff voor om de infrastructuurlaag te privatiseren. Dit zou congestie verminderen door particuliere investeringen te doen om de capaciteit van het netwerk te vergroten, NSFNET in staat te stellen te integreren met particuliere netwerken in een enkel interoperabel systeem en het project te ontheffen van overheidscontrole om het internet een massamedium te laten worden. In 1995 werd NSFNET volledig geëlimineerd en kwam er een ecosysteem van particuliere netwerken in de plaats. In zijn kielzog ontstonden vijf bedrijven (UUNET, ANS, SprintLink, BBN en MCI) om de nieuwe infrastructuurlaag van internet te vormen. Ze hadden geen echte concurrenten, geen regelgevend toezicht, geen beleid of bestuur dat hun interactie aanstuurde, en geen vereisten voor minimumprestaties uitgegeven door een overheidsinstantie. Deze volledig open, concurrerende omgeving, hoewel vrij ongekend, had weinig tegenstand onder de opinieleiders van het vroege internet, omdat ze altijd van plan waren om de netwerken over te dragen aan particuliere infrastructuuraanbieders wanneer er voldoende mainstream-interesse was om ze hoog te houden. Met andere woorden, ze verwacht de prikkels om te veranderen toen het publiek de technologie omarmde. De protocol- en verbindingslagen van het web waren relatief onduidelijk; alleen op de netwerk- of infrastructuurlaag ontstonden markten.

De vijf nieuwe grote providers hebben lokale en kleinschalige netwerken in de Verenigde Staten met elkaar verbonden en geïntegreerd. In wezen begonnen deze bedrijven als bemiddelaars en werden de facto aanbieders door het feit dat ze op een bepaald moment tijdens de verzending toezicht hielden op alle gegevens in het systeem. Deze organisatie lijkt contra-intuïtief gecentraliseerd in vergelijking met de prioritering van gedistribueerde, veerkrachtige systeemarchitectuur tot dan toe, maar de internetarchitecten waren zich hiervan bewust. Omdat er echter meer dan één aanbieder in het spel was, waren de voorstanders van privatisering van mening dat er voldoende concurrentie zou zijn om de balkanisering van de infrastructuurservicelaag te voorkomen. In de jaren na de ontmanteling van NSFNET was dit in de praktijk niet het geval. Het privatiseren van de infrastructuurlaag resulteerde in een oligopolie van providers die in wezen de gegevensstroom van het hele internet controleerden, volledig in het geheim, dankzij de controle van de beweging en doorvoer van de informatie. Ze zouden elkaar snelkoppelingen kunnen geven om de algehele netwerkcongestie te overwinnen en een voorkeursbehandeling kunnen bieden aan websites die betaalden voor snellere levering van inhoud. Overeenkomsten tussen deze providers waren volkomen onbekend, aangezien ze niet verplicht waren om hun voorwaarden bekend te maken, zodat kleinere providernetwerken niet konden concurreren op de markt.

Dus een poging in het begin van de jaren negentig om balkanisering van het internet te vermijden, resulteerde uiteindelijk in een onbedoelde, extreme centralisatie waarin een kliek van vijf infrastructuurproviders de controle over de hele protocollaag kreeg. In zekere zin is dit een les in het belang van native governance-protocollen en van redelijke regelgeving bij het ontwikkelen van gezonde markten voor nieuwe technologieën. Goede regelgeving die resulteert in eerlijkere, meer open concurrentie resulteert uiteindelijk in een rijkere markt in het algemeen. Enige handhaving van het algemeen belang leidt ook tot een terugkoppeling van controles op de ontwikkeling van een nieuwe technologie naarmate deze opschaalt. Een tekortkoming van de private infrastructuurlaag zoals deze vorm kreeg, was dat onvoldoende aandacht voor beveiliging werd overgedragen van de NSFNET, waar deze niet zo’n kritieke zorg was geweest; geen beveiligingsmechanismen noch R&D in beveiligingskwesties introduceerde over het algemeen kwetsbaarheden die nog steeds bestaan. Het bijna totale gebrek aan opzettelijk bestuur heeft ook geresulteerd in het extreme gebrek aan zogenaamde “netneutraliteit”, vandaar oneerlijke prioriteitstelling van netwerksnelheden aan de hoogste bieder en enorm ongelijke toegang tot netwerken in het algemeen. Maatregelen die werden genomen om balkanisering te voorkomen, resulteerden in plaats daarvan in een alles behalve onomkeerbare balkanisering van de infrastructuurlaag.

De lessen van deze centralisatie van providers in het begin van de jaren negentig zijn behoorlijk relevant voor de huidige fase van de ontwikkeling van blockchain-ecosystemen. Het vaststellen van standaarden voor interoperabiliteit zal waarschijnlijk op grote schaal ontstaan ​​als een noodzaak voor functionaliteit. Dit gold voor de protocollaag van internet en zal waarschijnlijk ook uitkomen in Web3 wanneer er voldoende netwerkdruk, en dus economische prikkels, naar voren komen. Maar terwijl de protocollaag van het web door de overheid werd gefinancierd en daarom al meer dan twintig jaar vrij was van winstverwachtingen, was de eerste golf van blockchains fundamenteel financieel van aard, en waren er vanaf het begin financiële prikkels aanwezig die centraal stonden tot en met de protocollaag. Dus hoewel er gedeelde patronen zijn in de ontwikkeling van Web2 en Web3, komt het risico van balkanisering op zeer verschillende punten in hun tijdlijnen naar voren..  

 

gebalkaniseerd citaat

 

Prioriteit geven aan interoperabiliteit

Ondanks het feit dat voorspellingen over het bestaan ​​ervan al decennia bestaan ​​en cryptografische theorie al decennia langer dan dat, is blockchaintechnologie in de praktijk – laat staan ​​programmeerbare, bruikbare blockchaintechnologie – nog in de kinderschoenen. In zo’n vroege fase zijn halsbrekende innovatie en concurrentie belangrijk voor de groei van ecosystemen. De vroege blockchain-industrie van vandaag staat echter onder dezelfde druk als de vroege internetindustrie van de jaren tachtig en negentig. De mogelijkheid van blockchain verandert de wereld – en daarom ook het risico.

De mogelijkheid van blockchain-technologie, zoals deze serie zal beweren, hangt af van de interoperabiliteit tussen alle grote blockchain-projecten, zoals fundamenteel aan de ontwikkeling van die protocollen. Alleen door ervoor te zorgen dat alle blockchains, of ze nu volledig los staan ​​van elkaar of fel concurrerend met elkaar, compatibiliteit in hun fundamentele functionaliteit integreren, kunnen de mogelijkheden van de technologie opschalen naar wereldwijd gebruik en consequenties..

Met de enorme mediakracht die crypto-, tokenverkopen en tokenmarkten de afgelopen twee jaar hebben versneld, staan ​​blockchain-bedrijven onder enorme druk om het gebruik, de winstgevendheid en de commercialisering van de technologie te bewijzen. Op deze manier zijn de prikkels die het internet ertoe hebben aangezet om interoperabiliteit minder prioriteit te geven en zich te concentreren op de dagelijkse bruikbaarheid van de technologie, niet anders dan tegenwoordig. Als er iets is, zorgt ons vermogen om altijd verbonden te zijn en realtime updates overal ter wereld te ontvangen ervoor dat het blockchain-ecosysteem onder de maat is meer druk om zijn commerciële capaciteiten te demonstreren dan het vroege internet in een vergelijkbaar stadium van zijn ontwikkeling. Terwijl bedrijven zich haasten om te bewijzen dat ze ‘beter’ of meer ‘marktklaar’ zijn dan andere bestaande protocollen, verlaten ze de interoperabiliteit om zich te concentreren op – om de woorden van Berners-Lee te recyclen – de ‘mooie grafische technieken en complexe extra faciliteiten’ die aantrekkelijk zijn. meer voor kortzichtige investeerders en consumenten.

De race om onmiddellijke functionaliteit te beloven is economisch effectief, maar de voortzetting ervan kan de hele ontwikkeling van de blockchain-industrie in gevaar brengen. Mochten bedrijven interoperabiliteit blijven negeren en in plaats daarvan elk hun eigen propriëtaire blockchain bouwen en deze proberen te pitchen tegen een vermeende concurrent op de markt, dan zou het ecosysteem in de loop van jaren heel erg kunnen lijken op de begindagen van het niet-interoperabele internet. We zouden achterblijven met een verspreide verzameling van siled blockchains, elk ondersteund door een zwak netwerk van knooppunten en vatbaar voor aanvallen, manipulatie en centralisatie.

Het is niet zo moeilijk om een ​​niet-interoperabele toekomst voor blockchain-technologie voor te stellen. Al het materiaal en alle beelden om het beeld te schetsen, bestaat in de vroege internetleer en is al besproken in het eerste deel van dit stuk. Net als op het internet van vandaag, is de belangrijkste kwaliteit van gegevens in Web3 het ‘end-to-end’-effect. Consumenten die met Web3 communiceren, moeten een naadloze interactie ervaren, ongeacht welke browser, portemonnee of website ze gebruiken, zodat de technologie kan opschalen naar massale acceptatie. Om dit doel te bereiken, moet informatie op een organische, humanistische manier kunnen stromen. Het moet gratis mogen zijn. Een blockchain heeft tegenwoordig echter Nee kennis van informatie die mogelijk aanwezig is in een andere blockchain. Informatie die op het Bitcoin-netwerk leeft, heeft geen kennis van de informatie die op het Ethereum-netwerk leeft. Informatie wordt daarom het natuurlijke verlangen en het vermogen om vrijelijk te stromen ontzegd.

De gevolgen van het opslaan van informatie in de blockchain waarin het is gemaakt, komen rechtstreeks uit de geschiedenisboeken van internet. Het internet is gecentraliseerd in de infrastructuurlaag vanwege de toenemende druk om het enthousiasme van het publiek en de massale acceptatie te ontmoeten. Mocht het Web3-ecosysteem dat punt bereiken voordat de protocol-interoperabiliteit voldoende alomtegenwoordig is, dan zal hetzelfde opnieuw gebeuren. Zonder native blockchain-interoperabiliteit zullen derden ingrijpen om de overdracht van informatie van de ene blockchain naar de andere te beheren, waarbij ze waarde voor zichzelf extraheren in het proces en het soort wrijving creëren dat de technologie moet elimineren. Ze zullen toegang hebben tot en controle hebben over die informatie, en ze zullen het vermogen hebben om kunstmatige schaarste en opgeblazen waarde te creëren. De visie van een door blockchain aangedreven internet-toekomst die de industrie zo vaak oproept, is niets zonder interoperabiliteit. Zonder dit zullen we ons in een toekomst bevinden met een wereldwijd netwerk dat bijna identiek is aan het dominante Web2-landschap van vandaag. Dagelijkse consumenten zullen nog steeds genieten van hun soepele en consistente interactie met Web3, maar hun gegevens zullen niet veilig zijn, hun identiteit zal niet volledig zijn en hun geld zal niet van hen zijn.

Vooruit kijken

Dit alles wil niet zeggen dat de industrie het belang van interoperabiliteit volledig is vergeten of verlaten. Bewijzen van concept zoals BTC-relais, consortia zoals de Enterprise Ethereum Alliance, en projecten zoals Wanchain laten zien dat sommige mensen nog steeds de kritische waarde van interoperabiliteit erkennen. De kans is groot dat marktdruk het blockchain-ecosysteem zal stimuleren tot interoperabiliteit, ongeacht hoe de zaken op korte termijn evolueren. Reactionaire versus proactieve interoperabiliteit kan echter nog steeds het verschil betekenen tussen waar waarde wordt vastgelegd en hoe gegevens worden misbruikt. Reactionaire interoperabiliteit, d.w.z. alleen beslissen dat interoperabiliteit een cruciale factor van blockchain moet zijn gedurende vele jaren, wanneer de markt erom vraagt, biedt kansen voor derden om in te grijpen en die interoperabiliteit mogelijk te maken. Ze profiteren van hun diensten en ze hebben asymmetrische toegang tot de gegevens van gebruikers. Proactieve interoperabiliteit, d.w.z. ervoor zorgen dat interoperabiliteit wordt gecodeerd in protocollen in deze ontluikende fase van het ecosysteem – aan de andere kant zorgt het ervoor dat gegevens veilig en efficiënt kunnen worden overgedragen tussen blockchains zonder de controle over te hoeven dragen aan een bemiddelende derde partij.

Er is zonder twijfel een noodzakelijk en gezond evenwicht tussen commercialisering en open source-interoperabiliteit. Commercialisering bevordert concurrentie en innovatie en stimuleert ontwikkelaars en ondernemers om systemen te bouwen die het beste werken voor hun klanten. De balans is in het verleden echter onzeker gebleken. Naarmate de druk toeneemt om blockchain zijn belofte waar te maken, zullen we merken dat de commercialisering steeds meer de nadruk legt op blockchain om marktklaar te zijn, ongeacht welke ideologieën het op korte termijn moet opofferen..

ConsenSys-onderzoek

 

 

Over de Auteurs

Everett Muzzy

Everett is schrijver en onderzoeker bij ConsenSys. Zijn schrijven is verschenen in Hacker Noon, CryptoBriefing, Moguldom, en Coinmonks.

Mally Anderson

Mally is schrijver en onderzoeker bij ConsenSys. Haar schrijven is verschenen in MIT’s Journal of Design and Science, MIT’s Innovaties, Kwarts, en Esquire.

Ontvang het laatste nieuws van ConsenSys Research

Meld u aan om op de hoogte te worden gehouden van toekomstige ConsenSys Research Publications

Aanmelden →

Mike Owergreen Administrator
Sorry! The Author has not filled his profile.
follow me
Like this post? Please share to your friends:
Adblock
detector
map