Блокчейн, който е наистина мащабируем
В продължение на близо 20 години процесорите се развиха с невероятна скорост. Следвайки закона на Мур, процесорите удвояват скоростта си приблизително на всеки осемнадесет месеца до средата на 2000-те, когато компаниите започват да изследват нов многоядрен дизайн. В крайна сметка процесорите ще станат четириядрени, след това шестнадесетични, след това окто-ядрени и още, тъй като технологичните компании започнаха да търсят начини за проектиране на най-бързите и ефективни машини.
Сега добавянето на допълнителни ядра към процесора не означава непременно, че компютърът е бил по-бърз, а по-скоро позволява на множество програми да работят едновременно. Когато се смяташе, че са достигнати границите на едноядрената обработка, инженерите измислят интелигентни начини да продължават да увеличават мощността и възможностите на компютрите.
Най-близкото нещо до блокчейн еквивалент на процесор би било възел. Възелът е електронно устройство, което е свързано към мрежата на блокчейн и съхранява копие на тази блокчейн. Възлите се грижат за 3 аспекта на блокчейн.
Първо, те отговарят за изчислителния компонент. Това е компонентът, който повечето хора ще разберат като хеширане на транзакциите и създаване на блоковете. Вторият елемент е съхраняването на резултатите в регистъра, а третият компонент е консенсусът, тоест проверката на данните е вярна. Първият и третият елемент обикновено разчитат на изчислителната мощност на всеки възел и скоростта на всяка транзакция може да бъде обработена. Хранилището зависи от малко по-различен аспект от производителността на възел.
Текущата настройка на възела е мястото, където един възел е съставен от един компютър, по същество едноядрен процесор. Проблемът с това е, че за да подобрите производителността на мрежата, трябва да подобрите производителността на всеки отделен възел.
Определено е необходимо подобрение.
Продължаваме да виждаме случаи, при които блокчейн стават претоварени; те се забавят или стават твърде скъпи, за да бъдат използвани. Това е пряко свързано с производителността на възлите. Инженерите трябваше да бъдат по-интуитивни със своите решения и не би трябвало да е изненада, че има голямо разнообразие от начини, по които разработчиците на блокчейн са се стремили да подобрят тази технология.
Често срещаните решения са опит за увеличаване на размера на блока (увеличаване на скоростта, по която информацията може да бъде обработена, но това също така увеличава скоростта, с която блокчейнът расте), писане по-просто интелигентни договори, или подобряване на механизъм за консенсус да направи мрежата по-малко зависима от всички възли (което често идва със страничния ефект от загубата на някаква децентрализация).
Но нито едно от тези решения не се занимава с проблема в основата на проблема с мащабируемостта на блокчейн – че тъй като блокчейнът става все по-популярен и успешен, неизбежно ще има голямо натрупване на транзакции, които ще трябва да бъдат проверени с всеки следващ блок и блокчейн в крайна сметка ще се забави.
Това е допълнително разочаровано, когато платформите за интелигентни договори, като Ethereum, трябва да изпълнява неконкуриращи се интелигентни договори последователно, като отнема време и мощност за обработка.
Теоретично може да се добави повече производителност към единия компютър, но това бързо излиза от пропорция бързо за съотношението разходи / ползи. Оставете това настрана, тогава човек ще достигне физическата граница на разработената технология.
Но дори преди да стигнем до този момент, има още 2 ограничаващи фактора, които влизат в игра. Първо, като стартирате по 1 транзакция наведнъж, очевидно ще има ограничаващи фактори, че всяка транзакция, която трябва да бъде обработена, ще отнеме време и това минимално време не може да бъде намалено допълнително. Но на второ ниво имаме физическото ограничение на скоростта на запис на съхранението на данните. Не можете физически да записвате данни по-бързо от твърдия диск, на който се съхраняват.
Подход, който досега е избягвал разработчиците, е концепцията за добавяне на повече от един компютър към отделен възел. Подобно на процесор, който сега изпълнява няколко ядра едновременно, aelf се справи с този подход челно.
Проблемът с това се крие само в 2 думи: зависимост от транзакцията. Влизам в това по-задълбочено в статията си за паралелна обработка. Но по същество, след като зависимостта от транзакцията бъде разрешена, човек може да започне да добавя множество компютри в един възел.
Чрез създаването на възли, съставени от множество компютри, които могат да работят паралелно, aelf е в състояние да обработва неконкуриращи се транзакции едновременно. Подобно на това, че множество ядра в процесора позволяват на компютъра да изпълнява няколко програми едновременно, множество компютри в възел позволяват на блокчейн да проверява множество транзакции наведнъж.
Това също означава, че възлите са мащабируеми – естественият проблем за предишната липса на мащабируемост на възлите на blockchain. Компютрите могат да се добавят или изваждат от възли, което означава, че ако транзакциите станат по-сложни или има други промени в блокчейна, възлите могат да се адаптират, за да отговорят на новите изисквания на блокчейна.
Тази гъвкавост е от решаващо значение за всеки проект, който планира да продължи и в бъдеще.
Това е фиксирало изчислителния компонент на блокчейн скоростите, но все още имаме проблема със скоростите на съхранение на данни. aelf също е измислил иновативен подход. Тоест да се раздели процесът на съхранение на данни от компонента за изчислителна обработка.
За да обясните това с прости думи, можете да кажете, че aelf възел ще бъде разделен на 2 клъстера. Един клъстер от компютри ще се фокусира върху изчислителните процеси, докато вторият клъстер ще се фокусира върху компонента за съхранение на данни. Това вече премахна физическите ограничителни фактори и за двата слоя.
По подразбиране блокчейн книгата вече ще се съхранява на клъстер от компютри, а не на всеки отделен компютър. Технически погледнато, пълна книга все още ще съществува на всеки възел.
Като използва този подход, aelf просто трябва да добави друг компютър към възел, за да подобри мащабируемостта на блокчейна. Много проекти говорят за своята блокчейн като мащабируема, но нито един не е разрешил тези основни проблеми по такъв начин, че бъдещето да го докаже от тесни места.
aelf прилага решение, което е жизнеспособно за настоящите и бъдещите нужди на приемане на блокчейн. Те също така са проектирали екосистемата по такъв начин, че да й позволят да се развива според бъдещите нужди. Това позволява на елементи като протокола за консенсус да се адаптират, ако бъде разработен по-нов протокол с по-висока сигурност или изискванията на страничната верига се променят.
Aelf току-що обяви, че използвайки този подход, те са успели да създадат стабилна тестова мрежа V1.0 с TPS от 15 000.
За да бъде това базата, върху която aelf надгражда с такъв мащабируем блокчейн, не е чудно, че такива тежки нападатели в индустрията са ги подкрепили и са се присъединили към aelf като партньори. Това включва Хуби, Майкъл Арингтън, и FBG Capital, за да назовем само няколко.
Aelf със сигурност е един от блокчейн, който да наблюдава през следващите 12 месеца, тъй като продължава да обявява нови партньорства на всеки няколко седмици и да стартира основната си мрежа през първото тримесечие на 2019 г..
Ако искате да прочетете повече за aelf или от мен за общите новини за криптовалута, моля посетете моя блог.
Свързани: Надпреварата за кръстосана верига: 11 проекта, работещи върху оперативната съвместимост на блокчейн