Продолжаем копать дальше и разбираться что же происходит интересного в мире web 3.0: стоит ли овчинка выделки, чтобы туда вообще погружаться. Сегодня мы попытаемся разобраться, что такое децентрализованное облако и причем тут blockchain. Но начнем как всегда сначала с классического облака и рассмотрим историю его трансформации в децентрализованное.
Часть I: Облако
Все, что мы делаем сегодня в Интернете, использует «облако». Этот термин стал настолько повсеместным, что может быть трудно точно понять, что такое облако, как оно работает и как мы с ним взаимодействуем.
На самом деле это удивительно простая, но в то же время мощная концепция, но ее простоту и мощь легко скрыть за спецификациями, статистикой и техническими терминами. Давайте начнем с основ и посмотрим, что такое облако на самом деле и почему оно важно для всех находящихся онлайн.
Хотя термин «облако» является довольно новым, эта концепция восходит к самым ранним дням вычислительной техники, фактически, когда компьютеры представляли собой машины размером с комнату, к которым вы должны были получить доступ через специализированные терминалы в какой-либо части здания. Однако только около 20 лет назад появилась современная концепция работы и общения онлайн.
Кому нужны серверы?
В то время широкополосный доступ становился все более распространенным явлением, и люди узнавали, насколько мощной может быть сеть (оказывается, AOL была не так уж хороша). Но чтобы предлагать услуги онлайн, компаниям нужно было инвестировать в серверы: специализированные компьютеры, предназначенные для обработки интернет-трафика. В этом дорогостоящем шаге было легко ошибиться, и неустойчивый или разочаровывающе медленный веб-бизнес мог оказаться хуже, чем его полное отсутствие.
Решение появилось в виде центров обработки данных, зданий, полных серверов, которые управлялись одной компанией как одна гигантская машина, и вместо того, чтобы покупать собственное, вы просто арендовали время и пространство на них. Операторы использовали программное обеспечение для быстрого и эффективного делегирования вычислительной мощности своим клиентам, позволяя компаниям использовать всего два сервера в один день и сотню на следующий, если бизнес пошел в гору.
Эта вновь обретенная надежность и гибкость привела к созданию некоторых первых облачных провайдеров — хотя они еще не называли себя так — например, того, что позже станет крупнейшим из них, Amazon Web Services (AWS). Эти компании зарабатывали деньги, размещая и доставляя данные своим клиентам — от малых предприятий до таких же крупных, как Netflix.
Здесь есть важное различие между облачными сервисами, которые вскоре будут предлагаться AWS, Google и Microsoft Azure, и другими вещами, которые сделали эти компании. Просто потому, что AWS или Azure размещают ваши данные, не означает, что вы должны размещать свой продукт в магазине Amazon или запускать Windows. Облачные услуги, которые они предлагают, были больше похожи на утилиту, по большей части отделенную от других их продуктов и конкурирующую друг с другом по цене за вычислительную мощность, хранилище и трафик. Эта инфраструктура предоставляется в качестве слоя, прозрачного для пользователей — в наши дни кто-либо знает, на каком облачном провайдере работает веб-сайт или служба, только когда один из них выходит из строя и забирает с собой четверть Интернета.
От локальных приложений к веб-приложениям
Сначала эти размещенные сервисы просто служили более удобными местами для быстрого хранения и доступа к объемным данным. Но вскоре стало ясно, что возможности заключаются не только в том, чтобы не запускать собственные серверы. На самом деле серверы могли выполнять большую часть работы, которую выполняли домашние компьютеры и телефоны, с невероятными преимуществами.
Примером этого откровения, хотя и далеко не единственным, является, безусловно, Gmail. На протяжении десятилетий электронные письма передавались между компьютерами, появляясь в таких приложениях, как Outlook, которые вы открывали на своем компьютере и которые нужно было настраивать с большим количеством технических деталей. Google показал миру, что не только электронная почта может быть полностью отправлена в браузере, но и что он, возможно, превосходит своих конкурентов на настольных компьютерах.
Почему? Подумайте об этом. Ваш почтовый ящик теперь доступен на любом компьютере, за который вы садитесь — все, что вам нужно сделать, это зайти на gmail.com. Мало того, Gmail продолжал добавлять новые функции и расширять и без того очень большой объем хранилища, доступный каждому пользователю — и независимо от того, насколько большими были ваши вложения, они никогда не заполняли ваш жесткий диск.
Что объединяет все эти функции? Они стали возможны только потому, что все приложение постоянно работало на серверах Google. Ничто не зависело от пользователя: настольный компьютер или ноутбук, Mac или Windows, Chrome или Firefox… ну, в то время это, вероятно, был Netscape или Internet Explorer, но вы поняли идею.
Gmail — это лишь один пример из тысяч новых рынков и возможностей для бизнеса, которые были созданы возможностью позволить чужому компьютеру выполнять всю тяжелую работу, в то время как пользователь получает только результаты. Эта модель была настолько перспективной, что вскоре на ней будет построена практически вся цифровая экономика.
Цифровая трансформация жмет на газ
Это хорошо, потому что со временем люди стали хранить гораздо больше данных в Интернете. По некоторым оценкам, в 1999 году в мире было произведено около 1,5 эксабайт данных.
(В вашем телефоне может быть 100 гигабайт свободного места, в вашем ноутбуке — в десять раз больше — терабайт, петабайт — это тысяча терабайтов, а эксабайт — это тысяча петабайтов). К 2006 году этот показатель увеличился на порядок до 160 эксабайт в год. В течение следующего десятилетия он будет расти еще быстрее, и в наши дни мы производим сотни эксабайтов каждый день.
Что касается вовлеченных денег, то в 2008 году рынок облачных вычислений оценивался примерно в 6 миллиардов долларов, и это ни в коем случае не карманные деньги, а лишь малая часть того, что должно было прийти: облачные услуги в 2021 году — это рынок стоимостью более 300 миллиардов долларов и по данным Allied Market Research, растет быстрее, чем когда-либо.
Что случилось? Мир перешел в онлайн, и все онлайн так или иначе является частью «облака». От бизнес-сервисов до социальных сетей, телевидения и кино все стало жить в центрах обработки данных, а поскольку никто не хочет думать о том, какой именно сервер или в каком центре обработки данных — даже сетевые инженеры могут не знать наверняка, где физически находятся данные их компании — все начал просто называть это «облаком». Что-то смутное, но вездесущее.
Облако и большие технологии
По мере роста рынка появлялись лидеры — и это именно те, о ком вы подумали. Microsoft Azure, Amazon AWS и Google Cloud были одними из первых, кто инвестировал в пространство и предложил облачные услуги, и благодаря этому преимуществу первопроходца они неуклонно продвигались вперед, пока полностью не стали доминировать в облачном ландшафте.
С одной стороны, это хорошо: крупные, известные компании, скорее всего, будут предоставлять множество полезных и надежных услуг, легко доступных для предприятий, желающих разместить свои собственные платформы. Если вы хотите запустить видеосервис по требованию, вам не нужно тратить сотни миллионов на центр обработки данных, вы просто звоните в Amazon и сообщаете им, какая пропускная способность вам нужна. На самом деле, это в значительной степени то, что сделал Netflix! (Очевидно, что это нечто большее, но это история в другой раз.)
Но это также связано с рисками. Наличие облачной инфраструктуры, принадлежащей горстке крупных технологических компаний, означает, что инновации могут пострадать, в то время как рынок стагнирует и становится более изолированным. Как и в любой отрасли, если есть всего несколько игроков, и они печатают деньги, у них мало стимулов для того, чтобы по-настоящему изменить предлагаемый продукт, и вместо этого они конкурируют в таких вещах, как удержание клиентов и дополнительные продажи. Между тем, цены не будут снижаться так быстро, как это было бы при усилении конкуренции: Amazon, как недавно указал Cloudflare, похоже, увеличивает свои собственные расходы на пропускную способность почти на 8000 процентов — в то время, когда пропускная способность дешевле, чем когда-либо.
Это компромисс, который мы часто наблюдаем в растущих отраслях: это не совсем монополия и не совсем установление цен, но это, конечно, не сильная конкуренция, которая дает наилучшие результаты для потребителей и бизнеса. Когда вы тратите половину своего восьми- или девятизначного дохода на облачные сервисы, вы, как правило, начинаете задаваться вопросом, стоит ли в конце концов строить этот центр обработки данных.
Облачное настоящее, облачное будущее
Делаете ли вы покупки, просматриваете медиафайлы, такие как шоу или музыку, или делаете видеозвонки с друзьями (что, конечно, стало гораздо более распространенным во время пандемии), вы используете облачные сервисы на каждом этапе пути: когда вы просматриваете сайт, когда вы транслируете, когда вы платите, когда вы просите о помощи.
Практически каждая услуга, которая должна работать онлайн, в том или ином смысле мигрировала в облако. В некотором смысле это привело к значительному повышению производительности, но также создает новые риски, поскольку личные и финансовые данные передаются между этими службами, а также возможности для защиты этих данных. И, конечно же, проблема, с которой все началось — получение достаточного количества серверов для правильной работы — является постоянной проблемой даже для мегакорпораций, соперничающих друг с другом за рынок.
Часть II: Центры обработки данных
Десятилетия назад ваш телефон был на конце длинного медного провода. Ваш телевизор получал каналы с другого кабеля или, возможно, со спутника, а ваше радио улавливало сигналы AM или FM прямо из эфира. Уже нет — все эти вещи теперь цифровые, и все они используют Интернет для загрузки или обмена данными, которые им нужны — шоу из потокового сервиса, видеозвонок с друзьями, новый выпуск вашего любимого подкаста.
Чтобы сделать все это возможным, нам пришлось построить совершенно новый тип инфраструктуры 21 века: центры обработки данных. И сами они могут оказаться на пороге революции — вот почему.
Все данные, все время
Чтобы понять, что такое центры обработки данных, сначала подумайте, зачем они нужны. Когда вы снимаете видео на свой телефон, оно есть на вашем телефоне. И когда вы работаете с документом Word на своем ноутбуке, он там, на вашем ноутбуке. Но когда вы нажимаете «следующий эпизод» на своих любимых часах, эти данные не остаются на вашем жестком диске — библиотека шоу Netflix слишком велика, чтобы жить на одном компьютере. Так как же сделать его доступным для всех?
Эта проблема на самом деле восходит к самому происхождению компьютеров, когда оборудование было размером с комнату и не могло быть перемещено для более удобного доступа. Тогда решение было таким же, как и сейчас: подключите хороший длинный кабель, чтобы вы могли управлять компьютером удаленно. Теперь разница заключается в масштабе: вместо пяти человек, которым нужен доступ к данным в подвале, пять миллионов человек нуждаются в доступе к данным по всему миру.
Когда Интернет начал набирать обороты, компании, выходящие в интернет, инвестировали в серверы, которые представляют собой просто компьютеры, специализирующиеся на хранении, обработке и передаче данных. Сначала ими управляли сами компании, иногда из тех самых офисов, в которых они работали. В «серверной комнате» было несколько больших стеков компактных компьютеров, на которых хранились все данные, составляющие их онлайн-сервисы.
Но по мере того, как цифровые сервисы с большим объемом данных, такие как YouTube, Facebook и Amazon, стали обычным явлением, стало ясно, что вы не можете управлять глобальной онлайн-компанией из горячей комнаты в офисном здании в центре города. Мало того, что требования к данным и вычислительной мощности росли в геометрической прогрессии до такой степени, что не хватало места, но что, если бы произошло отключение электроэнергии или пожар? Всю компанию может снести сильный порыв ветра.
Решение состояло в том, чтобы переместить серверы в новую выделенную локацию с большим количеством места, дешевой и надежной электроэнергией и штатным персоналом для наблюдения за ним. Так родился современный центр обработки данных.
Создание фермы серверов
Внутри центра обработки данных ряды и ряды серверов сложены по 10 или 20 штук в высоких стойках. Каждый сервер размером с ноутбук обычно оснащен новейшими процессорами и большим объемом оперативной памяти и дискового пространства. Но нет монитора, клавиатуры или мыши — вместо этого к ним можно получить удаленный доступ через километры кабелей, которые проходят через все помещение, соединяя каждый сервер с другими и с машинами центрального администрирования. Каждый сервер является независимой единицей, но они могут быть объединены в сеть, чтобы работать как одна большая машина. Интересно, что это означает, что две конкурирующие компании могут платить за место в одном и том же центре обработки данных, при этом конфиденциальные данные одной из них находятся всего в нескольких дюймах от данных другой.
В современном центре обработки данных могут быть десятки тысяч серверов, работающих одновременно на акрах пространства, и один человек может контролировать сотни или тысячи серверов, перемещаясь на тележке для гольфа, чтобы заменить неисправный диск или проверить проводку. Они работают 24/7 и требуют постоянного ухода и обслуживания.
Вы можете подумать, что 50 000 компьютеров в одном месте более чем достаточно для запуска чего-то вроде Google, но это даже не близко. То, что делают эти центры обработки данных, — это не что иное, как управление всем «облаком», о котором мы все так много слышим. Каждая фотография, загруженная в Instagram, каждый файл, сохраненный в Dropbox, каждая презентация, над которой ведется совместная работа, — все они хранятся где-то в центре обработки данных и часто копируются несколько раз для облегчения доступа и резервного копирования. И это без учета миллионов веб-сайтов, работающих на сервисе Amazon AWS, или огромной коллекции видео, доступных Netflix или Disney+.
50 000 — хорошее начало — за одну услугу, от одной компании, в одной стране. На самом деле, по оценкам, сейчас во всем мире насчитывается около 3 миллионов центров обработки данных, большинство из которых меньше, но гораздо больше. Облачные сервисы растут быстрее, чем когда-либо, в сфере развлечений, корпоративных приложений, связи и все чаще в сфере искусственного интеллекта и криптовалюты. Объем данных, которые загружаются и обрабатываются каждый день, почти не верится, прогнозируется, что он приблизится к 100 зеттабайтам — это сто триллионов гигабайт, достаточно, чтобы, если вы поместите их на диски Blu-Ray, вы могли бы сложить их до луны … дюжину раз. И строящаяся инфраструктура имеет масштабы, которые трудно представить. Как вообще выглядит миллион квадратных футов серверов? Мы узнаем, когда в этом году будут построены центры обработки данных такого размера.
Но, несмотря на все эти инвестиции, в мире центров обработки данных и облачных сервисов не все так хорошо. Перед отраслью стоит несколько серьезных задач.
Асимметрия и неэффективность
Во-первых, эти фермы серверов потребляют поистине огромное количество электроэнергии. Фактически, по оценкам, на центры обработки данных в настоящее время приходится около двух процентов всего энергопотребления во всем мире. Интересно, что на сами серверы уходит лишь часть этой мощности — большая ее часть используется для охлаждения объектов, поскольку десятки тысяч компьютеров, напряженно работающих днем и ночью, выделяют много тепла. По этой причине центры обработки данных все чаще располагаются не только в местах с дешевой возобновляемой энергией, но и там, где воздух естественно холодный, что снижает счета за кондиционеры. Новые подходы к программному обеспечению и администрированию также влияют на это, но тысячи серверов подключаются к сети каждую неделю, и трудно сказать, будет ли этого достаточно.
Вторая и более фундаментальная проблема заключается в том, что вся эта мощь используется неэффективно. Несмотря на то, что серверы эффективны по отдельности, а центры обработки данных — лучший способ обеспечить миллиарды людей триллионами байтов данных, оказывается, что большинство этих объектов редко используют больше, чем часть своей мощности.
Чтобы понять, почему это так, подумайте о том, что делают эти центры обработки данных. Один, расположенный, скажем, в Мичигане, будет предоставлять услуги в первую очередь людям в этом регионе — поскольку доступ к данным поблизости быстрее и дешевле — но также в основном людям в этом часовом поясе. На серверы будет загружен англоязычный контент от американских служб и компаний.
Днем и вечером, когда все проводят встречи, транслируют шоу и играют в игры, этот центр обработки данных может использовать половину своей общей мощности. И если есть большой всплеск, например, новый эпизод популярного шоу или прямой эфир на YouTube, возможно, он выше. Но что происходит, когда все в Детройте, Атланте и, если уж на то пошло, в Гаване и Лиме ложатся спать? Этот дата-центр в Мичигане тоже замолкает, активны лишь несколько процентов его ресурсов, но весь объект простаивает, потребляя энергию и производя тепло. По некоторым оценкам, фактически используется только 15 процентов возможностей центров обработки данных.
Распределение и децентрализация центров обработки данных
Кажется пустой тратой времени, не так ли? По всему миру строятся центры обработки данных, которые бездействуют 85 процентов времени. Что можно сделать, чтобы улучшить это?
Лучший единственный способ повысить эффективность — выяснить, какие серверы не используются и когда, и заставить их работать, а не запускать новый. На каждый малоиспользуемый центр обработки данных на другом конце планеты, скорее всего, приходится переполненный.
Например, если вы являетесь компанией, занимающейся искусственным интеллектом, базирующейся в Мумбаи, вы можете заплатить за обучение своей модели машинного обучения в местном центре обработки данных, но вы будете платить за время, когда эти ресурсы наиболее востребованы в этом районе. Как и в случае с любым другим товаром, это означает, что цена высока за то, что вы получаете. Так почему бы не заключить сделку с людьми из Мичигана, чей центр обработки данных в настоящее время простаивает при загрузке на 5-10 процентов?
Конечно, не так удобно передавать все эти данные по тысячам километров кабелей, есть и другие компромиссы, но если не спешить с получением данных там, где они должны быть — в отличие от видеозвонков, эти пакеты можно подождать несколько секунд — это хорошее решение для обеих сторон. Индийская компания, занимающася искусственным интеллектом получает дешевый доступ к дата-центру, а мичиганский провайдер получает оплату в нерабочее время.
Вопрос в том, как сделать это глобально и надежно? Появилось то, что называется системой обратного аукциона, еще одна концепция, которая на самом деле насчитывает много десятилетий. В нем несколько компаний предлагают аналогичные услуги — в данном случае обработку онлайн-данных клиента — и конкурируют друг с другом за одного клиента, который выбирает между их ставками. Это достаточно просто: компания может просто установить цену, которую она готова заплатить, и посмотреть, примет ли ее рынок.
Инновации делают это возможным
Тем не менее важно делать это справедливо и предсказуемо, поскольку любой рынок открыт для манипуляций. Например Akash, один из провайдеров на рынке decentralized cloud computing, предоставляет систему контроля и предоставления торговых площадок для свободных мощностей центров обработки данных. Объединив несколько поставщиков и заинтересованных лиц, имеющих доступ к большому количеству рассматриваемых активов — серверов, в основном, — они могут сформировать своего рода консорциум самоконтроля, который соглашается продавать эти активы в соответствии с набором разумных правил, при этом допуская конкуренцию. по цене.
Это работает только в том случае, если вы можете быть уверены в двух вещах: в достаточном количестве и в том, что все участники честны. Во-первых, тот же Akash сотрудничает с Equinix, одним из крупнейших поставщиков облачных услуг в мире, на уровне «голого железа», что означает максимальную конфигурируемость и гибкость. Наличие таких крупных поставщиков означает, что рынок достаточно велик, чтобы крупные клиенты могли принять в нем участие.
Что касается вопроса честности, основная инновация технологии блокчейна — устранение возможности нечестности со стола. Специальный токен криптовалюты используется для записи поставок и сделок, совершаемых в сети, и все это в неизменном реестре сообщества, доступном для всех заинтересованных сторон.
Позаботившись об этом, компании по всему миру могут быть уверены, что у них всегда есть возможность безопасно и справедливо покупать ресурсы центров обработки данных у крупных поставщиков по минимальным ценам, которые они могут эффективно установить сами. По мере того, как эта модель будет набирать обороты, уровни использования существующих центров обработки данных будут увеличиваться, повышая их доход и одновременно решая проблему эффективности.
Конечно, это не означает, что нам никогда не придется создавать новые, но, учитывая нехватку микросхем и экономические проблемы, охватившие весь мир, возможно, сейчас самое подходящее время сделать перерыв и сосредоточиться на использовании того, что у нас уже есть.
Часть III: Инновации в Kubernetes
На сегодняшнем все более централизованном рынке облачных вычислений есть две растущие силы в пользу децентрализации. Kubernetes и блокчейн сочетают в себе гибкость для эффективного использования любого оборудования с возможностью справедливо и прозрачно предоставлять и оценивать его, создавая новый рынок облачных вычислений, который может изменить все.
Но как мы пришли к этому и что это за технологии? Давайте посмотрим, откуда они взялись и почему они могут стать следующим важным событием для облака.
Коммерциализация и контейнеризация
За последнее десятилетие облачные сервисы стали де-факто решением практически для любого веб-приложения, которое необходимо масштабировать до тысяч или миллионов пользователей. По мере увеличения количества и размера веб-приложений и сервисов стало бессмысленно запускать собственные сервера, когда такие компании, как Amazon, IBM или Microsoft, предложили безопасную и мощную альтернативу по очень привлекательной цене.
По мере того, как эти компании расширяли свою деятельность, борьба шла не только за объемы, но и за эффективность. Скажем, Amazon запускает 100 новых серверов каждый день, а Microsoft — только 80, но если Microsoft сможет выполнять на этих серверах на 50 % больше рабочих мест, они выйдут вперед. А поскольку эффективность в значительной степени является программной проблемой, это означало, что ее можно было решить с помощью кода.
Одним из таких решений является Kubernetes, который представляет собой способ настройки и запуска так называемых контейнеров. Обычно серверы запускают несколько «виртуальных машин», по сути, минималистичных операционных систем, работающих параллельно на одном оборудовании, чтобы они могли работать несколько рабочих мест одновременно в изолированных вычислительных средах.
Контейнеры продвигают эту идею еще на один шаг вперед, разбивая виртуальное пространство на еще более мелкие секции, которые не требуют запуска собственной операционной системы. Они обеспечивают почти все преимущества виртуальных машин, но не имеют недостатков тысяч экземпляров Linux или Windows, потребляющих ресурсы.
Kubernetes — это греческое слово, означающее «рулевой», так как это что-то вроде головы корабля, определяющей, какие ресурсы куда направлять, когда добавлять новые контейнеры и когда их снимать. Будучи проектом с открытым исходным кодом, он привлек невероятное внимание разработчиков со всего мира, которые увидели потенциал его подхода.
А если это прошлогодняя модель?
Одной из привлекательных особенностей Kubernetes является то, что его можно использовать на самых разных типах серверов и оборудования. Старый или новый, топовый или недорогой, Kubernetes может оценить свои возможности и использовать их в меру своих возможностей.
Конечно, это полезно по многим причинам, но главная из них заключается в том, что это снижает планку входа на рынок облачных услуг. Вот почему.
Поскольку облачные провайдеры, подобные упомянутым выше, стали очевидным решением, они начали доминировать в ландшафте, который когда-то был заполнен десятками более мелких, региональных или специализированных игроков. Эта централизация дошла до того, что рынок облачных услуг почти полностью разделен между горсткой крупных поставщиков.
Как это часто бывает в программном и онлайн-мире, рынок устремился к олигополии, поскольку те, у кого были большие потенциальные клиенты, предлагали услуги и цены, которые просто не могли сравниться с теми, кого они оставили позади.
Kubernetes может стать возможностью изменить это. Небольшие провайдеры с набором устаревшего оборудования могут активировать его и предложить современный сервис облачного хостинга, который очень похож на услуги конкурентов, но по еще более низкой цене, соизмеримой с более низкой стоимостью оборудования.
Вопрос в том, как превратить это в настоящую торговую площадку, а не просто в сотню мелких провайдеров, борющихся за объедки крупных провайдеров? Вот тут и приходит на помощь блокчейн.
Открытый рынок
Термин «блокчейн» включает в себя огромное количество новых и развивающихся технологий, но все они имеют одну и ту же архитектуру (DNA): общий неизменный онлайн-реестр, который позволяет хранить данные и обмениваться ими безопасно и публично.
В случае чего-то вроде Биткойна это означает, что пользователи могут отправлять и получать цифровую валюту, и этот обмен наблюдают и записывают все, кто его использует. А как же рынок облачных услуг?
Чтобы вывести этих мелких поставщиков на уровень Microsoft и IBM, необходима единая общая платформа, на которой они могут предлагать свои возможности клиентам. Но эта платформа должна быть открытой и прозрачной, чтобы предотвратить манипуляции, автоматизированной до такой степени, чтобы она могла реагировать на изменения спроса и ценообразования, но достаточно надежной, чтобы поставщики и клиенты могли с уверенностью покупать и продавать.
Технология Blockchain предлагает все это, гарантируя, что каждая компания на платформе перечисляет свои доступные мощности и связанные с ними сборы и другие меры в общей публичной книге, видимой для других заинтересованных сторон.
Экономика токенов
Один из способов настроить его, как это происходит на рынке decentralized cloud — это иметь «токен», такой как биткойн, но без денежной стоимости, который представляет услуги, предлагаемые компанией. Если у них есть 10 терафлопс вычислительной мощности и гигабитное соединение, это представлено определенным количеством и типом токенов.
Они отслеживаются платформой, поэтому она точно знает, сколько ресурсов доступно в любое время и где. Процесс обратного аукциона, когда поставщики предлагают цену, которую они готовы установить для определенного клиента, устанавливает цену — и нет никаких возвратов или гонки на уступки, поскольку все это записывается и доступно каждому для просмотра. бухгалтерская книга.
Таким образом, платформа с сотней небольших провайдеров может фактически конкурировать с облачными сверхдержавами, объединяя их ресурсы в блок, который предоставляет такие же качественные услуги (благодаря Kubernetes) с надежным и прозрачным ценообразованием (благодаря блокчейну), что может быть значительно ниже того, что предлагают другие.
Интернет был построен как децентрализованная система, но рынки склонны к централизации, потому что именно в этом заключается прибыль. Однако, когда дело заходит слишком далеко, децентрализация технологий вновь заявляет о себе, как в данном случае. Мир богат разбросанными ресурсами и людьми, которые ищут способ их использовать — Kubernetes и блокчейн могут сделать это с размахом и создать облако следующего поколения.