1

Тема: Невже децентралізована мережа може бути потрібною кожному?

Проблема існуючих децентралізованих мереж, таких як ZeroNet, полягає в тому, що їм для підтримки їх роботи потрібні істотні додаткові затрати, і майже ніхто не потребує їх, поки у нього немає проблем з підключенням до Інтернету, і уряд не блокує необхідні ресурси.
Дійсно корисна децентралізована мережа повинна бути, принаймні, резервною копією звичайного інтернету та користуватися URL-адресами для ідентифікації ресурсів. Наприклад, в цій гіпотетичній DecNet є розширення Chrome, яке відправляє кожен URL-адресу, який користувач відвідує в локальний DecNet пір користувача, яке зберігає локальну копію цього ресурсу. Час від часу DecNet оновлює інформацію по всіх URL-адреси ресурси, тому користувач завжди має фактичну копію необхідної йому інформації. Коли звичайний Інтернет стає недоступним, користувач може отримувати оновлення як учасник DecNet мережі. Проблема джерела істини існує в цій моделі, але доступність інформації важливіше автентичності. Для перевірки достовірності може існувати десятки надбудов на цій DecNet.
Фактично я говорю про персональний archive.org з можливостями Децентралізованість мережі

2 Востаннє редагувалося koala (16.04.2018 08:10:03)

Re: Невже децентралізована мережа може бути потрібною кожному?

Ви зараз якось дуже вузько вживаєте вираз "децентралізована мережа", а оскільки визначення не даєте, то зрозуміти, що ви маєте на увазі, важко.
Наприклад, Інтернет - децентралізована мережа.
А ще світова мережа електропостачання децентралізована.

Взагалі, мережа - це об'єднання однорідних об'єктів; а децентралізована мережа, відповідно - мережа, яка не має виділеного об'єкту (центру), від якого залежить її функціонування.

Подякували: Chemist-i, HetmanNet2

3

Re: Невже децентралізована мережа може бути потрібною кожному?

Очевидно, маються на увазі децентралізовані p2p-системи як протилежність централізованим клієнт-серверним, я правильно зрозумів топік-стартера? А те, що він пропонує, є просто тимчасовим бекапом веб-сайтів, на випадок, коли вони лежать? Ну добре, а що це дасть поверх того, що дає централізований веб? Практично нічого. Якщо сайт лежить тимчасово через наплив користувачів, то далі або сайтовласник купує кращий хостинг, або користувачі переконуються, що там нічого нема, й наплив припиняється — тобто, проблема вирішується сама по собі.

Справжня проблема вебу полягає в тому, що сайти закриваються, реорганізуються — старе посилання на той же ресурс через якийсь час може стати битим, і зовнішні посилання на достатньо старій веб-сторінці практично завжди переважно биті. Бекап останньої версії нікого не рятує, бо на останній версії сайту ми побачимо, наприклад, привіт від godaddy, абсолютно ніяк не пов'язаний з корисною інформацією, яка тут була. Скоріш, потрібна «машина часу» з можливістю повернутися до версії сайту, що була колись — тобто, щось назразок web.archive.org, але децентралізоване. Крім того, копіювання сайтів у вебархів відбувається хаотично-вибірково — нам же якимось чином треба забезпечити повне копіювання всього. Також є сайти, побудовані за технологіями, що значно ускладнюють чи унеможливлюють їх копіювання.

Головне питання: хто всі ці дані зберігатиме, і яка в нього буде мотивація до цього? Особливо якщо йдеться про щось велике за розміром, як відеоконтент, включно з чиїмись нудними відеоблогами, які майже ніхто не дивиться.