Лента тем форума «Infonesy — распределённая социальная система и прочее, связанное с p2p.» и его подфорумов за год

 

Balancer

администратор
★★★★★

В Татарстане запускают первую российскую криптовалюту, которая обеспечена мясом племенных бычков. Новая криптовалюта получила название «ИТкоин»

в России всегда валютой было 0,5 литра водки. Вот к поллитру и надо привязываться, это по нашему! Назвать можно pollitracoin.

водкой и так можно пользоватся для обмена и можно ее майнить самому на несложном оборудовании

// Блокчейн в России...

 

tarasv

опытный

Сообщение было перенесено из темы Про облака....
Balancer> Считай криптовалюты аналогом, ну, скажем, золота. Бумажки ты можешь нарисовать в любом количестве. Но золота не можешь создать сколько угодно, оно лимтировано. Также лимитированы и криптовалюты.
Разве что законодательно будет запрещено создавать новые криптовалюты, количество которых в принципе ничем кроме спроса не ограничено. Так что они не аналог золота, а аналог бумажных денег с привязанным к ним полезным сервисами отсутсвующими у традиционной денежно-банковской системы - защищенными контрактами в Etherium или анонимностью в биткоинах и т.д. Ценность их определяется полезностью сервиса и способностью разработчиков криптовалюты убедить достаточное количество пользователей в полезности именно их реализации.
 

Balancer

администратор
★★★★★
И в рамках Infonesy в целом, и в рамках реплицирования форумов нужно думать о механизме удалённой поисковой индексации.
Пока думаю сделать таким образом. Дёргать чужие сервера по HTTP не лучшая идея в рамках постоянства доступности ресурсов и т.п. Но на помощь может прийти уже активно практикующийся обмен по btsync и/или IPFS. Скажем, при полной индексации сбрасывается дамп БД в унифицированном формате (целиком, или разбитый на файлы по годам/месяцам) в нашу систему обмена. Нода с поисковиком обнаруживает обновление, индексирует его тем же Sphinx с запоминанием ноды и категории. Voilà!
Также и с обновлениями. При чём обновления поисковая нода может брать прямо в обычном Infonesy-потоке.
Скорее всего воспользуюсь Sphinx с XMLPIPE. Основной индекс статический + rt для оперативных обновлений.
 

Balancer

администратор
★★★★★
Не то, чтобы это P2P. И даже не Infonesy. Но всё равно где-то в этот форум...
Для повышения отказоустойчивости и сохранности данных как форумов Авиабазы, так и прочих проектов (включая, кстати, и АвиаПорт) в очередной раз прихожу к мысли, что нужно иметь вторичные резервные полностью рабочие копии сайтов. Речь не о бэкапах, а именно о полной системе, готовой к работе в любой момент.
Раньше я думал много о полной копии (например, rsync для полностью автономного LXC-контейнера), но с этим вариантом всё так и не срослось. Он плохо работает, когда объём БД измеряется десятками гигабайт, а объём файлов — сотнями.
Сложно также поддерживать живую консистентность БД. Да, в том же MySQL отлично работает master-master репликация баз и я даже этим активно пользовался, но... Как только начинаются проблемы с репликацией, потом замучаешься это всё восстанавливать. Время от времени дело доходит до очередного mysqdump/mysql, что выливается, порой, в часы восстановления... Печально. Ещё хуже дело обстоит с разнородными БД на одном сервере.
Проще с файлами. Их можно гонять с машины на машину по rsync. Можно синхронизировать изменения через lsync или btsync/syncthing. Есть небольшие задержки, но чаще это не критично. Проблема тут в том, что p2p-синхронизация тяжело работает на сотнях гигабайт. А централизованная требует каждый раз ручного конфигурирования и жёстко привязывается к структуре проектов.
Интересно тут попробовать IPFS, но руки пока не дошли до массовой практики. Хотя у IPFS есть серьёзный недостаток — невозможность работать с её файлами локально. Они хранятся в собственном формате. В качестве же бонуса — прозрачная работа при смене реплики или при удалённом добавлении файла на другом сервере. Локально он будет гарантированно доступен при обращении, хотя и с задержкой.
С базами же данных я до конца вопрос не решил. Хочу попробовать идею, реализованную в Infonesy. При появлении новых данных или обновлении старых на одном сервере, он сбрасывает JSON-объект в файл в каталог синхронизации. Реплицирующие машины забирают файл и загружают в свои БД. Автоматически решается вопрос структуры сети, так как работа идёт через честный p2p. Проблема конфликта идентификаторов (которой нет в Infonesy — там другой принцип) не возникает при использовании mysql autoincrement offset, как при master-master. Практику тормозит мелочь — надо дорабатывать свои сайтовые движки. Но тут относительно просто — BORS© имеет централизованную точку сохранения объектов, туда и можно встраиваться.
Т.е. система вырисовывается такая. Например, при появлении ответа на форуме, файлы/аттачи сразу кидаются в IPFS. Объекты постинга, обновлённого топика, форума и всего, что обновилось, кидаются в виде JSON в btsync. На удалённом сервере демон, следящий за btsync-каталогом видит прибытие JSON. Считывает данные и грузит их в БД. Файлы, на которые может ссылаться запись, уже сразу доступны в IPFS. Тонкое место тут только в ссылочной целостности базы. Скажем, в случае нового топика постинг может прийти раньше топика. И тогда в БД не получится topic_id сделать внешним ключём для поста... Придётся не пользоваться ссылочной целостностью :-/
Ну и ещё один момент — развёртывание проектов. Недавно переносил АвиаТоп (для разгрузки, а то он процентов 15 нагрузки давал :D) с сервера Авиабазы на отдельный сервер в DigitalOcean. Теперь думаю переносить на другой сервер, у Scaleway. Постое копирование — это лишняя работа. А я очень ленив :) Поэтому уже при недавнем переносе я постарался максимально пакетизировать проект. Чтобы можно было развернуть по простому composer require .... Но БД пока переносится ещё вручную. Надо и этот вопрос тоже решить. Миграции и утягивание данных по запросу через p2p-репликацию. Вот это было бы отлично. Но это ещё предстоит делать :)
 

Balancer

администратор
★★★★★
Копилка.

10 Free Ways to Stream Torrent Without Waiting for Complete Downloading • Raymond.CC

Many people still use BitTorrent to download TV series or movies and usually you need to wait until the file has finished downloading before you can start to watch. However, you can also stream torrent video files so they can be watched while they are downloading, here are 10 tools that can do it. // www.raymond.cc
 

Сам периодически использую ROX Player.

ROX Player - Powerful All-in-One Media Player

ROX Player - innovative media player for all types of video files, IPTV, DHT and P2P protocols. // roxplayer.com
 

Надо присмотреться к Tribler.

Tribler - Privacy using our Tor-inspired onion routing

Do not put yourself in danger. Our anonymity is not yet mature. Tribler does not protect you against spooks and government agencies. We are a torrent client and aim to protect you against lawyer-based attacks and censorship. With help from many volunteers we are continuously evolving and improving. Anonymity How anonymity works Userinterface Get started & screenshots Nowebsites Tribler includes search. You can find lot of videos without any web site. // Дальше — www.tribler.org
 

Также близкая тема форума (идея не оправдалась из-за политики разработчиков плагина):

Кино прямо в браузере (тесты)

Сообщение с ограниченным доступом// Клуб Авиабазы
 
 

Китайские электрические компании используют избыток энергии для майнинга биткоинов

Чандлер Гуо, знаменитый инвестор биткоина, который вкладывал капитал в пул Bw.com и различные предприятия, связанные с Ethereum Classic, недавно рассказал, что китайские электрические компании используют излишки электроэнергии для майнинга биткоина. За прошедшие 6 месяцев меры по контролю за капиталом в Китае значительно усилились. Китайское правительство начало регулировать иностранные инвестиции в крупные компании и в последнее время начало ограничивать импорт золота, чтобы капитал не покидал страну.

Все эти усилия являются частью попытки китайского правительства остановить девальвацию национальной валюты, юаня, который уже успел упасть на 5.8% по отношению к доллару США. Чем больше ограничивается оборот золота, тем более актуальным становится биткоин как актив с высокой ликвидностью и стабильным обменным курсом, и его легко можно получить на внебиржевом рынке страны, не подпадая под разного рода ограничения и запреты.

Гуо, который управляет очень крпным майнинговым пулом в Китае, недавно рассказал в интервью для Ether.camp, что китайские электрические компании занимаются майнингом Биткоина, чтобы превратить в деньги свои излишки электричества. Во многих случаях они производят существенно больше электричества, чем нужно местным компаниям и домашним хозяйствам, и они начали пускать эту энергию на майнинг биткоинов.

«Сегодня электрические компании просто вскочили в биткоин бизнес», говорит Чандлер Гуо. «До этого мы [то есть майнеры] покупали электричество [у компаний] для майнинга биткоинов. Сегодня те, кто продают нам электричество, начали майнить цифровую валюту самостоятельно.»

Можно предположить, что принимая во внимание нынешнюю экономическую нестабильность в Китае, немедленное превращение избыточного продукта в деньги является жизнеспособной и практичной бизнес-моделью. Особенно, когда наличные деньги и другие активы местные власти стараются всячески регулировать.

Хотя майнеры биткоина вынуждены раз в несколько месяцев обновлять своё оборудование из-за роста сложности сети и роста эффективности чипов для майнинга, большинство их затрат приходится на электричество. Так что наличие бесплатного электричества может сделать майнинг необычайно прибыльным для майнеров и электрических компаний, которые вовлечены в эту схему.

«[Электрические компании] вместо того, чтобы продавать нам электричество, покупают у нас оборудование для майнинга», говорит Гуо. «Многие электрические компании становятся майнерами биткоина. Даже небольшая электрическая компания может с лёгкостью купить мощностей на 1-2 петахэша.»

Так как крупные компании и инвесторы заинтересовались операциями с цифровой валютой, Гуо твёрдо полагает, что индустрия майнинга будет развиваться огромными темпами.

// Источник: http://coinspot.io/technology/mining/kitajskie-elektricheskie-kompanii-ispolzuyut-izbytok-energii-dlya-majninga-bitcoinov/

 

Balancer

администратор
★★★★★
Разгребал тут на форуме топик пятилетней давности и в очередной раз грустил о том, что через пять лет порядка 25% ссылок становятся недоступными. И снова возвращаюсь к идее сохранять копии таких страниц локально и в p2p. Но начинать надо с выкачивания страницы. Понятно, что почти идеальное решение (при чём без альтернативы, увы :-/ ) — Scrabook под Firefox. И хранится удобно, и вычистить страницу от мусора можно. Но это — ручная работа. А в общем случае процесс должен быть автоматическим для форума.
Конечно же, есть wget!
Задача, вроде бы, примитивная — скачать страницу и все картинки (и прочие файлы), на которые страница ссылается. Но не выкачивая страницы, на которые она ссылается! Потому что их бывает очень, очень много...
И вот тут — облом. Если тупо скачивать с `-page-requisites`, то страница скачивается в отличном виде, но, понятно, не качаются, например, большие картинки, превьюшки которых стоят на странице.
Если добавляем  -r -l1, то качаем всё, на что страница ссылается, но это ещё и десятки, иногда сотни .html первого уровня и... внезапно! тоже с  -page-requisites — т.е. десятки и сотни картинок со своими ресурсами!
Если качать без  -page-requisites, то наша основная страница качается не целиком, утягиваются не все ресурсы.
Если добавлять  -accept '*.jpg' или  -reject '*.html', то, опять внезапно, не качается и сама страница, которую мы хотим скачать, так как она — .html
...
httrack тоже задачу не решает :-/
Проблема в картинках, на которые ссылается страница. Т.е.:
code html4strict
  1. <a href="/full-image"><img src="image" /></a>

Если ограничиваться глубиной выкачивания  -r1, то превьюшка качается, полная картинка — нет. Если ставить  -r2, то выкачиваются, порой, тысячи файлов — вплоть до всего сайта.
Если ставить фильтры по расширениям ( -* +*.gif +*.jpg +*.png +*.css +*.js), то с  -r2 результат сносный. Но у картинок часто вообще нет расширения и этот метод не работает.
Если ставить фильтры по MIME ( -mime:*/* +mime:image/* +mime:text/*), то с  -r2 опять качается [почти] весь сайт, только что кроме картинок и html ничего не останется, но прочего итак мало. Если в mime убирать text/html, то, болезнь wget, не качается и та страница, которую сказали выкачать.
Блин. Простейшая задача в рамках того, что уже умеют wget и httrack, но ни тот, ни другой, решить её не могут :D
...
В общем, пока совсем забил на ссылающиеся картинки. Лучше иметь страницу с превьюшками и без полных картинок, чем не иметь ничего :)
Примеры сохранённых страниц:

/ipfs/QmVQzXn8pNGDMMdFneffktMKfrUFw7txFv6mBTo3SY71NM

        ..   Клин-(роботизированный-комплекс)-»-Инженерная-техника 1.1 MB   ..   Клин-(роботизированный-комплекс)-»-Инженерная-техника 1.1 MB     // gateway.ipfs.io
 

/ipfs/Qmb1Xxv8FoRhMYyqHWpc2hqiedWcS2sTy9eiwuqM5wFXBs

        ..   Роботы-и-роботизированная-техника-ни-ликвидации-аварии-на-ЧАЭС-в-1986-году-Чернобыль-Припять-зона-отчуждения-ЧАЭС 2.2 MB   ..   Роботы-и-роботизированная-техника-ни-ликвидации-аварии-на-ЧАЭС-в-1986-году-Чернобыль-Припять-зона-отчуждения-ЧАЭС 2.2 MB     // gateway.ipfs.io
 

И скрипт по добавлению страниц в IPFS начерно:

Balancer/infonesy

infonesy - Information about the project distributed exchange // github.com
 
 

в начало страницы | новое
 
Поиск
Настройки
Твиттер сайта
Статистика
Рейтинг@Mail.ru