Comments 92
Люди, которые не учат историю будут повторять чужие ошибки. А люди, которые учат — вынуждены беспомощно наблюдать, как люди которые не учат — повторяют ошибки.
Вообще сам посыл напоминает разводку в стиле «Докажи, что ты не лох, пошли СМС по нашему номеру». Зачем к своим личным чувствительным данным приделывать API? Чтобы они могли легче утечь?
Кроме того, у Стивена на столе стоят Apple мониторы — очевидно, что он пользуется техникой Apple — о каких вообще личных данных он ведёт речь, когда Apple тотально сливает все его действия, включая файлы, клавиатурный ввод, телеметрию по запуску приложений и т. д. и т. п.
Автор, наоборот, написал набор скриптов для инкрементального импорта перс. данных из вебсервисов в локальный JSON. Плюс визуализация и т.д. Дальше уже идут API для экспорта/распределённого хранения этого самого JSON.
Но да, Вольфрам здесь упомянут ни к селу ни к городу 3 раза. Чем он важен для этого самого offline-first движения? Написал какой-то софт для оффлайна или участвует в этом движении? Нет. Хратит гигабайты старой переписки? Таких людей тысячи. Имеет какой-то эффективный инструментарий для почты итд? Но статья даже не рассказывает, чем он пользуется. (Upd: в статье по ссылке кое-что рассказывает, как и ожидалось всё довольно примитивно, в основном пиар своего продукта; ЧСХ он пиарит API Wolfram для работы с mbox, но сам пользуется Apple Mail)
Автор, наоборот, написал набор скриптов для инкрементального импорта перс. данных из вебсервисов в локальный JSON.
Эээ… Если кто-то так озабочен своей приватностью, то почему ему не приходит на ум такая простая идея, что свои чувствительные данные ИЗНАЧАЛЬНО не нужно доверять третьим лицам? И не нужно их собственноручно загружать ни в какие сервисы и облака?
О приватности речь в статье вообще не идёт, только о сохранности данных. В том числе данных из сервисов, клиентские приложения которых не хранят полную локальную базу.
Сейчас практически всем стала понятна сущность некоторых интернет-корпораций, которые стремятся получить от людей как можно больше личных данных — и заработать на этом. Они предлагают бесплатный хостинг, бесплатные мессенджеры, бесплатную почту — лишь бы люди отдали свои файлы, фотографии, письма, личные сообщения. Наши данные приносят огромные деньги, а люди стали продуктом. Поэтому техногиганты Google и Facebook — самые крупные корпорации в истории человечества. Это неудивительно, ведь в их распоряжении миллиарды единиц бесплатного «сырья», то есть «пользователей» (кстати, этим словом users называют людей только в двух областях: наркоиндустрии и индустрии программного обеспечения).
— пользователь может поменять одну программу на другую (outlook на thunderbird, например). В результате часть данных может остаться в старом формате (который теперь нечем читать). Скажем, у меня сейчас в почтовой программе есть несколько сдохших почтовых аккаунтов, которые я держу только из-за писем. Если я когда-нибудь перееду на другую почтовую программу, я вряд ли буду импортировать данные из сдохших аккаунтов — и они зависнут мертвым грузом, т.к. прочесть их будет уже нечем.
Когда таких «переездов» накапливается много, дохлых нечитаемых данных тоже накапливается много. А ведь иногда они могут и пригодиться.
Apple сливает куда? Можно какую-нибудь ссылочку? Для себя интересуюсь.
https://novayagazeta.ru/articles/2020/11/14/87963-apple
(про то, что творит Apple и куда она ведёт своё стадо фанатов-зомби написано в заключительной части статьи, начиная с заголовка «Эпилог памяти Оруэлла»).
Хотя любому мало-мальски вменяемому человеку всё это и без Голубицкого было понятно.
Напоминаю, что у меня есть хорошая статья о том, как сделать роутер + NAS на х86, с openvpn, спокойно вытягивающем гигабит: https://habr.com/ru/post/478924/
Если интересно, могу про сборку и железо побольше написать
Принял, надо подумать что интересненькое можно написать)
В планах даже была пара статей на хабр, первая по выгрузке данных из разных сервисов, вторая уже про теорию и практику локального облака.
Делайте, даже owncloud/nextcloud лучше (дешевле и быстрее) того, что дает гугл.
Но вот вебофис все равно придется юзать гугловсккий или майковский.
Есть нюанс: я установил Nextcloud как snap. Но, как показывает мой 3-хлетний опыт, их версия Nextcloud-snap ещё более стабильная чем стабильные версии самого Nextcloud, плюс имеют официальную поддержку.
В данный момент я использую две установки Nextcloud-snap, одна self-hosted, другая хостится в AWS. Одна использует OnlyOffice, другая Collabora Online. В общем-то всё работает без проблем.
habr.com/ru/company/ruvds/blog/528428
Пишу о превращении в эти self-* периодически, но исходя из угрозы энтропии, которые грозят вот этим гигантским (теперь) сервисам (а, значит, и нам).
Ну, и конечно постоянно работающем блоке кэша, с самыми часто запрашиваемыми данными.
Например, ФИО и номер паспорта нужны часто — они в кэш-блоке. А записи «трудовой книжки» могут быть в дальнем углу, в обесточенном большую часть времени блоке.
Кэш-блок, конечно, при износе — заменяется другим автоматически.
Интересно, так долговечность такого накопителя будет ли выше?
Основная проблема (ресурса) это количество циклов записи, а не чтения.
Как часто вы меняете ФИО и номер паспорта?
Как часто вы меняете ФИО и номер паспорта?
Само собой редко, но эти данные в контексте личного хранилища — часто запрашиваются, на чтение, поэтому должны быть быстродоступны из кэша.
И если всегда запитан и работает активно только один блок из 1000 на накопителе — по любому он должен прожить гораздо дольше, к тому же потребляя минимум лепестричества.
Разумеется тут приносится в жертву среднее время доступа к инфо. Но это и спец-накопитель.
Это специальное приложение, которое непрерывно работает на клиентской стороне в фоновом режиме — и постоянно синхронизирует локальный архив со всеми внешними сервисами.
Synology и Thunderbird.
Первый синхронизирует Dropbox, Яндекс.диск, Google Drive на NAS.
Второй скачивает содержимое всех ящиков через POP3.
Удалят аккаунт — болезненно, но не смертельно. Свежие копии данных есть локально.
Осталось сделать подобные приложения для скачивания своих постов/комментариев из соцсетей.
Второй скачивает содержимое всех ящиков через POP3.
Главная проблема ВСЕХ почтовых программ — они не могут скачать отправленные письма.
1) Используете IMAP для синхронизации
2) Удалите всю почту с сервера
3) Используете IMAP для синхронизации ещё раз
Буквально вот выбираешь определённые письма и их перемещаешь между сервером и почтовой программой. Если они лежат во входящих — они должны туда и попадать. Если их по какой-то причине нет — копируются. Если есть — не дублируются.
Главная проблема ВСЕХ почтовых программ — они не могут скачать отправленные письма.
Если задача не очень регулярная, я делаю так: переношу на сервере отправленные во входящие, закачиваю их почтовиком, переношу их в отправленные внутри него.
Ну и это проблема не программ, а сервера и протокола (я о РОР3)
С одной стороны, я очень расстроен тем как умирают популярные сервисы унеся с собой огромное количество накопленной информации.
Сервисы, сайты, технологии — умирает просто по одному клику мышкой. Щас флэш умрёт и утянет за собой кучу всего — https://habr.com/ru/post/531262/ .
А с другой, то что в мои детские годы интернета не было, а в студенческие был но не был так развит — скорее благо.
Вобщем, всё сложно.
Надеюсь что упомянутый в тексте мужик подтёр некоторые переписки :)
Нам нужны удобные программы, сервисы, базы данных и защищённые хранилища для фотографий, личных финансов, социального графа, данных о личной продуктивности, потреблению продуктов, истории всех чатов в онлайне и офлайне, личного дневника, медицинских данных (пульс, давление, настроение и проч.), прочитанной литературы и публицистических статей, просмотренных веб-страниц, фильмов и видеороликов, прослушанной музыки и так далее.
Я лично не понимаю, нафига вести вот такой подробный цифровой дневник. Ну с фото согласен. Но зачем мне история посещенных веб страниц? Настроения? Представляю сцену из будущего:
— Ты этот фильм видел?
— Надо посмотреть в логах
Нужны удобные инструменты для анализа и статистики. Нужны персональные нейросети для обработки данных и предсказания личных решений (например, для рекомендации музыкальных групп, блюд кухни или людей для общения).
Зачем лично мне личные нейросети для предсказания моих личных решений. Я сам проанализирую и решу. Блюдо сам закажу. Спасибо.
Но зачем мне история посещенных веб страниц?
Я недавно в процессе изучения темы про стахановцев читал много разных книжек.
Наутро вспомнил про интересный момент который видел, но не сохранил.
Открыл историю и стал пересматривать.
И это не первый такой случай.
Для предсказания как раз очень полезно. Например, фильтровать новостную ленту (или даже Хабр) от статей, которые я точно не буду читать. Сейчас приходится тупо скроллить, читая заголовки.
Эта проблема понятна. Фильтрация должна быть максимально осторожной. К примеру, я абсолютно уверен, что не хочу читать статьи про маркетинг и новости про криминал. Это отфильтровало бы достаточно существенный процент информационного мусора без ущерба для моего кругозора.
Без ИИ я просто ставлю в игнор определенные теги, то есть "пузырь" фактически уже есть и меня устраивает. Но теги есть далеко не во всех новостных лентах или блогах.
Но зачем мне история посещенных веб страниц?
Как уже указали в ответе выше — это совершенно необходимо, когда вспоминаешь, что «Недавно читал где-то» и лезешь в историю.
Я всё мечтаю о браузере, который реально будет просто сохранять в оффлайн все страницы, которые ты захотел — кликнул на кнопку и всё. Но пока есть только всякие полумеры типа мёртвого скрапбука.
Я вообще всё потенциально интересное загоняю в Pocket, если понимаю, что буду обращаться к этому материалу позже — пересохраняю в Evernote.
Всегда при долговременном хранении встает вопрос отказоустойчивости и бэкапов. Так что хранить локально не вариант. Значит нужна синхронизация с облаком. Это уже есть — google, dropbox и т.п. дальше добавляем синхронизацию с популярными сервисами в облако. Ну а дальше надо думать как можно монетизировать. Т.е. делать какой то вьювер для этих данных на случай офлайн доступа.
кстати, этим словом users называют людей только в двух областях: наркоиндустрии и индустрии программного обеспечения
Вот это поворот, не знал. User реально можно перевести как наркоман :)
Поэтому техногиганты Google и Facebook — самые крупные корпорации в истории человечества.
Вообще-то, самая крупная корпорация сегодня — это Apple, а у нее с конфиденциальностью данных все намного лучше, чем у вышеупомянутых Google и Facebook
Удивительно в том плане что я вижу что Гугл и Яндекс действительно многое что делают. А вот эппл, ну делает процессоры на ARM не лучше не хуже других, делает телефоны, ноутбуки и рабочие станции, которые мягко говоря не лучше других. Вроде мониторами славился (славится?) (из-за чего фотографы его любили раньше) — но думаю уже чисто Китайские не хуже в 2020м. Ну ок, есть у них своя операционка, которая тоже, мягко говоря не на острие прогресса.
Короче говоря я в шоке — что все эти 137 тысяч человек в эппле делают. Может они всех менеджеров по продажам во всём мире посчтитали? :)
Вот Майкрософт кстати имеет 140k сотрудников, и то как он развивает, кроме Windows, которая действительно крута (хотя я фан Линукса, но и на ВинАпи писал, и скажу это другое, но мне понравилось), крутые технологии вроде Net, Azure, Xamarin — т.е. я могу понять что там 140k чел делом заняты. А Яндекс вообще вон делает классный поиск (местами лучше гуглового, особенно по части поиска по картинкам и машинного распознавания что на них), делает более технологичные дата-центры чем Гугл, которые отапливают жителей Финляндии (удивился но факт, тепло от охлаждения их вычислительных блоков — идёт в дома финов) — и при этом там всего 8k.
А в Эппле, которая не делает ничего, чем моя скромная персона могла бы восхититься — рабоатает 137k, короче я в шоке -_-
1. Собираем коллекцию файлов в иерархии директорий
2. Шифруем (как директорию или как архив)
3. Создаём torrent-файл
4. Размещаем на всех своих подконтрольных машинах и сидируем
При таком подходе надо будет автоматизировать только процесс добавления новых данных к сидируемому хранилищу. Небольшая программка на любимом языке поможет (идея для стартапа ;).
Вам придется писать систему по обновлению торрент-файлов на подконтрольных вам машинах.
Минусы соответствующие: если на одном узле файл сломается, то он ровно так же очень быстро окажется сломанным и на прочих.
Тогда уж надо проповедовать аскетизм и ограничение числа потребляемых сервисов
Мне давно интересно узнать, как среднестатистический Джон Доу пострадал от того, что корпорации зарабатывают на его персональных данных.
Освобождаем свои данные из корпоративного рабства. Концепция личного хранилища