Pull to refresh

Comments 81

Идея хорошая. Жаль, что не моя ;)

В свое время к подобным seti проектам подключался, так сказать из человеколюбия и веры в светлое будущее. В отличие от них, Majestic-12 смахивает на коммерческий проект. Может пока он не такой, но когда вырастит точно станет. В этом и его слабость, как проект начнет зарабатывать люди осознавшие это начнут отключатся, жаба задавит.
UFO just landed and posted this here
в Скайпе ты получаешь замену твоему трафику, оплату за него. А в этом проекте?
UFO just landed and posted this here
А оплата разная бывает, в скайпе это voip :)
UFO just landed and posted this here
какая красота )))) честные - сразу признались что типа дайте нам обследовать самим ваш комп, а то гугл все вокруг да около - то почтой заманивает, то ворд-ёкселем соблазняет что-б личные документы на гугле хранить, а эти крендели сразу прямо - скачайте нашего трояна и все тут)))
Биттирент тоже еще жив. Судя по всему и не собирается умирать.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
О! Как шикарно можно скормить этому поисковику индексацию собственного сайта...
а еще сколько жульничеств можно придумать - то вообще ))) если не самому смахлевать то вирусы это сделают ))) их программа то под винду написана, а винда без вируса не бывает
Что важнее - проиндексировать как можно больше страниц или находить то что надо. Я за второе. Если система в дальнейшем также распределенно позволит настраивать индекс, тогда другое дело. Ноя не представляю как это можно сделать "руками". Даже сравнивая с википедией - там ты написал материал, прицепил ссылки, а здесь надо много читать чтобы настроить ссылки. Может будет некая первоначальная система рейтингов, а финально будет подкручивать коммюнити?

В общем поиск хорошо, а чтение мыслей ищущего - лучше.
"То что надо" из количества наверное происходит ?
когда-то давно пришла такая же идея в голову

забил на нее, когда не смог ответить на вопрос со стороны юзера: зачем предоставлять свой канал, если тоже самое (по сути) можно найти в гугле?
Думаю, что не ошибусь, если предположу что в дата-центрах Google индексацией занимается значительно больше отдельных компьютеров, чем участников в этом проекте. Google уже давным давно это придумал.
А за такую картинку гугл по шапке не даст?
Как мне кажется, бульдозер, сносящий логотип, как-то не корректно, вот и все.
P.S. спасибо неадеквату за карму ;)
Это будет такой подарок со стороны гугла...
Команда по индексированию с именем "Ukraine" на 9-м месте на сегодня. ;)
Если этот проект хотя бы в теории в далёком будущем сможет отнять небольшую долю рынка у гугла, то гугл его купит задолго до этого момента ;) пока же этого не видно...
Создать распределённого паука, в общем-то, не так и сложно (хотя я уверен что там не всё так просто: как хорошо они убирают дупликаты, к примеру?). А вот создать распределённый поиск... Тут-то собака и порылась... В сети eDonkey при на порядок меньшем числе URL'ов поиск - отвратительный. В M12 - пока вообще не работающий. Что толку хвалиться числом проиндексированных страниц если поиска нет вообще ?
а в чем собственно польза чуловеку предоставившему часть своих ресурсов на благо компании у которая не хочет тратить деньги на покупку серверов.
UFO just landed and posted this here
угу. денег на сервера нету, а на крутых программеров найдут
Первая проблема, с которой сталкиваются крутые программеры при разработке ПО — денег нет ;)
UFO just landed and posted this here
1. Гугл никогда не пользовался альтавистой.
2. Гугл начинал с решения задачи поиска.

Эти же ребята пока над основной задачей (быстрая обрабатка больших массивов информации) даже не думали. Кому нафик нужен поисковик, который выдаёт восхитительные ответы через месяц после того, как ему задали вопрос ?

Основная задача в поисковой системе - это как-то ограничить потоки информации (ведь речь идёт о многих терабайтах HTML-страниц и тысячах запросов в секунду!). Если вы вместо 10Gbit каналов используете 10-100Mbit (а мало у кого из добровольцев есть более скоростное подключение) и вместо задержек в миллисекунды имеете задержки в секунды - то вы усложняете себе задачу на четыре-пять порядков (десятичных). Ну может у MJ12 есть какие-то алгоритмы, которые в миллион раз эффективнее того, что использует Google, но что это за алгоритмы ?
Вы кажется не поняли суть проекта. Пользователи не выдают ответы на поисковые запросы. Их компьютеры лазают по сайтам, индексируют их и передают эту информацию серверам M12. Где все и хранится.
UFO just landed and posted this here
Вот-вот... Все громкие названия "распределенный поиск" и т.д. - это просто для красного словца.
UFO just landed and posted this here
Угу. А попытки скачать всё через p2p - с самого начала бредовые. Если вы всё равно должны как-то передать данные "в центр", то что мешает этому "центру" скачать всё напрямую ? Экономия есть, да, но по сравнению с необходимостью всё это как-то обрабатывать и где-то хранить затраты на скачку меркнут...
меня этот вопрос тоже интересует.
UFO just landed and posted this here
вбил я поисковый запрос, дождался таймаута, и закрыл. может, индексируют они и много, но искать неудобно.
а меня посетила мысль, что эта концепция (наверняка не в первоначальной реализации) имеет потенциал прийти на смену централизованному поиску, как p2p в свое время сменило варезники.
очень интересно.
Варезники кончились по одной банальной причине: их довольно просто "найти и обезвредить". С p2p сложнее.

Но Google пока никто закрывать не собирается!
причина ясна, я имею в виду сам принцип: система устаревает, ей на смену приходит новая. варезники были уязвимыми - сделали децентрализацию. поиск выдает сео-помои - сделают что-то на смену, скорее всего с участием все того же принципа децентрализации. причем классические поисковики-то не умрут, разве варезники умерли? ) просто контент разный. а если еще точнее, не суть контента, а его мм подача.
Вообще идея интересная, ведь с помощью такой системы можно проиндексировать и то чего нет о_О (на просторах интернета) :-).

Ещё можно ботнеты для этого дела приспособить, чтоб не простаивали :).
А кто-нибудь попробовал произвести поиск?
Не работает! Да вобщем-то и неудивительно.

Брать за основу парсер html'а реализованный на .NET ... - :)
Хранение они реализовали видимо тоже на чем-то не из той оперы.

Убийственный выбор инструмента разработки похоронил проект, не успел тот родиться.
По моему мнению, волонтеры, участвующие в проекте, в данном случае в пустую тратят ресурсы своих машин.
Передать работу по загрузке/разбору страниц на сеть из хостов добровольцев с низкой доступностью вполне допустимо, и от этого качество не очень страдает, т.к. данные не задерживаются на хостах с низкой доступностью.

Но переложить на них отработку поисковых запросов не получится, т.к. имеются очень жесткие требования к времени генерации ответа (
...генерации ответа (менее 2сек). Я уже не говорю о доступности: чтобы обеспечить 99,9999% доступность единицы уникальных данных, в обычном датацентре требуется создавать 3-кратную избыточность серверов с доступностью 99%. А чтобы обеспечить 99,9999% доступность в сети серверов с доступностью 50%, эту единицу уникальной информации потребуется продублировать на 20 серверах.

Загрузка страничек и их разбор требует мало ресурсов относительно ресурсов, требуемых для хранения индексов/документов и исполнения запросов пользователей.
Судя по тому, что ребята "экономят на спичках", пытаясь переложить эту простейшую работу на пользователей, у них совсем туго с финансированием. И, вполне очевидно, с настолько ограниченным бюджетом потеснить гугл у них нет никаких шансов.
99,9999% доступность это <3 секунд офлайна в месяц. Такая доступность не требуется ни на одном из сетевых сервисов по практическим причинам.
Это доступность не сервиса в целом, а единицы информации (которая необходима при генерации ответа пользователю).
Если поисковый индекс разбит на 10000 кластеров, и каждый кластер имеет доступность 99.9999%, то доступность индекса в целом составит 99%.
У данного метода есть недостаток перед классическими при поиске.
В классическом случае идет ображение к центральному серверу который собирает информацию с большего количества серверов в датацентре по быстрым каналам, выбирает немного лучших и по медленному интернету отдает это пользователю.
Тут информацию при поиске придется собирать с большого количества хостов но по медленным каналам. Думаю так нельзя будет добиться быстрого ответа на запрос.
а исходники программы-клиента открыты? а протокол обмена с сервером?
а то кто знает, чего она там перекачивает..
UFO just landed and posted this here
А кто может гарантировать чистоту любой другой модели ? Кто знает что вам сервер отдал ? Тут же важно чтобы результаты, которые есть в базе совпали с тем, что пользователь увидит, когда зайдёт на сайт!

Я другого не понимаю: как они собираются в этом индексе искать ? P2P сети за всё время своего существования эту проблему так и не решили, а у них задача на порядок проще...
UFO just landed and posted this here
Мне кажется, что если в ближайшее время и возникнет каккой-либо принципиально новый способ индексации, то реализован он будет именно Big G. А создание неработающей поисковой системы судя по всему не очень грамотной группой энтузиастов - это тупиковый путь.
Медленно работает.

Кстати, вот еще пачка разных распределенных поисковиков:

http://www.oreillynet.com/pub/t/74

Есть даже с открытыми исходниками ;)
Идея интересная, вот только не работает.. Нет, возможно индексация и соревновательный дух, присущий многим распределенным вычислениям, присутствуют, но поиск не функционирует. Для меня. реакция на нажатие кнопки/ссылки не должна превышать 10 секунд, иначе я скорее всего уйду. Конечно можно ждать, если оно того стоит..
Но оно не стоит, результатов я не увидел.
Так что оставлю свою мощность работать на OGR :)
Хахаха, название проекта говорящее. =) Потом они перенаправят весь трафик через ИИ Icarus в зоне-51.
Как уже было сказано, не важно кто собирает информацию, поисковый бот Гугла или группа энтузиастов. Важно как ее обработать и отсеять не нужное (выдать нужное)...
И если в вопросе сбора информации (индексации сайтов) M12 радует, то что с обработкой совершенно не понятно. А ведь это намного важнее, чем колличество проиндексированных страниц.
Можно придумать какую-нибудь социально рейтингуемую систему. Это сложно, но, как мне кажется, возможно.
Вот это и интересно узнать, а не то, кто и как индексирует страницы.
ручками такие объемы лопатить - это то же самое как воевать с китайцами, они будут размножаться быстрее, чем ты их убиваешь
А карму зачем придумали? :)
Кто-нибудь задумывался, а возможно ли вообще сделать адекватный распределенный поиск по вебу?

Сама идея распределенного поиска мне нравиться, но не могу представить каким образом будут ранжироваться результаты, как обеспечить приемлемое время ответа клиенту, как избежать дублирования в распределенном индексе и выдаче, как быть с обновлением(удалением) контента?

Хорошо - будет в индексе больше документов чем у Гугла, но я сильно сомневаюсь, что поиск по этому массиву будет реализован лучше, если это впринципе возможно. Может разработчики решили: "давайте соберем базу, а после решим как со всем этим хламом полететь"?
Вам еще хочется пользоваться этой сетью после этого ? :)
А еще я полчаса назад сбегал с их базы в Deus Ex :-P
Упс, не заметил, что вверху уже написали :(
У меня поиск ни в какую не работает(
Подумает, подумает над запросом и выдает ошибку, что сервер не найден.
Замечательная идея! И всего-то нужно: а) предоставить свои ресурсы и трафик б) установить себе какаю-то левую софтину в) дождаться когда тоже самое сделают миллионы других гиков. Гугл действительно закатали в асфальт!:)
А может речь идет не о распределенном поиске, а о респределенной индексации? Храниться индексы будут все равно в датацентре этой конторы, как там ее. Задача же программы, работающей на стороне клиента: скушать HTML страницу, убрать из нее теги и прочий неинформативный мусор и отослать в "улей" кусочек индекса. Таким образом конторе нужно меньше тратиться на траффик.
Пропиарить свой сайт или внести изменения в индекс, думаю тоже не получится, потому что все грамотно написанные распределенные системы используют избыточность - дают один и тот же кусок работы нескольким машинам, и сравнивают результаты (так делают и Seti, и Boinc, и Folding@home). Если результаты обработки одного и того же куска работы оказываются разные - это настораживает их там в "центре".

Кроме того, сделать людей "причастными к рождению" - это реклама.
есть подобный проэкт под нозванием del.icio.us только основная идея там в тегах, и осмысленном добавлении тега на статью самим пользователем.
Сейчас этот ресурс принадлежит Yahoo.
del.icio.us — это сервис хранения закладок (и поиска по ним)
в статье речь идет о поиске по сайтам
"Проект амбициозный - но потенциал у него есть"

не понял фразы из текста)
Амбиции - это понты разработчика, а потенциал - это возможности используемой технологии. Я хотел сказать что их понты "закатать Google" вроде не на пустом месте. Смогут или не смогут - другой вопрос...
Хороший поисковик — это не только и не столько громадный индекс. Это нехилая работа математиков, работающих над алгоритмами подсчета релевантности результатов поиска. В Яндексе этим занимаются математики — доктора наук. Думаю, что у Гугля в этом плане похожий подход.
Потому-то я и считаю, что смысла в этом проекте как в поисковике нет. Скорее всего, они сами это осознают и в итоге продадут свой индекс какому-нибудь Яху за бесценок.
вбил "viagra" и всё понял.
вообще, идея висит в воздухе давно (YaCa вроде самый старый из подобных проектов), но никто никак не осилит совмещение соцсети (типа digg) с p2p поисковой машиной: репутации пользователей, оценки выдачам (лопата для спама), децентрализированное хранение данных, распределение трафикоёмких процессов и т.п.
Sign up to leave a comment.

Articles