Сегодня я решил рассказать об одном интересном ресурсе в интернете. Веб архиве. Найти его можно по адресу: http://archive.org/
В интернете существует веб архив, в котором хранятся огромное количество сайтов, как существующих, так и уже закрытых.
В чем прелесть данного ресурса, вернее прелести. Первое я думаю и самое важное это конечно же аварийный случай. То есть, предположим, с вашим сайтом что – то случилось. Сайт перестал существовать, его закрыли и т.д. Это не важно, важно то что вы можете его скачать и сохранить как говориться на всякий случай. Так же можно сделать бек архив, который вы без труда в случаи чего сможете закачать на любой хостинг.
Есть и другой вариант использования архива. Ищем не существующий сайт, скачиваем его, затем на бирже сайтов продаем. ))))
Или же делаем его своим.
Теперь о главном как скачать из архива сайт. Существуют программы, но с ними я помучился, (даже и не вспомню, как называются) и плюнул. Решил поискать онлайн сервис, что бы скачать из веб архива, как известно в интернете куча онлайн сервисов на все случаи жизни. И нашёл, вот он: R-tools, он платный, но цены приемлемы, а самое главное не каких закорочек. Так же с помощью этого сервиса можно скачать любой сайт.
Здесь: ????? подробный мануал как им пользоваться.
Ну и последнее чем хорош данный веб архив, с помощью его можно отследить все изменения сайта по дням и годам. Например, вбиваем в строку поиска yandex.ru, выбираем 1998 год, теперь выбираем месяц и число, выбираем 6 декабря и видим, какой был Яндекс в день своего рождения.
Получается своего рода нечто похожее на путешествие во времени.
Так же можно посмотреть и Гугл, как он выглядел на заре своего рождения, производим все те же манипуляции, выбираем дату 1998 год, 2 декабря и видим вот такую картинку.
Так же из веб архива можно выкачивать уникальные статьи. Только сначала их придётся поискать.
А я всегда думала, что вебархив является подтверждением того, что сайт у тебя существует достаточное количество времени, а тут такой функционал! А как выкачивать сайты из вебархива, так и не поняла. Насчет статей: они все равно по указанному доменному имени сидят и получаются неуникальными(((
Если сайт брошен давно в поиске статей нет, а как выкачивать на днях напишу
Гугл на прямую работает с web архивом, так же как с Alexa и некоторыми другими сервисами, для определения трастовости сайта. Благодаря web архиву можно достать отличный и уникальный контент на сайт. В статье бы я еще упомянул бы, что веб архив изредка чистится, по своему уникальному алгоритму, по этому у некоторых сайтов всего несколько точек сохранения за много лет.
Спасибо но вы уже упомянули, а я даже этого не знал
Довольно не стандартный подход к использованию веб-архива 🙂 Особенно понравилось его применение в качестве источника уникального контента 🙂 А вот как искать такой контент на веб-архиве – ою этом хотелось бы услышать подробнее! 🙂
Мне, как SEOшнику знаком данный сервис, так как частенько проверяем именно через вебархив возраст сайта. Насчёт контента оттуда и вытягиванию полных сайтов даже не думал – интересная идея, только сомневаюсь, что дизайн или ещё что-то могут быть качественными у сайтов.
Пожалуй соглашусь с вышеотписавшимися – ресурс полезный, функции действительно неплохие, но вот насчет платного сервиса – это, все же, минус, надо бы поискать какую-то альтернативу…