Сначала коротко, сама суть: создание сайтов, изначально имеющих большое количество PR на внутренних страницах без ожидания апов. Стоимость ссылок в 5-10 раз больше, раскупаемость в разы лучше. Профит.
Подробнее:
поиск доменов с нужными показателями
восстановление структуры внутренних страниц с PR
создание сайта
контент на эти страницы
добавление в сапу, настройка цен и т.п.
Выбор домена.
Без индексации в сапу сайты не добавляют. А если и добавят, то толку будет не много. И точно не в основной базе. Поэтому искать домены под сайты нужно, отвечающие сразу нескольким показателям:
наличие изначального индекса
наличие PR на главной
приличное количество для хорошего дохода PR на внутренних
Только в том случае, если сайт будет соответствовать всем этим показателям, его можно добавлять в сапу сразу после создания и хорошо с него получать.
В принципе, брать и чекать списки можно из любого источника, любого севриса и прочее. Я предпочитаю один из зарубежных источников. Просто потому, что там нет распространенной у нас параллели пузо=сапа. Да и вообще, больше добра свободного по нашим меркам, гораздо больше. Я себе давно не изменяю и использую сервис expireddomains.net. Сервис бесплатный, лагов мало, работает стабильно и доменов там хватает с головой. Если если собственные источники — можете использовать их.
0. Зарегаться, залогиниться, иначе будет другое немного показывать
1. Выбор зоны.
2. Дополнительные фильтры. Там нас интересует в первую очередь “Only Free Domains”
3. Третий пункт — ДМОЗ. Ничего хорошего там не происходит, вчера было больше 10 тысяч доменов свободных или что то такое, сейчас 300 показывает. Либо допилили наконец поиск владельцы DMOZ, либо сервис глючит. Поиск DMOZ сапа распознает как наличие в каталоге, в отличии от Ggl и т. п. На всякий случай уточняю.
4. Просили указать про этот пункт. PR -(минус)1 - это N/A, то есть что-то там было (или нет), но после дропа обнулилось. Можно попробовать пробить историю, восстановить и подождать (но в RDS иностранных сайтов истории мало). Можно поставить галку и забить.
5. И 7. пункты — PR, 6-ой пункт — годы по вебархиву. Можно поставить, можно нет. В зависимости от того, любите вы из веб архива сайты восстанавливать, или нет.
Выбирая фильтры, нужно помнить, в принципе, немного:
если у домена PR2, у него с вероятностью 99% будут внутряки 1 или 2, если будут
если 5 у главной, то выбор шире, и доход выше. Не смотря на то, что я не делаю упор на главную страницу, стараюсь начинать поиск подходящего сверху (с максимального). С PR4-5 сервис сейчас выдает List: Deleted .com Domains (About 936 Domains) . Неплохо. Это только в зоне COM.
На показатель индекса в Google (в основном нас интересует именно гугл, так как в яндексе нет англ сайтов почти никогда, а ждать индексации — бессмысленное занятие)
Количество страниц в индексе конкретный сервис показывает не корректно, текущее количество можно посмотреть по клику на число — перекинет в серп
Не забывать ставить галку «только свободные домены»
После того, как нами получен список доменов с необходимым пузом, надо проверить индекс в гугле. Лично я не нашел способа сделать нормальную выгрузку оттуда. Зато около каждого домена есть столбик с циверками, который перенесет на google.com с соответствующим введенным запросом. Цифры почти всегда показывают ноль — не верьте им. Проверяйте.
Далее. Далее те домены, что в индексе, надо проверить на PR на внутренних страницах. Довольно неудобный момент. Можно:
поставить плагин типа РесипДонора для браузера и на рандом проверять страницы, которые почти всегда имеют пр — о нас, контакты и проч.
Можно спарсить все ссылки с выдачи, а потом просто любым чекером проверить их. Парсит хорошо CD2, но он платный. Бесплатные аналоги я очень долго искал, но они почему-то ересь выдавали.
Можно оставить один ненужный домен и действовать так — повесил сайт на домен, проверил сервисом, который имеет что-то типа паука — сканирует сайт — хороший сервисhttp://www.seogadget.ru/pagespr а еще есть хороший сервис http://www.my-seotools.ru/pr_surveyor.php . У этого способа есть недостаток — сначала надо выкачать сайт с архива. Плюсы в том, что стоит это копейки, есть быстрый онлайн сервис http://r-tools.org . И все же для экономии времени и денег лучше выборочно проверить несколько страниц тех сайтов, что в индексе, и при наличии PR на них выкачивать сайт и проверять дальше — чтобы точно знать, какие страницы надо восстанавливать, а какие без пр и не критичны.
А еще было бы очень хорошо иметь скрипт, который проверял бы сразу все это сам. Но я не занимался автоматизацией.
Таким образом, в результате этих всех действий у нас есть какое-то количество доменов с пр на главной и внутренних страницах, а также в индексе. Пара ценных советов:
дроп в ком зоне по сервису обновляется в 10 утра и 18 вечера примерно. Если не нашли чего-то хорошего, что может быть первое время из-за новых участников системы — подождите пол дня лучше. Ваши же деньги.
Сайты с пр 2 и 3 имеют почему-то чаще и больше внутряков с пр, чем 4 и 5. Только за главную не стоит драться.
Не следует регать много сразу — не сделаете сайт, обнулится на N/A весь PR.
Если в индексе есть хоть одна страница — достаточно велик шанс, что на других страницах все еще есть PR. Чтобы проверить, можно открыть копию сайта из вебархива и скопировать несколько URL главных разделов сайта оттуда, их пробить.
Собственно, в результате из текущего списка дропов желательно выбрать 2-3 домена, у которых максимальное количество внутренних страниц с PR сохранилось. Больше не нужно — пока сделаете сайты уже следующий свежий дроп будет. Доменов таких пока что полно.
Теперь сайт. Как я многократно говорил — сам контент и движок не важны, в принципе. Важно, чтобы URLы страниц с PR остались неизменными — оно и понятно, PR присваивается конкретной странице. Лучший вариант, конечно же, полностью восстановленный сайт из веб архива — и структура, и дизайн, и экономия времени — сервис для сего действа я писал выше. Вот только далеко не всегда есть полностью рабочая версия сайта в архиве. Точнее — почти никогда ее нет.
Тогда приходится делать сайт собственными силами. Я делаю на WordPress. В принципе, подойдет любой движок с нормальным редактором и гибкой настройкой ЧПУ для сохранения страниц с PR.
PS: смотрите, что в индексе, заранее. Восстанавливать php в УРЛах, всякие &=? будет не очень удобно, я думаю.
PSS: не все плагины для движков позволяют прописывать собственный адрес, а не просто изменять структуру и проводить транслитерацию. Одна ошибка в новом УРЛ и Prа на ней не будет.
Ну так вот. Далее — очень многие спрашиваю, как сам сайт делать и откуда брать контент. Как должно было быть понятно из текста ваше — нам нужны только те страницы, которые ПР имеют. Что будет на странице — не важно, а поэтому контент может быть любой. Для новичков небольшой FAQ сделаю.
1. Первый вариант — самый очевидный — восстановить копию архива сайта при помощи сервиса а-ля http://r-tools.org . Если домен изначально имеет индекс, а таких большинство с PR на внутряках, то восстановленную копию можно в ту же минуту добавлять в сапу.
2. Если нет полной копии, но есть основные разделы или главная — можно получить дополнительный список УРЛ страниц по ссылкам с частичной копии и также проверь их на PR, чтобы по максимуму получить.
3. Если копии контента старого сайта нет в архиве, ее можно посмотреть в сохраненной копии в кеше.
4. Если вы делаете сайт на движке: вам нужны 1. Английская тема (если сайт иностранный (в WP можно скачать из самого движка в разделе тем)). 2. Основные настройки — а именно название сайта, ЧПУ, чтобы восстановить нужные страницы, карта сайта и т. п. Желательно не делать стандартную WP структуру и вид — таких сайтов миллионы в сапе, и можно попасть в сомнительные сайты. Наверное.
5. Контент. Больше всего всех интересует контент. В случае таких сайтов, продается PR внутренних страниц, а не контент. Я пробовал делать на: 1. Копипасте. 2. Рерайте. 3. Автопереводе. 4. Парсинге... еще на чем-то пробовал. Подходит любой контент. Продается одинаково хорошо, ибо цель — не килознаки и уникальность, а само наличие и количество страниц с PR. Но стандартные моменты нужно помнить, такие как не копировать много статей с одного сайта, например. Индекс тогда будет прыгать даже у Google, а без индекса почти всегда со страниц слетает PR. В противном случае у нас будет возможность зарабатывать до апа как минимум. С тех пор как гугл стал обнулять PR за продажу ссылок, их стоимость и раскупаемость весьма на высоте, что также играет на руку данному способу создания сайтов.
Советы:
УРЛ не должен зависеть от названия поста, то есть не просто транслитерация — часто бред выходит
плагины типа Google XML Sitemaps очень помогают, если вы хотите новые страницы в индекс загнать
!!!!! если страницы нет в индексе Google, то это не значит, что на ней нет PR! Почему я и поддерживаю способ проверки страниц через скачивание копии вебархива
если вы используете копипаст, что лучше копипастить с разных источников. Иначе страницы будут вне индекса, или в соплях, или еще где — а таким во время апа PR обнулят скорее всего. А PR — это раз в пол года. То есть половину годового дохода можно потерять по лени. Или же настраивать парсеры на множество источников. Я же ручками копирую точную копию контента на страницы с PR, остальное добиваю копипастом с разных источников. Минут 10-15 уходит.
Странно, но многие почему-то ищут темы на вп через гугл, когда в разделе тем самого движка есть сотни английских тем, при чем без скрытых ссылок и прочей ереси. Не усложняйте себе жизнь.
Если сайт в индексе, у него есть кеш. Если восстановить кеш — просто даже скопипастить старый контент из него или из архива — шанс, что PR останется и после апа, гораздо больше.
Про сапу:
я добавляю в сапу сразу же после создания сайт
от 5 до 20 минут уходит на поиск домена и поиск страниц с PR, 10 минут на установку движка и настройку или скачивание копии из архива, остальное время а восстановление страниц c PR в зависимости от их количества
в сапе я продаю по схеме 5-5-5
цены завышены в среднем почти в 2 раза
Ну и пример я выбрал самый неудачный, чтобы уж точно было понятно, что работает. Сайт countryflowershopmilwaukee.com — 10 страниц всего на сайте, PR главной 2. Домен зарегистрирован 5 дней назад, сайт создан тогда же и сразу добавлен в сапу, но из-за выходных до понедельника модерировался. Дизайн — паблик английский. Контент — копии из кеша + копипаст. Это WP+плагин Rus-to-lat. Сделан за 10 минут.
1. Раскупаемость — 90% всех мест за 2 дня при 5-5-5 сылках. http://floomby.ru/s1/3aTwrp
2. Цены на ссылки с PR завышены почти в 2 раза http://floomby.ru/s1/gaTwru/full/
3. Раскупаемость за 3 дня в статусе ОК - http://floomby.ru/s1/WaTwGm/full/ , или же на сумму 212 рублей в месяц. На домен потрачено 240 рублей. Таким образом, даже сайт на десяток страниц окупает себя примерно за месяц — в ОК у меня пока что только половина всех мест на сайте, то есть еще быстрее будет.
Я постарался привести самый неудачный пример — сайт УГ, страниц почти нет, PR всего 2 и прочее. Сайты с сотней страниц с PR выходят на 30-40 руб в день очень быстро. В день десяток-другой доменов дропается, но искать приходится более усердно. Я такие, правда, продаю .
Сообщение отредактировал admin: 08 Ноябрь 2013 - 19:38