25 Декабрь

Метод продвижения контентных проектов

Архив 2007-2009

Хотел бы вам рассказать об одном весьма грамотном методе продвижения какого-либо контентного проекта (т.е. наполненного статьями, новостями и т.д.). С помощью него можно поднять многие внутренние страницы простым и автоматизированным способом. Подробнее:

1) Например, имеется у вас в наличии сайт – набитый контентом ввиде статей и новостей. Главная страница неплохо ранжируется по своим целевым запросам, небольшой трафик идет по НЧ запросам на внутренние страницы, но в целом хотелось бы больше. Знакомо?

2) Пишется парсер, который смог бы взять с сайта все адреса внутренних страниц с каким-либо контентом + их заголовки, т.е. TITLE. С оформлением ввиде ссылок. TITLE будет, естественно, анкором (если у статей и новостей совершенно неподходящие или неуникальные TITLE – способ должным образом работать не будет).

3) Далее посредством Яндекс XML необходимо проверить наличие той или иной страницы в индексе ПС. Если страницы в индексе нет – её надо удалить из списка продвигаемых URL`ов. Бесплатно позволяется совершать до 1000 запросов в сутки. Т.е. вы можете проверить за день наличие тысячи определенных страниц в индексе.

4) Когда список из сотен/тысяч продвигаемых страниц составлен – необходимо выбрать биржу – через которую будут закупаться ссылки. В данном случае будет оптимален XAP. Минимальная цена ссылки очень низкая.

5) Дальнейшие действия очевидны. Создаете рекламные компании в бирже, загружая туда собранные списки ссылок – и назначаете определенный авто-режим, чтобы на одну страницу в итоге было хотя бы несколько ссылок.

Как видите – все достаточно автоматизировано. Для парсинга можно нанять программиста средней руки. Данный метод позволяет существенно увеличить объем поискового трафика (особенно в таких темах, как игры, фильмы, музыка при наличии большой базы). Очень важно, чтобы TITLE были подходящими. При этом про внутреннюю оптимизацию, естественно, забывать не стоит.

Старила её эта прическа, но ведь иконе стиля надо идти на жертвы.
128.jpg

Открылась социальная сеть для любителей книг – My-Lib. Очень рад, что все чаще в Рунете появляются соц. сети – не связанные с IT (соц. закладки – туда же) и поиском одноклассников. А то ведь порой кажется, что все идет к социальной сети для любителей социальных сетей.

12345 - оценить запись.
Loading ... Loading ...

Понравилась статья? Хотите отблагодарить автора?
Тогда подпишитесь на блог через RSS, e-mail или Twitter.

Комментарии 77

  1. stussy

    Это, уже конечно, интереснее. Хотя обычно внутренней перелинковки может и хватить. Смотря насколько нч конкурентны.

  2. SpeedMoney

    stussy, во многих тематиках внутренней оптимизации уже не хватает даже для НЧ. Метод действенный сам пользуюсь, там есть еще фишки, но кто умный допрет сам))

  3. stussy

    ну, я все понимаю, просто не уверен, что нужно парсить тайтлы. Проще, по-моему, базу кеев испоьзовать. Хотя, если на контентном проекте страницы сильно разнятся по тематике, тогда да. А если все похожи и об одном, то необязательно, имхо

  4. Brutus

    На своих проектах давно использую эту тему :) отдача неплохая ;)

  5. konorev

    странно видеть такую тему в этом блоге :)
    я думал, до такого уже и так все доперли :))

  6. MaulNet

    stussy, может хватить, если вИЦ по-настоящему высокий.

    Насчет базы киев – это бред.

  7. fespro

    имхо,легче из базы вытаскивать, такой скрипт пишется намного легче, чем парсер

  8. friend

    Отличная идея ;)

  9. MaulNet

    fespro, базы чего?

  10. SpeedMoney

    konorev , очень многое из того что вам кажется очевидным, другим людям очевидным не кажется)

  11. SpeedMoney

    MaulNet, из базы MySQL

  12. Ането

    Даниил, сам способ этот использовал? :)

  13. нонейм

    Да это древний способ, причем очень примитивный, такое ощущение что Даниил осознано не палит все хитрости в этом способе, или же сам про них не знает.

  14. нонейм

    прости за колкость, но все дорвейщики дружно поржали, открыл называется новость -земля круглая.
    Не сдержался :+)

  15. SpeedMoney

    почему-то все все знают и тд.
    но посещаемых проектов в каждой теме по пальцам пересчитать….

  16. Ането

    Потестил эту книжную социалку, во всяком случае ей еще расти и расти. Рейтинг хз как строиться пользователей, я добавил около 30 книг, а у меня только 1 балл :).

  17. Александр

    А в ксапе можно автоматизировать покупку ссылок? Или оптом ссылки закупать?

  18. Александр

    По предложенному Маулом алгоритму из файла с парами тайтл-линк?

  19. SpeedMoney

    Александр, в ксапе тока оптом и можно покупать)))

  20. Ришат

    можно конечно и сапаой и хапой

    я обычно для больших порталов беру аккаунты (дмитрипортал) по 3 штуки и прокачиваю, траф прет, и контент засчитывается как мой

  21. Ането

    На счет предложенным Даниилом способом, не его можно использовать, но он далеко не эффективен.

    Лучше вначале спарсить базу кеев, по нужной тебе тематике. Легче для этого купить базу Пастухова. После того, как ты наберешь себе семантическое ядро из 50-100 тыс. НЧ запросов, то подбираешь к каждой пачке запросов свой ресурс. После этого по этому ресурсу закупаешь десятки тысяч ссылок.

    С 50 000 НЧ окол 10-20 тыс. посетителей в день. Вот в принципе и все :).

  22. Holly

    ты быстр ))))
    я писал о подобном + более разжеванно и алгоритмо еще в сентябре-октябре)

  23. sazuke

    Да, тема хорошая =) Сейчас правдо похуже стало с трафиком в Я, после смены алгоритма. Посмотрим, что дальше =)

    Хороший пост, только жаба душит, что такую маленькую тему, но спалили =)

  24. Соломко Андрей

    Довольно дельная статья.

    Спасибо за информацию.

  25. нонейм

    емаё, вы что шутите, «спалил тему», или о СЕО по наслышке знаете, почитайте основу основ, книгу Ашманова, там таких спаленых тем тысячи.

  26. AucklandSeo

    Статья хорошая, спасибо за информацию.

    Оффтоп: кто-нибудь знает, что случилось с blogowar.ru, сайт не отвечает. Спрашиваю потому, как у меня блог тоже не отвечает, а так же сайт хостера.

  27. Andrew

    Социальная сеть для любителей социальных сетей – это хабра

  28. MaulNet

    Ането, да.

    нонейм, я незнаю. Я ведь не такой умный, как вы.

    Александр, ну конечно можно, но там на такое большее количество страниц – это дело будет более проблематичным.

    sazuke, да ну – в этом ничего нового. Но многие говорят что знают-знают, а на деле толком по глупости не используют.

    Andrew, глупость.

  29. Kalimdor

    Ну это не тема :) Все, кому надо, уже про неё знают и используют. Но вообще такой способ подойдёт, если Виц не большой. Если Виц хороший, то внутренней оптимизации текстов будет достаточно.

  30. Brutus

    Да ладно вам :) реально многие про эту мульку не знают… =)

    Как многие не знали про накрутку счетчика Рамблер топ 100 или про корявые поисковики на сайтах и проставление там линков т.д. хотя те кто в теме хотели удавить Данилу тогда :))

    Так что Данила все верно делает :)) главное палить уже после того как нашел пару других мулек для замены данной =)

  31. нонейм

    Даниил, не хотел обидеть. Ну про эту тему не знают только те, кто про оптимизацию не знают ничего.
    Это ж всеравно что сайт продвигать по запросам, только в этом случае на каждую страницу приходятся совсем дру гие ключевики.

  32. Студент

    Да нет, что-то новое узнал. Не только для тех, кто «не знаком вообще». Спасибо, порадовали.

  33. Tagirov

    Даниил, а почему убирать страницы, которые не проиндексированы? Наоборот внешние ссылки помогут и им оказаться в индексе.

    Хм, в почему в комментариях нет предложений купить подобный парсер?

  34. Алексей

    А зачем писать парсер на собственный сайт? :) Ведь есть доступ к БД, данные можно дергать от туда, это и проще будет.
    Извините, не читал другие комменты, просто зашел на 5 секунд. Кстати, на главной странице этого сайта сегодня поймал вирус, вот скрин http://aleksey.nemiro.ru/upload/mauilnet-virus.zip , мыла MaulNet у меня к сожалению нет, наугад тоже отправлять не буду, поэтому постю тут. Раздела «Контакты» без графики я также не вижу ;-)

  35. yury

    интересно, какие затраты метода, скажем, для 1к страниц

  36. Easy Task

    Надо идти малость поглубже и давать названия страницам (ну, к примеру, постам в блоге), совпадающие с… не с самыми плохими НЧ по теме блога.

    А продвигать запросы по которым 5…10 заходов в месяц – глупость, если полно тех, по которым заходов 20…50.

  37. Easy Task

    затраты никакие, если у Вас есть еще один (да или даже тот же самый) «продажный» проект с пиаристыми внутренними страницами, сунуть их в sape/xap и они окупят тонны НЧ-ссылок

  38. Виталик

    А если немного на сайте страниц, можно этот метод использовать?

  39. Jazz

    Ну вот, я думал тут тайны какие-то, действительно новый способ :)

    2Виталик: можно

  40. прохожий

    Маул, ты в курсе, что у тебя троян на сайте? (по крайней мере был)
    Сейчас через мозилу сижу…. Через ИЕ, 3 файла подгружаются, на 2а из них Касперский «кричит», на 3ий не реагирует.
    Думаю всем лучше проверить свои компы…

  41. прохожий

    Вот, допустим собрал я список нужных мне НЧ запросов. Обязательно ли покупать ссылки на страницы соответствующие запросам? Или можно просто на главную страницу сайта?

  42. MaulNet

    прохожий, попробую устранить троян – он частенько появляется.

  43. cepik

    Пароли не стоит сохранять, особенно в Total Commader

    У меня было такое, даже не понял как пароль украли.

  44. прохожий

    тут и антивирусы не помогут…
    подгрузилось 3 файла, 2а из них тояны, очевидно, по заявлению каспрского.
    3ий – нет реакций ни у одного антивируса.
    Отправил касперу :)
    Вот так деньги с WM пиз***
    А по моему вопрос, кто-нибудь ответит :) ? (он выше)

  45. SEO Критик

    обязательно, в посте ведь все описано – ты выводишь внутренние страницы по НЧ запросам ;)

  46. MaulNet

    cepik, я в курсе.

  47. Wrecks

    >>Вот так деньги с WM пиз***
    Не пали Маула…. это его трояны…. На Париж собирал :)

  48. Sasha

    Зачем писать парсер если можно из базы тайтлы вытянуть. Я так всегда делаю

  49. SpeedMoney

    да можно, вообщем не палите тему дальше то, вы чо)

    Tagirov в почту написал

  50. прохожий

    было бы чего палить, епт…

  51. MaulNet

    Ането, какая нафиг база кеев, если определенная страница посвящена определенной вещи (определенная игра или компания или фильм)? Ссылаться на главную страницу – используя НЧ запросы из какой-либо базы кеев – это совсем другое. Или я тебя не так понял?

    Tagirov, порой страницы в базу ПС доступны по другому адресу, а порой и ссылки не помогут проиндексироваться. В общем, проверить было бы желательно.

  52. coverciano

    Парсер это гуд, но тащить низкочастотку руками мне как то душевнее..

  53. Drakon

    Пишется парсер, который смог бы взять с сайта все адреса внутренних страниц с каким-либо контентом + их заголовки, т.е. TITLE.

  54. Андрей Соломко

    С именинами тебя! Сегодня Даниила :)

  55. MaulNet

    Андрей Соломко, да? Не знал. Спасибо.

    coverciano, душевнее – если страниц не за тысячу.

  56. Алексей

    Гм, история с парсером, как не крути, все равно бредовая, постарался разъяснить это на более человеческом примере:
    http://aleksey.nemiro.ru/Humour/Bred-V-Tazike/Apple.nspx
    без обид, и с наступающим ;)

  57. Survive

    Сомнительная идея

  58. Stimmi

    Алексей, ничего не понял. У Маула доходчивее :D (про ценность того и другого поста не говорю).

  59. MaulNet

    Алексей, так себе стеб.

    Насчет парсера – я имел ввиду, что надо как-то выдрать из БД все грамотно.

  60. Алексей

    Stimmi, ценности там нет, обычный бред в тазике :)

    MaulNet, грамотно выдрать данные из БД и написать парсер – это такие же разные вещи, как создать робота продающего яблоки или просто нанять тетю Дусю для той же цели. В данном случае, если и надо что-то пропарсить, так только ответы xml.yandex.ru, собственно и запросы надо делать программно, быстрее будет. Хотя, можно и html по парсить, например, в том же webmaster.yandex.ru, геморней и не каждому по зубам, но вполне реально, тогда и ограничение на 1000 страниц само собой отпадает :) Хотя, я думаю, это вообще лишнее, если сайт живет в сети давно, то он в любом случае есть в индексе, если конечно паукам явно не запретили делать свою работу.

    Delpher, за xml-sitemaps.com отдельное спасибо.

  61. MaulNet

    Алексей, считай, что я слова перепутал. А что именно ты предлагаешь парсить в webmaster.yandex.ru? Результаты проверки добавления страниц? :)

  62. Алексей

    MaulNet, пропарсить можно все что угодно :), наличие страниц в индексе в том числе, хотя у яндекса пожизненный глюк со страницами, когда переходишь на последнюю и половина ссылок чудесным образом исчезает, также как и максимальное количество страниц :) Я там особо не ковырялся, было бы еще в чем ковыряться, так что пока отдаю предпочтение Google. Из xml-а, естественно, будет проще программно обработать данные.

    Сейчас вот смотрю на webmaster.yandex.ru, у меня на блог в индексе всего 5 страниц осталось :) видимо апдейтанулось где-то что-то под НГ :), причем две страницы там с одинаковым url :)

    Всех с наступившим 2008!

  63. БезДомный

    Парсеры… ну народ, давайте играться с СДЛ, а не СДП =) Пожалейте непрограммистов ;)

  64. Могилёвский бомж

    «Если страницы в индексе нет – её надо удалить из списка продвигаемых URL`ов.» – вот это ТАК и должно быть написано или все же ошибка?
    я чего-то недопераю: зачем выкидывать из списка страницы непроиндексированные и ставить ссылки на уже проиндексированные?

    туплю? разъясните плз

  65. MaulNet

    Могилёвский бомж, в некоторых моих случаях – страницы индексировались под другими адресами, вот и все. Они были в индексе, но под другими адресами.

  66. Тимон

    Поосторожнее с ксапой – про «тошноту» ссылочную не забывайте. А то понакупаете всяких дряных ссылок без толку

  67. Brutus

    Тимон – по сути дрянных ссылок то и нет :) хотябы маломальский эффект ссылка даст, не для Яндекса, так для другого поисковика :)

    А случае когда ресурс забанен во всех поисковиках скорее еденичны (случай когда они просто не проиндексированы поисковиком исключаем… ибо каждый толковый оптимизатор понимает что нуна не только купить ссылки :) )

Добавить комментарий