в поиске кивордов

Не секрет, что правильно подобранные киворды – это наше всё. А вот как не сделать ошибок при их подборе?
Рассмотрим 9 наиболее распространённых среди западных сеошников ошибок в этом деле. Почему западных? А потому что половина наших мастеров ничего, кроме овертюры не знает. Ну не сердитесь, вы-то наверняка – во второй половине, которой известен ещё и вордтрекер В) Шучу.

1. Трафик – это не циферки с сервиса

Любой сервис, предоставляющий статистику запросов, базируется на микроскопическом числе данных. Ни один из сервисов не имеет доступа к статистике гугла, яхи или мсн. Чем больше вы работаете в своей нише, тем явнее видите разницу между реальной статистикой и статистикой сервисов. Единственное, о чём можно сделать вывод – это относительная популярность кивордов. Скажем, вордтрекер показывает, что ipod ищут 28000 раз в день, а zune – 8000. По этим данным можно сделать только один вывод: ipod ищут чаще, чем zune. И только. Никаких ожиданий относительно предполагаемого трафика. Даже вывод об относительной популярности кивордов может, мягко говоря, не соответствовать истине, о чём мы поговорим позже.

2. Использование одного сервиса в поиске кивордов

Всегда нужно тестировать свои киворды сразу на нескольких сервисах. Хотя бы потому, что вы можете собрать больше фраз. Например, комбинируя данные Wordtracker, Nichebot и Google keyword selector tool.
При этом появляется возможность исключить фейковые киворды, которыми ваши коллеги специально или неумышленно спамят подобные сервисы.

3. Доверие к воздушным шарам

Большинство сервисов по поиску кивордов пересыщены дутыми фейками, которые образуются от того, что сами вебмастера постоянно мониторят выдачу по своим кеям (непосредственно через поисковики или через специально заточенные тулзы). Именно поэтому глядя на гугл-трэндс, можно подумать, что Россия – основной потребитель фентермина. Нет. Просто в Росии дохрена дорвейщиков, мониторящих выдачу по “buy cheap phentermine” В) Поэтому нужно всегда сопоставлять данные из разных источников.

4. Фокусирование на одном киворде или фразе

Времена, когда сеошники просто регулировали частоту киворда в контенте, безвозвратно ушли. Мы живём в
эру latent semantic indexing (LSI). Грубо говоря, важен не столько контент, сколько контекст. Помимо целевых ключевиков вы должны учитывать связанные с ними (related) киворды и фразы. Это даст понять поисковикам, что ваш контент в целом соответствует заявленной тематике. То есть корова в глазах поисковиков – это не только рога и мычание. Это ещё черно/белые пятна на спине и лепёшки, разбросанные вокруг. В)
В деле определения связанных кивордов вам поможет, например, WordNet

5. Оглядка на KEI

KEI (Keyword Effectiveness Index) – коэффициент, придуманный неким  Sumantra Roy и означающий соотношение общего числа сёрчей по киворду к числу сайтов, конкурирующих за этот киворд в серпе. Если кратко, то KEI – это квадрат популярности киворда, разделённый на его конкурентность. Много мастеров ориентируются на KEI, чтобы определить, насколько конкурентна ниша и насколько высоки шансы попасть в топ. Подробнее о KEI можно почитать тут.

Но лучше не читать. И вот почему – вы реально конкурируете по киворду только с десятью-двадцатью сайтами. Не важно, сколько их всего – 100 тысяч или 100 миллионов (а именно это количество и повлияет на величину KEI). Фактически, определяющим фактором является, насколько сильны те десять сайтов, что болтаются в выдаче по вашему киворду.
Для оценки своих шансов лучше юзать плагины для Файрфокс типа SEO for Firefox или SeoQuake. Они покажут вам непосредственно в серпе многие важные данные для определения конкурентности ниши – PR, бэки, возраст домена и т.д у сайтов-конкурентов. Опираясь на эти данные, можно сделать гораздо более трезвый прогноз.
Можно также поюзать Keyword Explorer, который покажет количество документов по киворду, и по киворду с модификаторами типа intitle, inurl. Обычно даже если в выдаче – много сайтов по определённому киворду, но мало – по киворду с модификаторами, то можно сделать приблизительный, “сырой” вывод о пониженной конкурентности ниши.

6. Отсутствие инструментов для организации кивордов

Обычно поиск кивордов приводит к возникновению громадных txt-простыней со словами и фразами. Можно конечно юзать Эксель. А можно юзать специализированные инструменты, которые позволят не только фильтровать и сортировать киворды, но даже автоматически находить подниши и находить киворды для LSI-оптимизации (ну помните, мы говорили о контексте). Вот пример такого инструмента, правда, платного.

7. Выбор неправильного времени для поиска кивордов

О чём это я? О том, что например, вордтрекер показывает статистику, собранную за последние 90 дней. И если вы решите в июле искать киворды на тему подарков к Рождеству  – то соберёте статистику за май-июнь-июль. А это будут искажённые данные. Или скажем так, это будут киворды, подходящие для траффика, который ищет рождественские подарки летом.
Если вы юзаете Nichebot, то результаты не будут столь искажены ввиду того, что он собирает статистику за гораздо более долгий временной промежуток.

8. Использование наиболее дорогих и конкурентных кивордов

Если вы не ездите на Феррари с номером “SEO Guru”, то не надо пытаться раскручивать сайт про фентермин. Есть смысл использовать бизнес-модель под названием “длинный хвост”: меньшая конкуренция и меньший заработок с одного полученного посетителя могут в итоге превратиться в нехилую сумму на счёте.

Да и можно попытаться сконвертировать трафик на более дорогих темах: например, ко всему прочему поставить казиношный баннер или ссылки на страницы с адсенс, заточенные под дорогие биды.

9. Завалы мусора

У каждого из нас, наверное, найдётся не один десяток/сотня списков с кивордами, собранными только потому, что поиск ниш – это весьма забавное и увлекательное занятие. Эти списки лежат себе, лежат на винте…и никогда не будут использованы. И никогда не принесут денег.
Поэтому ради эффективности, в следующий раз, когда вы будете искать киворды, неплохим решением будет придушить праздный интерес.

по материалам Do you make these top 10 mistakes in keyword research?

Позициониране на блог

Новият патент „Ranking blog documents“ на Google дава отговор на въпроса кои фактори определят релевантността на един блог и кое влияе на позиционирането на блоговете в резултатите при търсене.
Търсенето в блогове се появява в Google още през септември 2005. Патентът е бил регистриран в Патентното ведонство на САЩ по същото време, но за свободен достъп документът е достъпен едва от тази пролет

Група от шест специалисти на Google подробно са описали положително и отрицателно влияещите фактори за доброто позициониране на даден блог в резултатите от търсене.

Позитивни фактори при позициониране на блог:

връзки към блога от други блогове [ blogroll ];
връзки към блога от други сайтове които не са блогове;
използване на tag-ове за категоризиране на съдържанието;
PageRank;
брой на абонираните за RSS на блога;
брой на посетителите от резултатите при търсене и т.н.

Негативни фактори при позициониране на блог:

публикуване на статии през кратък интервал от време;
съдържанието на блога се различава от съдържанието на RSS;
концентрация на ключови думи или ключови фрази приемани за SPAM;
голямо количество на дублирано съдържание;
статии с еднакъв или сходен размер;
връзки към един и същ сайт в много от статиите;
голямо количество рекламни блокове и банери;
начин на позициониране на реклами и т.н.

Трябва да се отбележи че търсенето в блогове значително се отличава от обичайното търсене в интернет.
Това потвърждава и докладът „Изучаване на търсенето в блогове“ , представен на 28-та Европейска конференция по извличане на информация.
52% от всички запитвания към търсачката (а след филтриране – 78%) са собствени имена : имена на хора, продуктови марки, имена на фирми, имена на градове и т.н.
Също така доста популярни са и тематичните запитвания („лингвистика“ , „хумор“ , „ислям“), с помощта на които потребителите търсят блогове със специфична тематика.
Поведението на потребителите при търсене в блогове е сходно с поведението при нормално търсене : кратки сесии , при които сериозно внимание се обръща основно на първите изведени резултати.

Още за Google Blogsearch

Google Filter Google penalty

На сайте www.joe-whyte.com опубликована статья о различных фильтрах, наиболее часто обсуждаемых в среде веб-мастеров, которые поисковая система Google потенциально может применять к сайтам в выдаче. Автор также рассказывает о различных способах, позволяющих обойти эти фильтры и даже использовать их себе во благо.

Google Sandbox – так называемая «песочница» Google, в которую обычно попадают все новые сайты, хотя известны случаи, когда фильтр применялся и к относительно старым сайтам. Поисковая система задействует специальный механизм, который не позволяет молодым сайтам получить высокие позиции по конкурентным ключевым запросам. Однако, по менее популярным ключевым словам молодой сайт может ранжироваться высоко.

Как обойти «песочницу»? Для подсчета рейтинга сайта Google использует систему “trust rank”, или «уровень доверия». Логика системы проста: если на молодой сайт ссылается старый, авторитетный ресурс, следует вывод, что и молодой сайт достоин доверия Google, и к нему можно не применять фильтр Sandbox.

Google -30. Поисковая система может оштрафовать сайт, опустив его на 30 позиций в выдаче. Наказание применяется в отношении ресурсов, замеченных в использовании спаммерских технологий (дорвеи, javascript-редиректы и прочее).

Чтобы вернуться на свое нормальное место в выдаче, обычно достаточно просто отказаться от спорных элементов оптимизации и отправить запрос на повторное включение в индекс. Подробнее об этом фильтре читайте здесь: Arelis, Threadwatch, SERoundtable.

Google Bombing. Этот фильтр применяется к сайтам, на которые множество ресурсов ссылается по одному и тому же ключевому слову. Поисковой системе кажется противоестественным, что большое количество сайтов указывают на сторонний ресурс одинаковой текстовой ссылкой.

Если ваш сайт попал в данный фильтр, помочь может запрос на повторное внесение в индекс поисковой системы. Если фильтр не наложен, но вы заметили, что текст обратных ссылок на ваш сайт со всех ресурсов идентичный, вы можете попросить веб-мастеров изменить тексты ссылок или купить ссылки с тем текстом, который вам понравится. Вот ресурсы, которые освещают проблему Google Bombing: Search Engine Watch, NYTimes, Google Blogspot.

Google Bowling: это, скорее, не фильтр, а ряд приемов Black Hat SEO, которые повлекут за собой бан вашего сайта. Обычно термин употребляется по отношению к действиям конкурентов, направленным на борьбу с популярностью вашего сайта. Как правило, такая техника проходит только в отношении новых сайтов.

Хотя Google утверждает, что завистники никак не могут повредить вашему рейтингу популярности, если вы заподозрили в вашем бане чей-то злой умысел – подавайте запрос на повторное включение в индекс поисковой системы.

Google Duplicate Content Filter, или фильтр для сайтов, которые используют неуникальное текстовое наполнение. Как правило, такие сайты не поднимаются в результатах поиска высоко, а если на них не ведут обратные ссылки, сайты могут быть отнесены к «дополнительным результатам поиска» (supplementary results) или вовсе будут опущены за незначительностью (omitted search results).

Если с вашего сайта украли материалы, попробуйте воздействовать на похитителей, а если это не поможет, свяжитесь с Google и опишите ситуацию. Чтобы проблема не повторилась, воспользуйтесь системой copyscape для отслеживания сайтов, которые незаконно пользуются вашими материалами.

Google Supplemental Results, или дополнительные результаты поиска. О том, каким образом те или иные страницы сайта могут попасть в «дополнительные результаты», мы уже писали в одной из предыдущих статей. Так или иначе, определенные страницы сайта могут быть помещены во вспомогательную базу Google. Если по некоему ключевому запросу выдача системы будет небольшой, Google обратится к вспомогательной базе, содержащей дополнительные результаты поиска.

Вывести страницы из разряда «дополнительных» можно весьма простым способом – заполучив ссылки на «пострадавшие» страницы.

Возрастной фильтр для доменных имен. Фильтр похож на «песочницу» и тесно связан с понятием «высокого уровня доверия поисковой системы». Однако можно пользоваться большим доверием поисковика, не находиться в Sandbox и все же попасть в фильтр для молодых сайтов. По логике Google, старый сайт с большей вероятностью, чем новый, будет релевантен конкурентному запросу.
Единственный способ избежать фильтрации – обрасти честными входящими ссылками с авторитетных сайтов.

Фильтрация пропущенных поисковых результатов (Omitted Search Results). Если пользователь не активирует опцию «show omitted results», то не увидит страниц, внесенных поисковой системой в этот список. В фильтр попадают страницы, содержащие неуникальные тексты, страницы, в точности повторяющие чужие теги title и description, сайты со слабой внутренней перелинковкой или без сети обратных ссылок.
Как и в предыдущих случаях, владельцу сайта предлагается бороться с внутренними проблемами, заставившими сработать механизм фильтрации.

Google TrustRank. Существует много факторов, которые влияют на формирование показателя доверия Google к вашему сайту. Подробнее о них можно почитать тут. К основным факторам относятся возраст сайта, количество обратных ссылок и уровень доверия к сославшимся на вас сайтам, количество исходящих ссылок, качество внутренней перелинковки сайта, способ генерации URL на вашем сайте. Через этот фильтр проходят все сайты, и если ресурс не отвечает требованиям поисковика – пеняйте на себя.

Как перехитрить фильтр: и старый, и молодой сайт могут иметь высокий или низкий уровень доверия поисковой системы. Все дело в количестве обратных ссылок с раскрученных сайтов, пользующихся доверием поисковика, разумной системе внутренних ссылок на сайте и в качестве проработки некоторых других деталей. Оптимизируйте свой сайт для посетителей и для поисковых индексаторов, и вы будете пользоваться доверием поисковой системы.

Фильтрация страниц с заголовком «links.htm». Как правило, такое название носят страницы, где публикуются ссылки на сайты партнеров по линкообмену. Платный обмен ссылками никогда не приветствовался поисковыми системами, а на сегодняшний день это и вовсе один из самых отсталых способов раскрутки сайта. Если вы не можете отказаться от страницы links.htm, замените ее заголовок чем-нибудь близким по смыслу, например «partners.htm» или «coolsites.html».

Фильтр для сайтов, участвующих в системах платного обмена ссылками. Алгоритм Google выявляет все сети платного обмена ссылками и налагает штрафы на сайты, участвующие в таких сетях – высоким рейтингом поисковой системы они похвастаться не смогут. Тем не менее, схема платного обмена ссылками может сослужить вам хорошую службу в некоторых ситуациях. Например, если вы создаете сайт ради того, чтобы получать прибыль от рекламы в AdSense и не собираетесь тратить время на раскрутку, сеть платного линкообмена позволит вам быстро набрать большое количество обратных ссылок. Вот некоторые полезные материалы по теме: статья Джо Вайта о 15 типах ссылок поможет развить сеть входящих ссылок на сайт.

Фильтр для генераторов ссылок. Автоматическими генераторами ссылок (или link farms) называют страницы и сайты, которые содержат большой объем ссылок, как правило, не связанных общей тематикой. Если Google заметит, что ваш сайт входит в подобную сеть, в лучшем случае вы потеряете рейтинг в выдаче. В худшем вас забанят. Единственный способ обойти фильтр – это, как ни парадоксально, не участвовать в системе автоматической генерации ссылок.

Фильтр взаимного цитирования. Этот фильтр – еще одна причина быть разборчивее при выборе партнера по обмену ссылками. Скажем, сайт N ссылается на ресурсы по тематике казино и порно, а также на вашу страницу. Вы, в свою очередь, также разместили ссылку на N. Из этого Google сделает вывод, что тематика вашего сайта связана с казино или порно. Помните, что непродуманная система взаимного цитирования повредит вашему рейтингу в поисковой системе и усложнит раскрутку по нужным ключевым словам.

Сайт, который за краткий срок получает слишком много обратных ссылок, будет отфильтрован Google, а возможно, попадет в банлист всех поисковых систем. Выход – не участвовать в сомнительных схемах раскрутки сайтов.

Существуют наказания и за слишком быстрое развитие сайта. Поисковой системе не понравится, если на вашем сайте каждый день будет появляться новая тысяча страниц. Вы, скорее всего, будете заподозрены в автоматической генерации материалов, и, в зависимости от отягчающих вашу вину обстоятельств, ваш сайт либо окажется в Omitted\Supplemental Results, либо в бане.

Как обойти ограничение фильтра: если вы и в самом деле автоматически создаете страницы, установите ограничение для генератора. Приемлемое значение – 5000 страниц в месяц. Если ваш сайт пользуется хорошей репутацией или очень популярен, коэффициент допустимого прироста может повыситься.

Фильтр для сайтов с битыми ссылками. Если на сайте нарушена система внутренней перелинковки страниц, часть из них не будет проиндексирована поисковыми роботами. Возможно, что и посетители сайта не найдут некоторые страницы – пойдет ли это вам на пользу? Подстрахуйтесь – создайте карту сайта в файле sitemap, проверьте, все ли ссылки рабочие, при помощи специальных программ.

Фильтрация по времени загрузки страницы. Если во время работы краулера страницы будут загружаться слишком медленно, робот обождет положенное время и двинется по сайту далее. В результате страница никогда не попадет в кэш поисковой системы и не будет проиндексирована. Следовательно, и в выдаче поисковой системы она никогда не окажется. Оптимизируйте страницы сайта для максимально быстрой загрузки. Если на сайте много изображений или flash-роликов, их загрузке должно предшествовать появление javascript кода для краулера. Установите для себя ограничение по максимальному размеру файла на сайте, пользуйтесь достижениями CSS и Web 2.0.

Чрезмерное рвение в оптимизации наказуемо. Не переполняйте тексты на сайте ключевыми словами. Вас могут принять за Black Hat SEO и ваш сайт попадет в бан.

Комментарий:

Автор проделал большую работу по компиляции наиболее популярных СЕО теорий про Google. Однако, стоит обратить внимание на расхождение вышеуказанных утверждений хотя бы с источниками, приведенными самим автором:

Google Bombing: Google утверждает, что такой фильтр будет применятся только к тем сайтам, владельцы которых не хотели бы быть найденными по соответствующим запросам (и оставляет в секрете механизм дифференциации). Достаточно посмотреть на выдачу по популярным запросам, чтобы убедиться, что остальным это пока не грозит.

Google Trustrank: Единственная внятно сказанная вещь по поводу trustrank это «чем старше, тем лучше». Остальное порождает больше вопросов, чем ответов: влияет ли текст внешней ссылки на trustrank? Может ли внешняя ссылка привести к уменьшению trustrank? Откуда изначально взялись сайты с высоким trustrank? Мнений достаточно, но автор предпочел избежать сложностей

Google -30: Это спаммерский фильтр. Поэтому «обычно» делать уже нечего. Фильтр имеет временный характер и за ним следует исключение из выдачи. А вот в тех “необычных” случаях, когда он был применен по ошибке (сначала-то слух шел про якобы болтливого сотрудника Google, который руками раздавал -30), запрос на включение может помочь.

Google Filters

Joe Whyte опубликовал очень хорошую заметку Google Filters, how to get around them and exploit their loop holes. Перевожу ее с сокращениями и своими комментариями.

1. Google Sandbox – песочница, песок. Применяется к новым доменам, не прошедшим “испытание ТрастРанковостью”. Наиболее длительное применение фильтра замечается при более конкурентных нишах и более короткое при использовании менее конкурентных и/или некоммерческих тематиках (например личные заметки о плюшевых мишках).
2. Google minus 30 – Немного спорно существование данного фильтра, но все же. При подозрениях (но до бана) в использовании блексео методов (ссылки, редирект, клоакинг) документ может быть “опущен” на тридцать позиций вниз в выдаче.
3. Google Bombing – Злоупотребление ссылочным ранжированием с использованием одинаковых (или очень схожих) анкоров во входящий ссылках. Таким образом, вебсайт может получить высокий ранк в выдаче по “анкорному кейворду” даже не имя в своих документах ни одного вхождения этих слов. Одна из наиболее известных и скандальных “дыр” в гугле. Именно благодаря ей, по запросу “Мега лузер” (не дословно) Гугл показывал на первой позиции вебсайт короля США Дж. Буша Второго. В конце января 2007 года Гугл анонсировал применение нового фильтра, направленного на борьбу с Google Bombing. По всей видимости, под действие этого фильтра в первую очередь попадут Линк Листы, имеющие огромное количество входящих линков с одинаковыми анкор-ресипами.
4. Google Bowling – это не совсем фильтр, а скорее блексео техника борьбы с конкурентами. Например “накачка” сайта конкурентов заведомо “абузными” ссылками с гостевых книг, перенаправление редиректов на сайт конкурентов и так далее. Такие методы МОГУТ повредить лишь новым сайтам, не имеющим еще достаточной “трастовости” и качественных входящих ссылок.
5. Google Duplicate Content Filter – Если контент уже однажды проиндексированный гуглом и хранящийся в его кеше использован где-либо еще вторично – вторичный публикатор получает пенальти в ранжировании за использование такого контента. По видимому лишь новостные сайты лишены наложения этого фильтра, причем в ручном режиме. И кстати, не утихают споры о том, какой документ все же гугл будет считать “оригинальным” – тот на котором контент обнаружен раньше или тот, на который больше авторитетных ссылок.
6. Google Supplemental Results – “любимый” всеми фильтр. Точки зрения на этот фильтра также сильно расходятся. Одна часть вембастеров придерживается теории, что для выхода из “вспомогательного индекса” в “основной” достаточно лишь уникального контента, другая часть – что требуются качественные входящие ссылки, а третья – что требуется сочетание этих факторов.
7. Google Domain name Age Filter – фильтр наиболее близкий к фильтру “песочницы” и “трастовости”. Существует мнение (вполне обоснованное), что документы размещенные на “выдержанном” домене получают более высокие оценки. Это предположение породило явление известное как “засолка” или “консервация” доменов – т.е. закупка доменов “впрок” с выкладыванием на них тематических одно- (или много-) страничных “заглушек”, с целью последующего использования или перепродажи.
8. Google’s Omitted Results Filter – наложение этого фильтра внутри одного домена вызвано недостаточно качественной внутренней перелинковкой, однообразием мета-деск и тайтл-тегов, а также схожестью документов.
9. Google’s Trust Rank Filter – один из самых сложных для понимания ранкингов и фильтров гугла, включающий в себя огромное количество известных, неизвестных и переменных факторов. Основные предпосылки для получения “трастовости” является сочетание и соблюдение всех (в идеале) требований Google к качеству контента, перелинковки, релевантности. А также – наличие постоянных и устойчивых ссылок с авторитетных вебсайтов.
10. Reciprocal Link Filter – Он же линкообмен. Google утверждает, что элементарно вычисляет схемы обмена ссылками, однако в среде вебмастеров кипят бурные дискуссии по поводу возможности вычисления “не явного” и “не прямого” обмена.

Опускаем конкурентов …

…легально и не очень

В дискуссиях на русскоязычных SEO-форумах – параллельно с обсуждениями обычных вопросов по продвижению – нет-нет да и промелькнет робкая просьба поделиться мыслями по поводу воздействия на своих конкурентов. К этой проблеме у нашего сеошного люда весьма неоднозначное отношение – от здорового интереса до фанатичных воплей вроде «Дятлы! Стукачи!». Хотя серьезные западные SEO-специалисты абсолютно не считают зазорным сообщить в поисковик о замеченных нарушениях. Безусловно, одними спам-репортами эта тема не ограничивается. Поэтому я решил собрать в этой статье некоторые методы легального и нелегального устранения конкурентов, которые встретились мне на SEO-форумах, блогах и прочих информационных ресурсах.

Спам-репорты
Итак, метод первый и самый популярный – это спам-репорты. Их можно применять в том случае, если клиент, то есть конкурент, явно использует запрещенные методы раскрутки на своём сайте (скрытый текст, автоматически сгенерированный контент, явные линкопомойки и т.п.). Для каждого поисковика эти правила будут чуть-чуть отличаться, поэтому перед отправкой спам-репорта будет полезно ознакомиться с Terms of Service/Guidelines и четко указать пункты, которые были нарушены.

Адреса форм спам-репортов всем уже давно известны, однако все же повторю их здесь:

  • Googlehttp://www.google.com/contact/spamreport.html
  • Yahoo http://help.yahoo.com/fast/help/us/ysearch/cgi_reportsearchspam
  • MSN (Live) – http://feedback.live.com/
  • Яндекс http://webmaster.yandex.ru/delspam.xml
  • Рамблер http://www.rambler.ru/doc/feedback.shtml
  • Апорт http://www.rol.ru/cgi-bin/fb/fb.cgi?p=aport
  • Однако не стоит ждать моментального и эффективного результата – ваш репорт может вполне уйти «под сукно» службы саппорта, так что, отослав сообщение в поисковую систему, стоит рассмотреть и другие варианты негативного воздействия на своих конкурентов. Особенно, если они не были замечены в черной оптимизации. Что же делать, если конкурент «чист»? Ведь в данном случае отправить жалобу в поисковик не удастся.

    Грязные технологии
    Метод второй – попытаться самому применить «грязные технологии» раскрутки для внешних факторов сайта конкурента. Например, спам вражеского сайта во множество гостевых/блогов/форумов в самом отвратительном виде. Этот метод имеет свои плюсы и минусы.

    Плюсы заключаются в том, что админы заспамленных ресурсов могут написать абузы на вашего конкурента хотя бы в саппорт его хостинга – таким образом у него могут возникнуть серьезные проблемы, вплоть до отключения аккаунта без восстановления информации. Кроме того, есть повод сообщить спам-репорт поисковику. Минусы в том, что глупый поисковик может учесть ваши «грязные ссылки» и сайт конкурента взлетит еще больше.

    DDOS-атака
    Метод третий – банальный DDOS. Он может быть использован для того, чтобы положить сайт конкурента и сделать его недоступным для поисковых роботов. Кроме того, во время DDOS-атаки будет страдать и бизнес конкурента, так как он не сможет предлагать и продавать свои услуги во время атаки, – либо эти действия будут серьезно затруднены.
    Найти исполнителя на самом деле несложно, достаточно лишь потратить некоторое время на поиск в Гугле. Я, например, сразу же нашел вот такой вариант – так что все в ваших руках.
    Хотя, пожалуй, в этом деле стоит остерегаться мошенников – так как всё это уже начинает попахивать уголовщиной. Сюда же можно отнести взлом вражеского сайта и дальнейшие манипуляции с целью подорвать бизнес противника и завладеть различными полезными данными.

    Спам-рассылка от имени конкурента
    Метод четвертый – фальшивая рекламная спам-рассылка от имени конкурента, из-под его почтового адреса. Это тоже может повлечь за собой большой поток абуз в саппорт вражеского хостера и, как следствие, проблемы с аккаунтом у конкурента. Кроме того, это может очень серьезно подмочить репутацию вашего противника.

    Заказать спам-рассылку сейчас тоже можно не особо напрягаясь – например, вот тут. Правда, минусом может оказаться существенное разовое увеличение трафика на сайт конкурента, и, возможно, его финансовые дела даже улучшатся после такой рекламы.

    Черный PR
    Метод пятый – черный PR. Если ваш конкурент продвигает какую-то услугу, можно стараться писать фальшивые негативные отзывы от людей, якобы пользовавшихся этой услугой. Понятное дело, что такой «отзыв» должен быть очень тщательно продуман и размещен только на специальных форумах, посвященных этой сфере деятельности. Плюс информационная кампания негативного толка в тематических блогах и форумах.

    Например, в случае с биржей внутренних ссылок это могла бы быть большая «авторитетная» статья от «признанного SEO-специалиста» о том, что, мол, внутренние ссылки на самом деле не работают, примеры такие-то и такие-то. Конечно, есть и обратная сторона медали – всё это может создать определенную заинтересованность среди читателей и повлечь за собой прямо противоположный эффект.

    Скликивание рекламного бюджета
    Метод шестой – скликивание рекламного бюджета конкурента в сетях контекстной рекламы: Яндекс-Директа, Бегуна и т.п. Здесь нужно серьезно изучить вопрос о механизмах противодействия этих сетей подобным махинациям. Более подробно о технических вопросах скликивания в русскоязычных рекламных сетях можно прочесть здесь.

    Извращенный метод
    Ну и последний метод – самый извращенный и самый легальный из всех вышеописанных: изучить как следует тонкости оптимизации, применить их на практике – и совершенно честным образом обогнать всех своих конкурентов в выдаче по нужному запросу. Чего вам и желаю.

    Удачи!

    Семен Кержнерман

    « Предишна страницаСледваща страница »