Заработок на сайте Раскрутка сайта За работай На сайте  

Движки торрент-трекеров

Объявление

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » Движки торрент-трекеров » Раскрутка сайта » Оптимизация в поисковиках


Оптимизация в поисковиках

Сообщений 1 страница 2 из 2

1

Итак. В ответ на запрос пользователя бот выдает результат поиска. Ищет он в собственном индексе. В индексе у него лежат сайты в том виде, в каком бот их понимает. У каждог о б ота это понимание свое, но общие черты прослеживаются.
Индекс образуется двумя путями.

Первый — web-маз сам просит бот проиндексить его сайтец. Так поступают чаще всего с популярными и уважаемыми ботами. Для Рунета это: Яндекс, Рамблер и Апорт. Причем именно в такой последовательности. Хотя Рамблер с Яндексом соперничают в этом плане. На остальные боты можно не тратить время. Это мое мнение.

Второй путь — боты сами в «свободное от работы время» ползают по Инету и вынюхивают изменения. С новыми сайтами они поступают по разному. Чаще всего они принюхиваются к ним какое-то время, а потом, если, по мнению бота, со страницей все в порядке (посетители иногда появляются, спама нет и др.) — они его индексят. То есть заносят информацию о нем в свой индекс (базу данных).
Самый тормозной в плане принюхивания — это Рамблер. Он принюхивается по несколько месяцев. Самый непридирчивый — Яндекс. Можно создать левый сайт и посмотреть, как скоро он самопроизвольно появится в том или ином поисковике. В Яндексе… ну, через месяц-два.

Кроме этого, боты следят за состоянием своего индекса. То есть за его соответствием реальному положению дел в Инете. Сайт может измениться, исчезнуть и т.д. Поэтому боты его обычно реиндексируют. Правда, можно запретить это мета-тегами и цивилизованные боты не будут этого делать.
Самый скоростной по реиндексированию — Яндекс. Скорость реиндекса — несколько дней, а то и чаще, если ресурс популярный. Самый тормозной — Апорт. Скорость реиндекса страниц с посещаемостью 50-100 хостов в сутки — до полугода!
У меня был сайт, который переехал. Так Апорт по запросу старый адрес еще несколько месяцев выдавал, хотя по этому адресу уже несколько месяцев ничего не было! И соответственно, посещаемость — 0. А Апорту все равно!

Дальше.
Результат поиска по запросу пользователя чаще всего выдается по релевантности. Чем выше релевантность, тем выше позиция страницы в результате работы поисковика. Страница с наиболее высокой (по мнению бота) релевантностью отображается первой. Релевантность — это степень соответствия содержимого индекса бота запросу пользователя.
Например, пользователь вводит «анекдоты». Бот выдает страницы проиндексированных сайтов, где встречается это слово. Причем не просто встречается, а встречается в тех местах, которые бот индексит.
Но об этом позже.
Яндекс, например, чаще всего выдает только одну страницу с сайта и ссылки на то, что есть еще страницы с того же сервера. Замечали, наверное. Другие боты могут по несколько страниц с одного сервака на один запрос выдавать. Это не очень образованные боты, но их тоже юзают.

Продолжим с примером про «анекдоты». Бот выдает результат поиска по релевантности. То есть, если на странице имеется 100 слов и 4 из них — «анекдоты» (в именительном падеже, множественном числе), то релевантность страницы по запросу «анекдоты» 0.04. Четыре процента. Соответственно, если слов будет 10, и 4 из них — «анекдоты», то релевантность будет 40%. То есть в 10 раз выше.
Это грубоватый пример, так как слова в заголовке (то что между <title></title>) и в тексте страницы имеют для бота разный вес, равно как слова в падеже и числе, указанном в запросе и имеющемся на странице. Но для понимания понятия «релевантность» вполне сойдет.

Поясню про падежи и числа.
Если запрос «анекдоТЫ», а на странице встречаются только слова «анектоТ, анекдоТОВ» и т.д. то релевантность страницы по этому запросу будет ниже, чем тех страниц, на которых прямо написано слово «анекдоТЫ». Но в любом случае страница все равно найдется по запросу «анекдоТЫ» (но в с конце списка ответа поисковика).

Из сказанного следует, что страница должна содержать поменьше слов, и слова должны быть, в основном, ключевые.

Куда же девать инфу, которая в 10-20 слов никак не поместится?
Ответ — страницы с инфой и страницы для ботов — это «две большие разницы».

Страницы с инфой — это те страницы, на которые попадаешь по ссылке со стартовой страницы. А стартовая страница (другие названия — индексная, заходная, doorway и др.) — это страница которая как раз и содержит 10-20 слов (включая заголовок и мета-теги). То есть эта страница, созданная специально для бота. И больше ни для кого.

Обычно, на стартовой странице размещают лого, иногда еще несколько слов — чтобы пользователь понял, куда попал, и кнопочку «Вход». Иногда вместо кнопочки «вход» — ссылки на разные разделы сайта. То есть несколько входов.
Если без текста на индексной странице, ну, никак не обойтись, можно запихнуть его в картинки. Так Мелкософт ( http://www.microsoft.com/ ) поступает, например. Правда, им-то чего о релевантности заботиться?

Важно, чтобы бот по запросу нашел хоть какую-то страницу на сайте. Важно также, чтобы навигация на ВСЕХ страницах позволяла попасть в КРАТЧАЙШИЙ срок в любое место сайта.
По крайней мере, ссылка на главную страницу, по моему мнению, должна стоять на каждой странице.
Если бот начнет индексить, он надет одну страницу и дальше пойдет по ссылкам на ней. Нужно облегчить ему эту задачу. Причем, чем больше ссылок на ту или иную страницу (с разных страниц, ясен тетя), тем выше ее «ценность» с точки зрения бота.

Итак.
Стартовая страница делается для бота. На ней нет инфы, только ссылка (ссылки) и куча хитростей (см. ниже) для заманивая ботов.
Страницы с инфой должны содержать ссылки друг на друга, нормальный информативный заголовок и приемлемые мета-теги. Все. Их цель — дать инфу и не препятствовать боту запихнуть их в свой индекс. Они не должны первыми появляться по запросу пользователя. Так как в данном случае это как раз те два зайца, за которыми никак не угнаться, да и не надо.

Дальше.
Понятное дело, что есть не одно, а несколько ключевых слов, по которым web-маз хочет, чтобы искался сайт. Чтобы этого добиться, по хорошему, нужно делать столько стартовых страниц, сколько желаемых web-мазом ключевых слов. Внешне эти страницы ничем не должны отличаться. Ну, может, title`ом. Отличаться должна служебная инфа, о которой речь пойдет ниже.

Например, у меня есть сайт для фирмешки, продающей стартеры для иномарок. Я сделала с десяток-два индексных страниц для наиболее популярных моделей иномарок. Внешне страницы отличаются только тем, что на одной в заголовке написано «Стартеры для Мерседеса», а на другой — «Стартеры для Вольво». Все. Конечно, отличаются мета-теги, alt`ы (подписи к картинкам) и т.д. Об этом ниже. Каждую индексную страницу я индексила в ботах отдельно.

Итак.
Что же индексит бот?
У каждог о б ота свой характер, но в целом примерно так.
Во-первых title. Это самая важная часть. Слова в title`е имеют самый большой вес. Большой вес имеют слова в alt`ах (подписях к картинкам), слова между <h1> </h1>, <h2> </h2> и т.д. в порядке убывания значимости, слова между <b> </b>.
Кроме того, слова, расположенные ближе (выше) к title`у, имеют больший вес, чем слова расположенные ниже. То есть, чем выше слово, тем выше его вес при определении релевантности.
Полнотекстовые боты (то есть практически все современные) индексят еще и сам текст. В основном, на предмет наличия в тексте слов, указанных в заголовке и метах. Но если текста нет или очень мало — соответственно.

Итого, как заставить бот выдавать твою страницу первой по запросу, например, «варез»?

Пишем:

<html>
<title>Лучший варез</title>
<title> Софт Варез Нелегальный софт</title>

То есть пишем второй title.
После второго title`a нужно поставить знак неразрывного пробела —   или &nbsp;. Так как Яндекс, например, выдаст оба заголовка как один и без пробела последнее слово первого заголовка сольется с первым словом второго заголовка.
Разумеется, ключевые слова (2-6) можно выдумать и другие.

На той же странице пишем дальше:

<meta name="keywords" content="Варез, софт, нелегальный софт">
<meta http-equiv="keywords" content="Варез, софт, нелегальный софт">
<meta name="description" content="Лучшие программы">
<meta http-equiv="description" content="Лучшие программы">

В keywords`ах должн о б ыть не более 10-ти слов, необходимо использовать варианты (не более трех) наиболее частых падежей и чисел: (например: программы, программ, программа), чередуя их с другими словами (например: программы, софт, программ, варез, программа).

В description — несколько слов (5-8 слов, не более 170 символов), ёмко характеризующих сайт. В Апорте и Рамблере это описание появится рядом с результатом поиска по запросу. В настоящее время при индексировании содержимое description на релевантность не влияет. По крайней мере, в рассмативаемых поисковиках.

Главное: МЕНЬШЕ СЛОВ! Преимущественно ключевые.

Name и http-equiv должны полностью совпадать. Одни боты понимают name, другие — http-equiv.

Дальше на той же странице:

<meta name="robots" content="index,follow">
# Роботам — индексировать страницу и идти дальше по ссылкам на ней.
# Аналогично сработает: <meta name="robots" content="all">

Дальше:

<meta name="resource-type" content="document">
# Если бот видит, что ресурс — это документ,
# он приступает (должен) к его индексации.
<meta name="document-state" content="dynamic">
# Если тип документа — динамический — бот запомнит что сюда
# нужно периодически возвращаться.
<meta name="revisit-after" content="10 days">
# Это пожелание боту, как часто реиндексировать документ.
# Пожелание — не более. Бот может послушаться, а может и нет.
# Если, например, он разок вернется через 10 дней и увидит,
# что страница и впрямь изменилась, может и еще разок вернется
# через 10 дней. А если написать revisit-after 1 day и не менять
# страницу вообще — бот может обидеться и посчитать это попыткой
# его спама. Он занесет такую страницу в черный индекс
# (точнее, сначала — в «серый»). Это плохо.

Дальше для Рамблера (только):

<!--<h1>Варез, софт, нелегальный софт</h1>//-->

То есть в тегах комментария в заголовке первого уровня пишем ключевые слова. Яндекс то, что в тегах комментария не индексит, а Рамблер ест как миленький.

Потом, все картинки, что ни есть, должны содержать alt`ы с ключевыми словами.

Можно даже в неприметном месте страницы однопиксельных прозрачных гифов запихать (не очень много — 3-4) и alt`ы к ним нужные прикрутить. Это считается спамом поисковика (как и два title`а, впрочем), но по опыту — они (боты) этого в упор не видят.

Вообщем, «легальные» способы кончились дальше идут «нелегальные».

Можно сделать для IE:

<div style="visibility: hidden">
<h1>Программы, варез, софт, программа</h1>
</div>

Для NN:

<layer visibility="hide"><h1>Программы, варез, софт, программа</h1></layer>

Это не очень удобно. Нужно ставить скриптину, определяющую тип браузера. Н о б оты глотают эту наживку и в «черный» список не запихивают.

Проще:

<font color="#цвет фона"><h1>Варез программа</h1></font>

Но эт о б оты грозятся определять. Ничего не знаю по этому поводу. Может, и определяют — они сейчас умные пошли.

Еще можно вот что сделать. Где-нибудь неприметненько запихиваем прозрачные gif-чики и делаем из них ссылки. Бот и alt`ы проиндексит и по ссылкам пойдет, особенно, если сами ссылки по дизайну на страницу никак не поместить.

Примерно так:

<a href="первая ссылка"><img src="images/gif_1.gif" width="1" height="1" border="0" alt="Варез, софт, нелегальный софт"></a>
<a href="вторая ссылка"><img src="images/gif_1.gif" width="1" height="1" border="0" alt="Софт, варез"></a>
<a href="третья ссылка"><img src="images/gif_1.gif" width="1" height="1" border="0" alt="варез, софт"></a>
и т.д.

Ну, и нужен специально обученный человек, который будет следить за эволюцией ботов, изменениями позиции страницы в поисковиках и предпринимать сответствующие действия. Не каждый день, но раз в недельку-две тестирование в поисковиках своим страницам нужно устраивать.

И вот еще что! Если релевантность слишком высока, Яндекс обижается и не выдает страницу по запросу. За остальными не замечала. Другие страницы того же сайта с меньшей релевантностью может выдавать («серый» список). Так что, если на странице только слова «варез варез варез» — это не выход. Релевантность должна быть не более 30%. И одинаковые слова подряд лучше не повторять.

А Батва меня навел на мысль, что можно делать по 2 страницы на одно ключевое слово. На одной странице релевантность по ключевому слову 10% (для подозрительного Яндекса), на другой — порядка 30% (для остальных).

И вот когда все это извращение готово — 10-15 стартовых качественно написанных страниц — идешь на http://www.design.ru/free/addurl/ и каждую страницу индексишь одной пимпой в нескольких наиболее популярных поисковиках. При этом видишь ответы серверов, и, если не прошло — идешь индексить вручную.
Об остальных поисковиках спокойно забываешь, толку от них… Работы больше.
Описание к каждой странице — разное, ясен тетя. Емкое, краткое состоящее из ключевых слов.

Можно, и вручную добавлять сайт в каждый поисковик, но это геморройно и не сильно выгодней. Впрочем, это мое мнение.

И последнее.
В корень (только в корень) помещаешь файт robots.txt (именно так и никак иначе) со следующим содержимым:

User-agent: * # Первая строка.
# Комментарии, понятное дело, убрать
# Строка говорит, что любой бот может индексить ресурс
# Между первой и последующими —
# не должн о б ыть переводов строк
Disallow: /cgi-bin/ # Не индексировать то, что в каталоге cgi-bin
Disallow: /images/ # Не индексировать то, что в каталоге images
Disallow: /scripts/ # Не индексировать то, что в каталоге scripts
# И далее по смыслу. В конце каждого имени каталога — слеш.
# Нече там ботам ползать. Нагрузку на сервак повышать. :)

Вот, собственно. Хотя, можно еще много фантазировать на тему.

0

2

Как сделать свой сайт привлекательным для Google и прочих поисковиков?

Многие интересные интернет-проекты недоступны большинству потенциальных посетителей, потому что не могут себя правильно подать. Хотя способов сделать это хоть пруд пруди: к нашим услугам и банальная баннерная реклама, на которую обычно нет денег; и участие в баннерообменных сетях; и обмен ссылками; и накручивание числа посещений, позволяющее подняться в рейтингах; наконец, спам и прочие, легальные и не совсем, методы. И все же новые пользователи приходят, как правило, с поисковых систем. Соответственно, при разработке или оптимизации сайта имеет смысл сосредоточить усилия на повышении веса своего ресурса в поисковиках при запросах по определенным ключевым словам. Так что же сделать, чтобы ваш сайт стал более привлекательным для поисковых машин?

Разумеется, в первую очередь нужно озаботиться содержанием. Сайт с качественным контентом интереснее посетителям, привлечение которых и есть цель любого интернет-проекта. Если ваш сайт является одной из точек входа на другой или во многом копирует какой-нибудь ресурс, современные поисковики быстро просекут его спамерскую сущность, и дивидендов вам это не принесет.

Также продумайте, по каким ключевым словам вы сами стали бы искать информацию, представляемую вашим сайтом. Это один из важнейших моментов — неправильный подбор ключевых слов значительно снизит ваш поисковый рейтинг. Выбрав слова, используйте их на страницах сайта как можно чаще. Очень хорошо, если они будут каким-либо образом выделяться: так, полезно включить их в тег title, а еще лучше — выделить «приманки» тегами h1 (разумеется, там, где это приемлемо).

По возможности используйте выбранные ключевые слова в ссылках и попросите партнеров и знакомых использовать эти слова для ссылок на вас. Если вы публикуете на своем или другом сайте баннер или другое изображение, пишите в альтернативный текст (тег alt) выбранные ключевые слова. Только не пытайтесь размножить их тысячами и написать цветом фона страницы — поисковые системы не любят, когда их пытаются обмануть, и достаточно сообразительны, чтобы распознать подобные фокусы. Несколько лет назад это срабатывало, но теперь может привести к ухудшению рейтинга, а то и вовсе к исключению из индекса.

Старайтесь избегать тегов, которые могут оказаться не под силу поисковым роботам. Представьте, что ваш сайт смотрят с помощью древнего браузера, который и картинок-то не умеет показывать, — это поможет вам оценить возможности поискового робота. Соответственно, ссылки в image maps (которые давным-давно являются моветоном), фреймах и иногда динамических страницах некоторые поисковики не смогут отследить вовсе. Впрочем, большинство ведущих поисковых машин понимают фреймы и динамические страницы, так что этот совет можете не принимать во внимание.

Среди метатегов, с точки зрения оптимизации под поисковые системы, больше всех достоин внимания description. Любимый многими тег robots тоже можно использовать, но только если вы не хотите, чтобы страница вообще индексировалась. Остальные по большей части игнорируются поисковиками. Если вас интересуют подробности и вы владеете английским, прочтите статью на эту тему по адресу searchenginewatch.com/webmasters/article.php/2167931.

И, наконец, самое главное: постарайтесь получить как можно больше высококачественных ссылок на ваш ресурс. Поясню, что имеется в виду.

Во многом Google обязан своим успехом технологии PageRank (далее PR). В общих чертах PR — это система рейтинга сайтов [Точнее — рейтинга страниц. Разные страницы одного сайта могут иметь разный PR, поэтому важно, чтобы обратная ссылка была размещена на странице с максимальным PR], и чем он выше, тем выше сайт оказывается в результатах поиска. Высчитывается рейтинг на базе множества параметров, но главным является количество ссылок на ваш сайт с других (как если бы другой сайт «голосовал» за вас). При этом Google смотрит на качество «голосующего», то есть оценивает и его PR. То есть если на ваш сайт ссылается какой-нибудь портал с PR 7, это лучше, чем если на вас ссылается море сайтов с PR 0 или 1. Таким образом, Google отсекает бесчисленные страницы для входа, которые вебмастера плодят для раскрутки своих сайтов. Точнее, не отсекает насовсем, но сайт, на который ведут линки с сайтов с высоким PR, окажется в результатах поиска гораздо выше искусственно накрученных. Известно, что большинство посетителей поисковых машин не идут дальше первой страницы результатов поиска. Поэтому вероятность того, что они найдут сайт, проиндексированный Google, но имеющий мало обратных ссылок, стремится к нулю.

Итак, нам надо раскрутить интернет-проект по торговле арбузами, чтобы наладить взаимосвязь с усатыми розничными продавцами, которые будут заходить на наш сайт со смартфонов и коммуникаторов для заказа новой партии. И естественно, мы хотим, чтобы они, набрав в поиске слова «арбуз» и, к примеру, «Москва», в числе первых видели наш онлайн-магазин. Давайте проверим, а где же мы сейчас? Набираем, смотрим… Мда… «Найдено 56300 ссылок»… Вряд ли мы продадим хоть что-нибудь. Стоит задача — поднять сайт в результатах поиска по словам «арбуз» или «московские арбузы». Как нам уже известно, нужны обратные ссылки. Лучше всего, если у нас есть знакомые вебмастера в нескольких крупных интернет-проектах с высоким PR. Нужно всего лишь найти мотивацию для наших знакомых, чтобы они разместили у себя линк на нас (но это выходит за рамки статьи). Сайты с высоким PR переиндексируются часто, иногда каждый день. Поисковый робот пойдет по ссылке и проиндексирует наш сайт, одновременно запомнив, что на нас сослался достаточно серьезный ресурс с большим поисковым весом и присвоит нам ненулевой PR.

Но что делать, если таких связей нет? Есть целый ряд мер для повышения количества обратных ссылок — оставлять на тематических форумах сообщения о своем сайте, обмен кнопочками или текстовыми линками, но все это практически бесполезно. Хорошо работают бесплатные сервисы — например, различные счетчики или кнопки с курсами валют, погодой, рейтинги обмена валюты на арбузы и т. д. Давая посетителям возможность разместить их в своем блоге или сайте, вы получаете бесплатный линк. Наконец, можно заплатить за рекламу. Но не баннерную, которая одноразово приведет к нам кого попало. Платить имеет смысл за то, чтобы ссылку на наш сайт разместил какой-нибудь известный интернет-проект. Желательно — исследующий качество арбузов и проводящий их тестирование и дегустацию. Тут надо сделать небольшое уточнение: продвинутые поисковые машины (такие, как Google) пытаются понять, насколько тематика вашего сайта соответствует тематике ссылающегося сайта. Это нужно для того, чтобы правильно распределить «вес» ссылки на вас. Приблизительно 70% PR ссылающейся страницы передаются внешним линкам. И если страница о свойствах арбузов имеет две внешние ссылки — на сайт об арбузах и сайт о резиновых ковриках для ванной, — то бо,льшая часть передаваемого PR окажется у нашего арбузного ресурса, как у более соответствующего теме.

После проведения всех этих мер нам захочется узнать, повлияли ли мы каким-либо образом на отношение Google к нашему сайту. То есть посмотреть, на каком месте в результате запроса по слову «арбуз» мы оказались. Можно снова сделать запрос вручную, и хорошо, если мы оказались на первых страницах результатов или у нас достаточно терпения, чтобы найти свой сайт среди 56300 ссылок… На самом деле, можно оптимизировать мониторинг и смотреть не только одно или два слова или выражения, а множество слов и словосочетаний, особенно учитывая то, что Google не понимает морфологии русского языка, и слова «арбуз», «арбузы» и «арбуза» для него разные. Если наш сайт на английском (что в общем случае странно, раз мы продаем арбузы в Москве, но тем не менее), тогда проблем с разными словоформами не возникнет. Есть множество инструментов для Search Engine Optimisation (SEO), то есть оптимизации под поисковые системы. Расскажу о самом известном, wwwdigitalpoint.com/tools/keywords. Так получилось, что меня когда-то попросили сделать ее русский перевод (интерфейс переведен на двадцать языков), поэтому и знаком с нею лучше, чем с другими. Многие советы и идеи настоящей статьи тоже заимствованы с этого сайта и форума на нем.

Эта система одна из немногих подобных и, возможно, единственная бесплатная, но уж точно самая популярная (больше сорока тысяч пользователей). Еще одна система, wwwseocount.com, видимо, скоро тоже станет бесплатной под давлением вышеупомянутой. Для ее использования необходимо зарегистрироваться. Система работает через Google API. Здесь есть два основных интересующих нас раздела — отслеживание ключевых слов и отслеживание обратных ссылок. Что такое и зачем нужны обратные ссылки, надеюсь, понятно из вышесказанного. Вводим название сайта в соответствующее поле и видим число обратных ссылок на наш сайт и его PR. С течением времени эти цифры будут расти, по мере того как мы прикладываем усилия по раскрутке. Нажав на график слева от имени, можно увидеть динамику изменения числа ссылок. Не забывайте об инерции поискового бота! То, что вы обменялись ссылками со ста сайтами, вовсе не значит, что Google немедленно переиндексирует эти сайты и зачтет все ссылки вам. Пройдет некоторое время, прежде чем ваш PR начнет расти.

Отслеживание ключевых слов происходит аналогичным образом: вводим интересующее нас слово или словосочетание и адрес сайта. В столбце «место» мы увидим то место, на котором в результатах запроса к Google по данному ключевому слову окажется наш сайт. Если мы очень далеко от первой страницы, то в этом столбце будет написано «N/A», поскольку нумерация ведется только для какого-то количества сайтов из начала списка. Так же можно отслеживать перемещения в базах Yahoo! и MSN.

Теперь, когда у нас есть инструмент для мониторинга и мы умеем им пользоваться, поговорим о более серьезном способе поднятия поискового рейтинга. На том же сайте wwwdigitalpoint.com работает Co-op Advertising Network — система обмена текстовыми и графическими ссылками. На первый взгляд это обычная баннерообменная сеть для привлечения посетителей. Однако на самом деле все гораздо глубже.

Сеть работает следующим образом. После регистрации вы размещаете на своем сайте скрипт, который подставляет в код страниц текстовую или графическую ссылку на файл другого участника обмена. Для клиента, запрашивающего страницу с вашего сайта, ссылка выглядит не как внешняя, а как реально встроенная и постоянно присутствующая в коде. То есть как img src=““ или некий текст в теге anchor, без ссылок на счетчик показов баннерообменной сети и т. п. Это происходит потому, что скрипт запрашивает, что именно необходимо отобразить еще до отправки страницы клиенту, и подставляет рекламный линк и текст прямо в HTML-код. Таким образом, для поискового робота или обычного посетителя, запрашивающего страницу, все будет выглядеть так, будто вы сами поставили прямую ссылку на рекламируемый сайт и «голосуете» за него, добавляя ему поисковый вес. Причем число показов этого баннера на вашем сайте роли не играет. Главное, что, когда заходит не человек, а робот, он засчитывает вашу ссылку на сайт участника обмена. Соответственно, самым значимым параметром становится число страниц вашего сайта, поскольку чем больше страниц с прямыми ссылками на различные сайты проиндексируется, тем больше сайтов получат прибавку к PR. В связи с этим вес вашего сайта в Co-op Ad Network (и число показов ссылок на вас) зависит не от посещаемости, а от количества страниц в нем. Число страниц в сайте берется из базы Google (в Keyword ranking monitor на странице обратных ссылок вы можете его посмотреть). Таким образом, сайт с десятком тысяч редко посещаемых страниц будет иметь в сто раз больший вес в системе обмена, чем очень посещаемый сайт с сотней страниц. И ссылки на первый другие участники обмена станут показывать в сто раз чаще. Поэтому вероятность того, что поисковик засчитает ссылку сайту с большим числом страниц, пропорционально выше.

Как уже было сказано, Ad Network распределяет показы соответственно весу сайта в системе, и 100% показов распределяются между всеми участниками системы, маржа не берется. Достаточно того, что если участники системы по какой-либо причине не задали или отключили свои баннеры, то вместо них подставляются ссылки на Digitalpoint Solutions. Вдобавок у сайта digitalpoint.com очень большой вес внутри обменной системы — Google говорит о 28000 проиндексированных страниц. К примеру, у «Яндекса», по мнению Google, их «всего» 12300. Тем не менее выгода велика для всех участников обмена — рейтинг сайта в поисковых системах, использующих аналогичный Google PR-механизм, взлетает за очень короткое время (если, конечно, при разработке вы позаботились о том, чтобы индексируемое число страниц было достаточно большим). Правда, если ваш домен был создан недавно, то существуют некоторые ограничения. Пожалуй, самой серьезной мерой, предпринятой Google против мгновенной раскрутки, является так называемый sandbox. Суть его в том, что примерно полгода с момента первого индексирования сайта Google-ботом PR этого сайта не растет. Таким образом, резкий подъем в рейтинге новоявленного ресурса становится невозможным. Информация о sandbox получена путем многократных экспериментов (выполненных не мною); Google нигде официально об этом не пишет, но в среде SEO это общеизвестно.

Конечно, Co-op Network имеет и серьезные недостатки. Например, не реализовано распределение по типам сайтов — развлекательный, деловой и пр. Однако модерирование работает, и откровенно неприличное объявление в обмене не появится. С другой стороны, это противоречит самой идеологии деления суммарного числа показов пропорционально на всех. Ведь если мы отделим одни сайты от других, а, к примеру, деловые или новостные ресурсы выделим в особую категорию, то в общем случае у них окажется более высокий PR, чем у какого-нибудь блога. А как вы помните, ссылки тем весомее, чем выше PR ссылающегося сайта. Поэтому сайты бизнес-тематики будут раскручивать себя сильнее, чем малоизвестные, но очень интересные ресурсы…

В целом это похоже на поисковый спам: помните курьезную историю про поиск выражения «miserable failure» (можно перевести как «жалкий неудачник») в Google? Некоторое время назад блоггеры сговорились и сообща поставили ссылки вида miserable failure на страницах своих онлайновых дневников, что привело к резкому повышению рейтинга биографии Дж. Буша-мл. на сайте Белого дома при указанном запросе. Co-op Ad Network дает еще большие возможности для подобного рода фокусов, не означающие, однако, что этим стоит злоупотреблять. Самое интересное, что Google знает о существовании этой системы, но не считает ее поисковым спамом по многим причинам. Например, Co-op Ad Network в первую очередь — это обмен рекламными объявлениями с достаточно большим CTR (wwwdigitalpoint.com/tools/ad-network/history.html), что не нарушает нетикета и других писаных и неписаных правил. Рост поискового рейтинга — это «побочный» эффект рекламной сети. Поэтому Google почти не предпринимает ответных шагов: sandbox можно считать просто-напросто дальнейшим развитием этой отличной поисковой машины.

Продвижение своего сайта — процесс творческий, требующий постоянных усилий, времени и/или денег. Надеюсь, статья поможет вам сэкономить часть этих драгоценных ресурсов. И, конечно же, не стоит зацикливаться только на поисковой оптимизации, хотя это и немаловажно. Возможно, ваш сайт сможет успешно продвинуться за счет офлайна; главное, чтобы вам было о чем поведать миру.

Автор : Алексей Мюльберг

0


Вы здесь » Движки торрент-трекеров » Раскрутка сайта » Оптимизация в поисковиках


Создать форум © iboard.ws Видеочат kdovolalmi.cz