Безопасный обмен ссылками в Google

Полезные советы: как набрать безопасных внешних ссылок и как безопасно меняться ссылками.


Что можно и чего нельзя делать относительно ссылок в Google.

НЕ участвуйте в автоматических ссылкообменниках, эти методы уже давно не работают,
НЕ называйте каталог ссылок вашего сайта links.htm или links.asp, лучше использовать такие имена как link-directory, related resources, related SEO resources, resources и т.п.


Пессимизирует ли Google За "говорящее" название страницы со ссылками? На эту тему было много разговоров...

Мое мнение таково, что в Google установлен фильтр на имена страниц links.htm и подобных им, который препятствует отображению их в бэклинках, но сила самих ссылок при этом сохраняется, это было мной выявлено путем длительного анализа. Для большей убедительности я могу привести один хороший аргумент в защиту фильтрации страниц с такими именами.

Например, у вас есть страница links.htm. Это может быть страница только для ссылок, или на ней может быть что-то другое. Некоторые люди, которые хотят ссылаться на действительно хорошие сайты, любят называть свои каталоги ссылок links.htm или links.asp. Тогда, если Google действительно полностью игнорирует все страницы, которые так называются, поисковик бы терял много действительно полезных, "настоящих", ссылок.

Поэтому Google просто передает силу самой ссылки и PR, но не отображает ее в бэклинках сайта, на который она ссылается, и для этого есть хорошая причина. Ведь любой владелец сайта имеет право ссылаться любым текстом на любые страницы, такие, какие он сам захочет, это закон интернета.
Например, вам нравится сайт о мороженом, который вы недавно обнаружили в сети, а тема вашего сайта - недвижимость, так что теперь, вам не ссылаться на этот сайт только потому, что поисковики этого не любят? Рядовые пользователи интернета вообще не знают, что эти ссылки оцениваются поисковиками и это как-то влияет на ранжирование. Они просто ссылаются на понравившийся сайт, а в тексте ссылки пишут :"лучший сайт о мороженом", и если вы думаете, что Google это игнорирует, то ошибаетесь. В этом случае у Гугла бы не было возможности свободно облазить большинство интернета, и полноценная выдача так бы и осталось мечтой.

В вышеописанном случае они могут делать две вещи: запретить передачу PR с таких страниц, и не показывать ссылку в бэклинках; но они обязательно учтут вес ссылки и ее текст.

Мне кажется я размышляю так, как следовало бы размышлять создателям Google до того, как они написали подобный алгоритм, я конечно, могу и ошибаться, но когда подолгу сидишь и думаешь, как же устроен интернет, рано или поздно начинаешь понимать, как работает система.


ВСЕГДА старайтесь, чтобы ссылки были тематическими. Тематические ссылки любят все поисковики, и это очень помогает в поисковом продвижении. Гугл, в частности, дает много веса ссылкам с тематически близких сайтов. Тематическая релевантность - большой плюс для всех поисковиков.

При определении релевантности Google учитывает title, содержание страницы, текст ссылки и саму ссылку. Если вы работаете в теме, где трудно найти тематически близкие сайты, наращивайте внешние ссылки и старайтесь, чтобы сайты, которые на вас ссылаются, использовали в тексте ссылки ключевые слова.

Это не означает что не стоит добывать ссылки с нетематических сайтов, все ссылки полезны, но тематические полезны в особенности, потому что несут в себе больше веса.

ИЗБЕГАЙТЕ перелинковки между сайтами, находящимися в одном IP-диапазоне.

Могу привести следующие примеры в пользу этого утверждения:

Пример 1:
У клиентов был собственный сервер, и соответственно они размещали там свои сайты, причем на одном IP. Общий хостинг, т.е. ситуация, когда у нескольких сайтов один IP-адрес, легко распознается поисковыми системами, и дает большой риск пессимизации.

Один из моих клиентов разместил 15 сайтов схожей тематики на одном IP, скажем, по недвижимости, и перелинковал их все, так в результате у 14 его сайтов PR упал до нуля, и только один сайт остался PR4.

Пример 2:
На тему того, что же случается если сайты размещены в одном IP-диапазоне, было много дискуссий. В моем случае, сайты были в одном IP диапазоне, близкие по тематике, да еще и перелинкованы между собой. В результате сайты были пессимизированы за перелинковку. IP-диапазон, о котором я говорю, это, например 214.106.141.52, 214.106.141.53, 214.106.141.54, 214.106.141.55 и т.п.

Один клиент сделал что-то подобное на собственном сервере, он обильно перелинковал близкие по теме сайты, проставив сквозные ссылки почти с каждого на каждый, и все сайты отправились в бан. Они даже не находились при наборе URL в поле поиска.

Тут проблема была в перелинковке, и это были не просто ссылки с одной страницы, но перелинковка сквозными ссылками с участием всех сайтов в одном IP-диапазоне.

Другая беда, которая может случиться если сайты не попадутся на перелинковке, это ручная модерация. В Google модераторы удаляют сайты из базы в случае, если получают жалобу на владельца нескольких сайтов, которые перелинкованы между собой.

Я слышал однажды, как сотрудник Google говорил, что они считают такие действия сверх-спамом, и карающие действия предпринимаются сразу при обнаружении таковых. Но на самом деле тех, кто устраивает такой бурный обмен ссылками между своими сайтами на сервере, немного.

Таково мое понимание перелинковки: лучше не стоит этого делать.

НЕ участвуйте в разнообразных обменниках типа links2you (a la линкатор) которые были сделаны для заведомо искусственного повышения PR или позиций в выдаче. В частности, избегайте ссылок с Вашего сайта на линкопомойки (ссылочные фермы) разных мастей, т.к. PR вашего сайта может сильно пострадать от этого.

Ссылка с вашей страницы на линкопомойку может привести к пессимизации страницы.

Вот что происходит если вы ссылаетесь на подобные ресурсы, популярные и проверенные предположения:

1. Робот Googlebot перестанет навещать вашу страницу вообще, или будет приходить гораздо реже

2. Количество страниц вашего сайта в базе Гугла будет стремительно падать, пока весь сайт не пропадет из выдачи

3. Сайт будет полностью и сразу удален из базы автоматически, если робот установит, что у вас много ссылок на "нехорошие сайты" для искусственного увеличения PR.

4. Однажды я видел, как Гугл пессимизирует за подобные вещи таким способом:
Робот начинает ходить на сайт нерегулярно, хотя если ходит то все индексирует по-прежнему, в этом случае пессимизация заключается в нерегулярности визитов. Или, например, у пессимизированных сайтов не отображаются даты обновления.

Поэтому, лучше "меньше да лучше", т.е. крайне желательно не ссылаться на сайты с заведомо плохой репутацией. Часто проверяйте состояние исходящих ссылок. Во многих случаях поисковик не в состоянии принять правильное решение о пессимизации, даже если сайт ссылается на линкопомойку.

Например возьмем каталоги: человек добавляет сайт, модератор делает обзор сайта, на момент обзора сайт хорош, и модератор добавляет его в каталог. Через пару месяцев этот же сайт достается поисковому спамеру, и он пользуется для продвижения всевозможными запрещенными техниками. Гугл определяет это и пессимизирует сайт. А теперь вопрос: достоин ли сайт-каталог того, чтобы его пессимизировали за ссылку на сайт, у которого внезапно поменялся владелец? Нет, человек или компания-владелец каталога не могли знать, что у сайта сменился хозяин, и что он пользуется методами поискового спама, Google это понимает. Именно поэтому к каждой технике спама так сложно применять необходимые санкции.

Вы видели в Google directory, у некоторых сайтов PR=0 и они располагаются в конце списка? Большинство из них пессимизировано (хотя некоторые могут на самом деле иметь нулевой PR), это, однако не означает, что вся категория песссимизирована, и именно это я имел ввиду выше, очень трудно наложить санкции на сайт из-за исходящих ссылок на "плохие сайты", но в любом случае, какие-то санкции последуют, пусть и самые небольшие.

НЕ спамьте гостевые книги

Спам гостевых, или просто ссылки из них, это все равно что ссылки со страниц, куда свою ссылку может добавить кто угодно. Когда PR еще только внедрили, люди начали делать разные страницы с большим количеством ссылок, перегружая ими гостевые книги сайтов, чтобы повысить собственное ссылочное ранжирование и PR, но теперь Гугл научился бороться с этим, и большинство ссылок с подобных страниц игнорируется.

Я думаю, что гостевые книги полностью игнорируются Гуглом, возможно с помощью анализаторов кода, ведь последовательность некоторых элементов кода одинакова для большинства гостевых. Не ссылайтесь на проспамленную гостевую, и не спамьте ее сами.


Источник
Searchenginegenie.com

Права на русский перевод принадлежат Webmasterpro.com.ua


Источник: www.webmasterpro.com.ua





Если вы хотите разместить свою статью или новость - присылайте ее по адресу .