Если вы всерьез занимаетесь развитием своего сайта, то наверняка часто обновляете контент.
И это правильно – полезная информация помогает вашим Клиентам решать важные вопросы, а вам создает хорошую репутацию.
Но подозреваете ли вы о том, что плодами ваших трудов может воспользоваться кто-то другой?
Если Вы не горите желанием оплачивать из собственного кармана успехи конкурентов – читайте эту статью дальше.
Рассмотрим ситуацию: вы заказали хороший продающий текст у профессионального копирайтера и заплатили несколько тысяч рублей. Вы абсолютно справедливо считаете, что права на этот текст принадлежат вам, и именно ваш сайт должен быть «первоисточником» для поисковых систем.
Но разместив его на только что созданной странице или в разделе, куда «не доходили руки» уже несколько месяцев, Вы, возможно, не учли один весьма важный фактор: скорость индексации.
Поисковые системы, такие как Яндекс и Google, «узнают» об изменениях на сайте не в момент публикации материала, а спустя некоторое время, когда специальный поисковый робот просканирует разделы, сравнит с результатами предыдущего обхода и внесет соответствующие коррективы.
Проблема заключается в том, что вы не можете предугадать, когда робот решит посетить ваш ресурс – это определяется закрытыми алгоритмами поисковых систем.
Если за время его отсутствия ваш текст скопирует конкурент, и другой поисковый робот найдет его там раньше, чем на вашем ресурсе – Вы из блистательного автора тут же превратитесь в недобросовестного плагиатора.
То есть деньги платили Вы, а плоды пожинает конкурент.
Более того, если такая ситуация повторится не единожды – ваш сайт будет понижаться в рейтинге поисковых систем за злостное воровство чужого контента.
Вы будете тратить деньги на продвижение сайта, даже не подозревая о том, что работаете на чужой ресурс!
Вопрос защиты авторских прав в сети остается острым до сих пор.
В сервисе Яндекс Вебмастер для этих целей предусмотрены сразу три функции: «Оригинальные тексты», «Мониторинг важных страниц» и «Переобход страниц».
В Search Console, схожем сервисе от Google, таких функций нет. Однако возможность пригласить робота быстро проиндексировать новый важный материал все-таки имеется. Эта функция для многих неочевидна, иначе не появилась бы данная статья, но вы будете о ней знать и грамотно использовать.
Рассмотрим ее подробнее по шагам.
ВНИМАНИЕ: в виду обновления сервиса Google Search Console, актуальная информация по добавлению в индекс и повторному сканированию страниц доступна по ссылке>>
Шаг 1. Войдите в Google Search Console и перейдите в настройки вашего сайта. (Как добавить сайт в сервис подробно описано в отдельной статье.) Для этого кликните на адрес главного зеркала вашего ресурса (см. как настроить главное зеркало).
Шаг 2. Раскройте выпадающее меню «Сканирование» и выберите пункт «Просмотреть как Googlebot».
Для этого перейдите в старую версию сервиса:
Шаг 3. Введите адрес нужной страницы сайта в поле и нажмите кнопку «Сканировать».
Шаг 4. Напротив отобразившегося адреса нужной страницы нажмите кнопку «Запросить индексирование».
Шаг 5.
1. Убедитесь, что отправляете на сканирование нужную страницу.
2. Поставьте галочку «Я не робот».
3. Выберите пункт «Сканировать только этот URL».
4. Нажмите на кнопку «Отправить».
5. Если окошко не закрылось само – нажмите на крестик в правом верхнем углу.
Шаг 6. Обновите страницу и убедитесь, что появилась надпись «Отправлен запрос на индексирование».
Страница успешно отправлена на индексацию, а вы теперь знаете, что делать в экстренных случаях, когда нужно срочно разместить важный текст и сохранить за собой авторские права.
Конечно же, в наше бурное время это не дает 100% гарантии, но весьма существенно повышает шансы защитить себя от веб-мастеров, действующих по принципу «чужого не надо, но свое возьмем, кому бы ни принадлежало».
Что еще можно сделать для того, чтобы защитить себя от возможных потерь в сети?
1. Зарегистрируйте свой сайт в сервисах Яндекс Вебмастер и Google Search Console. Если у вас новый сайт, то таким образом вы сообщите поисковым системам о его существовании. Если ваш сайт уже имеет определенный возраст – это позволит узнать как видят ваш сайт поисковые системы, какие ошибки с их точки зрения содержатся на вашем ресурсе, а также вы получите возможность настроить регулярное посещение роботов и запрашивать срочные переобходы важных страниц.
2. Установите системы сбора статистики Яндекс Метрика и Google Analytics. Сбор статистики посещаемости откроет вам истинное положение вещей, поможет внести необходимые коррективы, а поисковым системам позволит ранжировать ваш ресурс более адекватно.
3. Проверьте файлы robots.txt и sitemap.xml. Нередко обнаруживается, что нужные разделы сайта не индексируются поисковыми системами из-за неверных настроек в этих файлах. Это чревато тем, что даже запрос на быстрый переобход важных страниц не возымеет ожидаемого эффекта, поскольку раздел, где размещена важная статья, попросту закрыт для роботов.
Вы, безусловно, можете разобраться со всем этим самостоятельно. Но если ваше время стоит дорого, и для вас крайне неразумно тратить его на то, чтобы вникать во всю эту "премудрость" – обратитесь к профессионалам.
Успехов! Пусть ваши важные статьи всегда «выстреливают» первыми в Топ-10.
//Виктор Сушин специально для портала CiTRON-ONLINE.ru
Есть вопросы? Обращайтесь. Будем рады на них ответить.