Может. И даже очень сильно.
К счастью не часто, но к нам систематически обращаются владельцы сайтов с одним и тем же вопросом: "почему поисковая система уже полгода/год не видит наш сайт?".
При анализе ресурса выясняется, что причина банальна - сам сайт запрещает поисковой системе индексировать его содержимое с помощью файла robots.txt.
Почему так происходит?
Возможны несколько вариантов:
- Вы продвигали свой сайт у компании или фрилансера и когда прекратили оплачивать их услуги - Вам решили отомстить.
- Вы производили обновление/доработку своего сайта и разработчик нечаянно скопировал этот файл с другого сайта.
- На время наполнения сайта контентом (пока сайт был еще пустым или с шаблонным контентом от разработчика) Вы сами или ваш оптимизатор установил подобный запрет и забыл о нём.
Вариантов может быть много, но нас интересует вопрос не "кто виноват?", а "что делать?".
Для начала нужно поверить в себя. Не нужно пугаться незнакомых терминов и считать, что проверить свой сайт Вы можете только через гуру поисковой оптимизации.
Всё значительно проще.
Наберите в адресной строке (это - тут, см.ниже) адрес своего сайта, а после адреса "/robots.txt".
Далее, Вы увидите параметры (как вариант):
В файле могут быть и другие параметры, главное, обратите внимание:
1. На наличие в этом файле названий посторонних сайтов.
2. На наличие директив Disallow: / и Disallow: *.
Во втором случае всё критично, т.к. подобные директивы запрещают индексацию вашего сайта поисковыми системами.
Если же Вы найдете названия посторонних сайтов - то проблема возможна, но не обязательна.
В любом случае, если Вы нашли описанную выше проблему или Вас просто "терзают" смутные сомнения - обратитесь к нашим специалистам.
В течение часа мы БЕСПЛАТНО проверим наличие проблемы, и если она есть, то (для наших Клиентов) опять же БЕСПЛАТНО её устраним.
Понравилась публикация? Подписывайтесь >>