Sibprompost.ru

Стройка и ремонт
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Как лучше закрыть счетчики от индексации

Как закрыть код счетчика от индексации

Почему страницы сайта выпадают из индекса

Певица Zivert стала новым голосом Яндекс.Карт

nofollow — это значение атрибута rel тега « a » языка гипертекстовой разметки веб-страниц HTML ( rel=»nofollow» ). Значение предназначено для поисковых систем: оно указывает им на то, что гиперссылка, задаваемая « a », не передает свой вес той странице, на которую ссылается.

Для запрета индексирования служебных участков текста вы можете использовать тег

При необходимости сделать код сайта валидным возможно использование тега в следующем формате:

закрывайте и от индексирования, и от передачи веса, если Вам так угодно.

Не надо их закрывать ☝

nofollow — это значение атрибута rel тега « a » языка гипертекстовой разметки веб-страниц HTML ( rel=»nofollow» ). Значение предназначено для поисковых систем: оно указывает им на то, что гиперссылка, задаваемая « a », не передает свой вес той странице, на которую ссылается.

закрывайте и от индексирования, и от передачи веса, если Вам так угодно.

а так можно, если несколько счетчиков каждый отдельно закрывать или все сразу можно закрыть?

gtmetrix ругается говорит уберите редиректы

ну хочет ведь человек, почему бы и нет ?

не спрашивает ведь, хорошо это или плохо.

Я тоже не вижу смысла, но ТС виднее -)

не знаю, сам никогда таким не занимался, Вы попробуйте сразу все закрыть, напишите — получилось или нет. Возможно кому-то после Вас пригодится

makag:
ну хочет ведь человек, почему бы и нет ?

не спрашивает ведь хорошо это или плохо.

Я тоже не вижу смысла, но ТС виднее -)

проводил небольшой платный сео анализ и мне сказали закрыть счетчики чтоб вес не передавал

А Вам чем плохо, что вес передастся на сервисы статистики?

Kayrat, может просто удалить счётчики?

я тоже всегда яро закрывал их тегом . , сейчас наоборот, все открыл, че прятать то, нет там ничего «криминального»

ну а так, то это дело каждого

вместе с сайтом, чтобы ни кому ничего не досталось))))

а я вполне серьёзно, толку от них в 90% нет ни какого, один вред — они тормозят работу сайта на клиенте 🙁

а что предлагаете, просто код статистики оставить?, ну так тогда у ТС возникнет следующий вопрос, — «как закрыть код статистики?»

Закрытие ссылок и текста от индексации

Каждый сайт «при жизни» различными путями набирает внешние входящие ссылки , а отдает — исходящие. Наращивание внешней ссылочной массы это большой плюс для веб-сайта, а наличие на нем исходящих сносок — минус.

Все ссылки учитываются при ранжировании сайтов в табеле о рангах. Чем больше качественных, естественных и имеющих большой вес входящих гиперссылок на сайт и меньше исходящих, тем больше «звезд на погонах» у ресурса, и тем выше его позиции в поисковой выдаче .

Таким образом, чтобы web -сайт ничего не терял, нужно по возможности, не размещать на его страничках исходящие сноски на сторонние ресурсы, а те без которых обойтись никак нельзя, принудительно закрывать от индексации.

Для этих целей существуют специальные теги — nofollow и noindex .

Читайте так же:
Метрика счетчик по запросам

Ниже кратко и доходчиво разъяснены все понятия и обозначения, а также как применять эти теги на практике.

Входящая ссылка — это сноска на сайт с другого источника.

Исходящая ссылка — это гиперссылка с ресурса на сторонний интернет-проект.

Тег N ofollow — html -код, используемый для запрета индексации веб-ссылки для поисковых систем Яндекс и Google .

Тег Noindex — применяется для закрытия от индексации текстовой информации.

Этим тегом можно скрыть дублирующий или иной текст от «глаз» поисковых роботов, причем для посетителей веб-сайта он останется виден.

Обнаружить на ресурсе внутренние и исходящие ссылки в режиме онлайн можно с помощью инструмента сервиса — http://pr-cy.ru/link_extractor/

К сожалению, анализ проводится только по одной конкретной веб-странице, а не сайта целиком, то есть придется поочередно анализировать все разделы. При помощи данного инструмента вы получите информацию о количестве исходящих и внутренних ссылок на проверяемой страничке, а также URL -адреса сносок, их анкоры (текстовые названия).

Еще один подобный сервис для аудита в режиме онлайн — http://mainspy.ru/analiz_ssylok_sajta

Недостатком данного анализатора является то, что не указывается анкор гиперссылок и наличие используемых специальных тегов.

Ниже на примерах рассмотрено, как тегами «нофоллоу» и «ноиндекс» скрываются исходящие сноски и текстовая информация от индексации. В Html -коде ссылки или текста необходимо самостоятельно добавить специальный атрибут и дать команду на сохранение внесенных изменений.

Для закрытия ссылки

Для скрытия текста

noindex > Текст, который нужно спрятать от поисковых роботов noindex >

noindex —> Анонс статьи, который прячется от индексирования noindex —>

Для закрывания ссылки и текста одновременно

noindex > Текст, который укрываем a rel =» nofollow » href =» http ://сайт.ру/»>Название веб-ссылки a > noindex >

Скрываемый от индексации абзац a href = http ://сайт.ру/ rel =» nofollow » >Название сноски на источник a >

Для запрета индексации кода счетчика посещаемости

noindex > код счетчика или информера noindex >

noindex —> код информера или счетчика целиком noindex —>

Если в html -коде счетчика посещаемости используется JavaScript , то поисковыми системами такой код изначально не учитывается, соответственно закрывать его от индексации нет необходимости.

Например , счетчик LiveInternet

Практические решения закрытия сайта или его части от индексации

Зачем закрывают сайт или какие-то его части от индексации поисковых систем? Ответов несколько

  • Нужно скрыть от общего доступа какую то секретную информацию.
  • В целях создания релевантного контента: бывают случаи, когда хочется донести до пользователей больше информации, но она размывает текстовую релевантность.
  • Закрыть дублированный контент.
  • Скрыть мусорную информацию: поисковые системы очень не любят контент, который не несет или имеет устаревший смысл, например, календарь в афише.

Вся статья будет неким хелпом по закрытию от индексации для различных ситуаций:

Решение: запрет на индексацию сайта с помощью robots.txt

Создаем текстовый файл с названием robots, получаем robots.txt.
Копируем туда этот код

Полученный файл с помощью FTP заливаем в корень сайта.

Если нужно закрыть индексацию сайта только от Яндекс:

Если же скрываем сайт только от Google, то код такой:

Закрыть сайт от индексации в файле .htaccess

Способ первый

В файл .htaccess вписываем следующий код:

Читайте так же:
Население болгарии счетчик населения

Каждая строчка для отдельной поисковой системы

Способ второй и третий

Для всех страниц на сайте подойдет любой из вариантов — в файле .htaccess прописываем любой из ответов сервера для страницы, которую нужно закрыть.

  • Ответ сервера — 403 Доступ к ресурсу запрещен -код 403 Forbidden
  • Ответ сервера — 410 Ресурс недоступен — окончательно удален

Способ четвертый

Запретить индексацию с помощью доступа к сайту только по паролю

В файл .htaccess, добавляем такой код:

Авторизацию уже увидите, но она пока еще не работает

Теперь необходимо добавить пользователя в файл паролей:

USERNAME это имя пользователя для авторизации. Укажите свой вариант.

Задача: закрыть от индексации поддомен

Поддомен для поисковых систем является отдельным сайтом, из чего следует, что для него подходят все варианты того, как закрыть от индексации сайт.

Закрываем блок на сайте от индекса

Довольно часто требуется закрыть от индексации определенный блок: меню, счетчик, текст или какой-нибудь код.

Когда был популярен в основном Яндекс, а Google все само как то в топ выходило, все использовали вариант Тег «noindex»

Но потом Яндекс все чаще и чаще стал не обращать внимания на такой технический прием, а Google вообще не понимает такой комбинации и все стали использовать другую схему для скрытия от индексации части текста на странице — с помощью javascript:

Текст или любой блок — кодируется в javascript , а потом сам скрипт закрывается от индексации в robots.txt

Как это реализовать?

  • Файл BASE64.js для декодирования того, что нужно скрыть.
  • Алгоритм SEOhide.js.
  • Jquery.
  • Robots.txt (чтобы скрыть от индексации сам файл SEOhide.js)
  • HTML код

BASE64.js. Здесь я его приводить не буду, в данном контексте он нам не так интересен.

Переменные seoContent и seoHrefs. В одну записываем html код, в другую ссылки.

    • de96dd3df7c0a4db1f8d5612546acdbb — это идентификатор, по которому будет осуществляться замена.
    • 0JHQu9C+0LMgU0VPINC80LDRgNC60LXRgtC+0LvQvtCz0LAgLSDQn9Cw0LLQu9CwINCc0LDQu9GM0YbQtdCy0LAu— html, который будет отображаться для объявленного идентификатора.

И сам HTML файл:

В robots.txt обязательно скрываем от индексации файл SEOhide.js.

Универсальный вариант скрытия картинок от индексации

К примеру, вы используете на сайте картинки, но они не являются оригинальными. Есть страх, что поисковые системы воспримут их негативно.

Код элемента, в данном случае ссылки, на странице, будет такой:

Скрипт, который будет обрабатывать элемент:

Задача: закрыть внешние или внутренние ссылки от индексации

Обычно это делают для того, чтобы не передавать вес другим сайтам или при перелинковке уменьшить уходящий вес текущей страницы.

Создаем файл transfers.js
Эту часть кода вставляем в transfers.js

Этот файл, размещаем в соответствующей папке (как в примере «js») и на странице в head вставляем код:

А это и есть сама ссылка, которую нужно скрыть от индексации:

Как закрыть от индексации страницу на сайте

  • 1 Вариант — в robots.txt

Disallow: /url-stranica.html

  • 2 Вариант — закрыть страницу в метегах — это наиболее правильный вариант
  • 3 Вариант — запретить индексацию через ответ сервера

Задача, чтобы ответ сервера для поисковых систем был
404 — ошибка страницы
410 — страница удаленна

Добавить в файл .htaccess:

Читайте так же:
Бланк для списания счетчиков

это серый метод, использовать в крайних мерах

Как закрыть от индексации сразу весь раздел на проекте

1 Вариант реализовать это с помощь robots.txt

Также подойдут варианты, которые используются при скрытии страницы от индекса, только в данном случае это должно распространятся на все страницы раздела — конечно же если это позволяет сделать автоматически

  • Ответ сервера для всех страниц раздела
  • Вариант с метатегами к каждой странице

Это все можно реализовать программно, а не в ручную прописывать к каждой странице — трудозатраты — одинаковые.

Конечно же проще всего это прописать запрет в robots, но наша практика показывает, что это не 100% вариант и поисковые системы бывает игнорируют запреты.

Закрываем папку от индексации

В данном случае под папкой имеется ввиду не раздел,а именно папка в которой находят файлы, которые стоит скрыть от поисковых систем — это или картинки или документы

Единственный вариант для отдельной папки это реализация через robots.txt

Пять вариантов закрыть дубли на сайте от индексации Яндекс и Google

1 Вариант — и самый правильный, чтобы их не было — нужно физически от них избавиться т.е при любой ситуации кроме оригинальной страницы — должна показываться 404 ответ сервера

2 Вариант — использовать Атрибут rel=»canonical» — он и является самым верным. Так как помимо того, что не позволяет индексироваться дублям, так еще и передает вес с дублей на оригиналы

Ну странице дубля к коде необходимо указать

3 Вариант избавиться от индексации дублей — это все дублирующие страницы склеить с оригиналами 301 редиректом через файл .htaccess

4 Вариант — метатеги на каждой странице дублей

5 Вариант — все тот же robots

Если что то упустили, будем рады любым дополнениям в комментариях.

Как закрыть контент от индексации — пошаговое руководство

Больше полезных статей, кейсов и мануалов. Подпишись на обновления!

Иногда возникают такие ситуации, когда нужно Закрыть от индексации часть контента. Пример такой ситуации мы рассматривали здесь.

Также, иногда нужно:

  • Скрыть от поиска техническую информацию
  • Закрыть от индекса не уникальный контент
  • Скрыть сквозной,повторяющийся внутри сайта, контент
  • Закрыть мусорные страницы, которые нужны пользователям, но для робота выглядят как дубль

Постараемся в данной статье максимально подробно расписать инструменты при помощи которых можно закрывать контент от индексации.

Закрываем от индексации домен/поддомен:

Для того, чтобы закрыть от индексации домен, можно использовать:

1. Robots.txt

В котором прописываем такие строки.

При помощи данной манипуляции мы закрываем сайт от индексации всеми поисковыми системами.

При необходимости Закрыть от индексации конкретной поисковой системой, можно добавить аналогичный код, но с указанием Юзерагента.

Иногда, же бывает нужно наоборот открыть для индексации только какой-то конкретной ПС. В таком случае нужно составить файл Robots.txt в таком виде:

Таким образом мы позволяем индексировать сайт только однайо ПС. Однако минусом есть то, что при использовании такого метода, все-таки 100% гарантии не индексации нет. Однако, попадание закрытого таким образом сайта в индекс, носит скорее характер исключения.

Для того, чтобы проверить корректность вашего файла Robots.txt можно воспользоваться данным инструментом просто перейдите по этой ссылке http://webmaster.yandex.ru/robots.xml.

Читайте так же:
Приложение счетчик для такси

2. Добавление Мета-тега Robots

Также можно закрыть домен от индексации при помощи Добавления к Код каждой страницы Тега:

META NAME=»ROBOTS» CONTENT=»NOINDEX, NOFOLLOW»

Куда писать META-тег “Robots”

Как и любой META-тег он должен быть помещен в область HEAD HTML страницы:

Данный метод работает лучше чем Предыдущий, темболее его легче использовать точечно нежели Вариант с Роботсом. Хотя применение его ко всему сайту также не составит особого труда.

3. Закрытие сайта при помощи .htaccess

Для Того, чтобы открыть доступ к сайту только по паролю, нужно добавить в файл .htaccess, добавляем такой код:

После этого доступ к сайту будет возможен только после ввода пароля.

Защита от Индексации при таком методе является стопроцентной, однако есть нюанс, со сложностью просканить сайт на наличие ошибок. Не все парсеры могут проходить через процедуру Логина.

Закрываем от индексации часть текста

Очень часто случается такая ситуация, что необходимо закрыть от индексации Определенные части контента:

  • меню
  • текст
  • часть кода.
  • ссылку

Скажу сразу, что распространенный в свое время метод при помощи тега не работает.

Тут мог находится любой контент, который нужно было закрыть

Однако существует альтернативный метод закрытия от индексации, который очень похож по своему принципу, а именно метод закрытия от индексации при помощи Javascript.

Закрытие контента от индексации при помощи Javacascript

При использовании данного метода текст, блок, код, ссылка или любой другой контент кодируется в Javascript, а далее Данный скрипт закрывается от индексации при помощи Robots.txt

Такой Метод можно использовать для того, чтобы скрыть например Меню от индексации, для лучшего контроля над распределением ссылочного веса. К примеру есть вот такое меню, в котором множество ссылок на разные категории. В данном примере это — порядка 700 ссылок, если не закрыть которые можно получить большую кашу при распределении веса.

Данный метод гугл не очень то одобряет, так-как он всегда говорил, что нужно отдавать одинаковый контент роботам и пользователям. И даже рассылал письма в средине прошлого года о том, что нужно открыть для индексации CSS и JS файлы.

Подробнее об этом можно почитать тут.

Однако в данный момент это один из самых действенных методов по борьбе с индексацией нежелательного контента.

Точно также можно скрывать обычный текст, исходящие ссылки, картинки, видео материалы, счетчики, коды. И все то, что вы не хотите показывать Роботам, или что является не уникальным.

Как закрыть от индексации конкретную страницу:

Для того, чтобы закрыть от индекса конкретную страницу чаще всего используются такие методы:

  • Роботс txt
  • Мета robots noindex

В случае первого варианта закрытия страницы в данный файл нужно добавить такой текст:

Таким образом данная страница не будет индексироваться с большой долей вероятности. Однако использование данного метода для точечной борьбы со страницами, которые мы не хотим отдавать на индексацию не есть оптимальным.

Так, для закрытия одной страницы от индекса лучше воспользоваться тегом

META NAME=»ROBOTS» CONTENT=»NOINDEX, NOFOLLOW»

Для этого просто нужно добавить в область HEAD HTML страницы. Данный метод позволяет не перегружать файл robots.txt лишними строчками.

Читайте так же:
Муп водоканал установка счетчиков

Ведь если Вам нужно будет закрыть от индекса не 1 страницу, а к примеру 100 или 200 , то нужно будет добавить 200 строк в этот файл. Но это в том случае, если все эти страницы не имеют общего параметра по которому их можно идентифицировать. Если же такой параметр есть, то их можно закрыть следующим образом.

Закрытие от индексации Раздела по параметру в URL

Для этого можно использовать 2 метода:

  • Txt
  • Meta robots

Рассмотрим 1 вариант

К примеру, у нас на сайте есть раздел, в котором находится неуникальная информация или Та информация, которую мы не хотим отдавать на индексацию и вся эта информация находится в 1 папке или 1 разделе сайта.

Тогда для закрытия данной ветки достаточно добавить в Robots.txt такие строки:

Если закрываем папку, то:

Если закрываем раздел, то:

Также можно закрыть определенное расшерение файла:

Данный метод достаточно прост в использовании, однако как всегда не гарантирует 100% неиндексации.

Потому лучше в добавок делать еще закрытие при помощи

META NAME=»ROBOTS» CONTENT=»NOINDEX”

Который должен быть добавлен в секцию Хед на каждой странице, которую нужно закрыть от индекса.

Точно также можно закрывать от индекса любые параметры Ваших УРЛ, например:

?”любой повторяющийся параметр”

Однозначно самым простым вариантом является закрытие от индексации при помощи Роботс.тхт, однако, как показывает практика — это не всегда действенный метод.

Методы, с которыми нужно работать осторожно:

Также существует достаточно грубый метод Закрытия чего — либо от роботов, а именно запрет на уровне сервера на доступ робота к конкретному контенту.

1. Блокируем все запросы от нежелательных User Agents

Это правило позволяет заблокировать нежелательные User Agent, которые могут быть потенциально опасными или просто перегружать сервер ненужными запросами.

В данному случае плохим ботом можно указать Любую поисковую машину, парсер либо что либо еще.

Подобные техники используются например для скрытия от робота Ахрефса ссылки с сайта, который был создан/сломан, чтобы конкуренты сеошники не увидели истинных источников ссылочной массы сайта.

Однако это метод стоит использовать если вы точно знаете, что хотите сделать и здраво оцениваете последствия от этих действий.

Использование HTTP-заголовка X-Robots-Tag

Заголовок X-Robots-Tag, выступает в роли элемента HTTP-заголовка для определенного URL. Любая директива, которая может использоваться в метатеге robots, применима также и к X-Robots-Tag.

В X-Robots-Tag перед директивами можно указать название агента пользователя. Пример HTTP-заголовка X-Robots-Tag, который запрещает показ страницы в результатах поиска различных систем:

В заключение

Ситуации, когда необходимо закрыть контент от индексации случаются довольно часто, иногда нужно почистить индекс, иногда нужно скрыть какой-то нежелательный материал, иногда нужно взломать чужой сайт и в роботсе указать disalow all, чтобы выбросить сайт зеркало из индекса.

Основные и самые действенные методы мы рассмотрели, как же их применять — дело вашей фантазии и целей, которые вы преследуете.

Хорошие статьи в продолжение:

А что вы думаете по этому поводу? Давайте обсудим в комментариях!)

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector