Бизнес в интернете - подписная база

Книга:

"Как создавать эффективную базу подписчиков и увеличивать ваши продажи и прибыль!"

Чтобы получить книгу, введите имя, e-mail и нажмите кнопку

Бизнес в интернете с нуля с Сергеем Тиссеным
Smart Redirector 3.0 систематизирует множество ваших ссылок в категории и делает перенаправление (редирект) на новый адрес в зависимости от задаваемых вами условий. И весь процесс интуитивно понятен.

Запрет индексации https с помощью .htaccess

30/05/2007  

И так, в этот раз хотел бы рассказать о небольшой проблемке, возникшей на одном из моих сайтов. А случилось следующее, Google умудрился “съесть” https-версию сайта, мало того, он выбрал основным зеркалом https-морду. Стоит ли говорить, что позиции сайта после такого нежелательного увеличения дублей (а https версия сайта была точной копией http версии, и собственно не предназначалась для поисковых ботов) просели.

Первым делом иду смотреть что посоветует сам Google… google.com/support/webmasters

Для каждого порта должен быть создан собственный файл robots.txt. В частности, если используются протоколы http и https, для каждого из них потребуются отдельные файлы robots.txt. Например, чтобы разрешить поисковому роботу Google индексировать все страницы http и запретить сканировать https, файлы robots.txt должны выглядеть так, как описано ниже.

Для протокола http (http://server.ru/robots.txt):

User-agent: * Allow: /

Для протокола https (https://server.ru/robots.txt):

User-agent: * Disallow: /

Но что делать если http и https-файлы сайта лежат в одной папке?

В данной ситуации на помощь придет файл .htaccess - создаем для сайта два файла robots.txt, первый файл будет содержать все необходимые для нормальной индексации сайта инструкции, а второй будет полностью запрещать индексацию - Disallow: / - как и рекомендует Google. Второй файл мы назовем robots-https.txt, а в .htaccess запишем такие строки:

RewriteEngine on

RewriteCond %{HTTPS} on
RewriteRule ^robots.txt$ robots-https.txt

Что это значит на практике? При обращении поискового робота к сайту через http паук получает стандартный файл robots.txt, а при обращении через https-порт поисковый бот получит файл robots-https.txt в котором полностью запрещена индексация сайта.

После проведения описанной выше процедуры на третьи сутки все https-страницы моего сайта из базы Google исчезли. Надеюсь кому-нибудь пригодится этот небольшой опыт

Автор: SEO Swift.org SEO Swift.org

  • Иван
    09/03/2011 14:47
    Этот способ хороший, но он работает не на всех апачах.
Обсуждение

Есть что сказать?








В каком году Россия победила во Второй Мировой Войне? (4 цифры)


    Другие статьи по этой теме