Следует ли оптимизировать сайты интрасети или сайты, доступ к которым защищен?

  • 1 сентября 2020
  • SEO

" Привет,

У меня быстрый вопрос по SEMrush.

Можно ли с помощью SEM Rush или другого инструмента восстановить данные профессионального пространства веб-сайта (защищенного паролем)?

dixneuf.com - Общедоступный сайт

https://integralpro.dixneuf.com/  – Espace professionnel en sous domaine

Заранее спасибо, Дориан 🙂 »


Привет, Дориан,

Цель SEMrush - помочь сайтам стать более заметными.

Сайт, защищенный паролем или доступный только из внутренней сети компании, не стремится к публичной видимости.

Следовательно, логически он не предназначен для оптимизации для SEO и сканирования различными роботами, включая SEMrush.

Вопрос, с другой стороны, в возможности рассказать о файле robots.txt и уточнить его работу.

Этот файл можно использовать для каждого домена И для каждого поддомена.

В этом случае, например, действительно существует другой файл robots.txt для https://www.dixneuf.com/robots.txt:

… А для https://integralpro.dixneuf.com/robots.txt:

Этому дается указание заблокировать всех роботов, включая Google Bot.

Следовательно, при вводе "site:": никакая страница не индексируется:

Электронная коммерция похожа на супермаркет. Его менеджер определяет предлагаемые продукты и пытается направить его по пути (без приема = голова гондолы).

С другой стороны, у заказчика нет доступа к офисам и резервам;).

Я получил свой первый доход в Интернете в 2012 году, развивая и монетизируя трафик своих сайтов (AdSense ...).


С 2013 года, когда я получил первые профессиональные услуги, у меня была возможность участвовать в разработке более 450 сайтов в более чем +20 странах.

Также читайте в блоге

Просмотреть все статьи
Без комментариев

Комментарий ?