Урок 33 — Полуавтоматическое создание robots.txt на Битрикс (создание интернет-магазина с нуля)

Автор Nadezhda Belousova
Урок 33 — Полуавтоматическое создание robots.txt на Битрикс (создание интернет-магазина с нуля)

оптимизации которые у нас появилась в битриксе четырнадцатой версии вот буквально недавно 2 недели назад вышел.

Битрикс уже в стабильной версии в 14 и появились нововведения появились много очень все нововведения появились нововведению каталога появились единицы измерения появились комплекты появились наборы то есть некоторые виды там много очень опять новинок год назад когда кардинально переделали интернет-магазин сейчас тоже очень сильно работает интернет магазин он стал. Ещё функциональной ещё лучше ещё быстрее должны были доработать фильтр он стал работать быстрее ну, а мы с вами сейчас ближайшие уроки будем говорить о новых возможностях для SEO оптимизации. Все вы понимаете, что а-силуэта сердце Engine optimization очень важно для любого сайта магазина хоть для какого-то простого там портала или домашней странички чем больше вас находит в поиске тем больше вы продаете если — это интернет-магазин поэтому мы с вами идём подопытный сайт — это фотолэнд идём в административный раздел и сегодня мы с вами будем разговаривать о настройки файла robots.txt.

Раньше я уже показывал как настраивать области кстати сейчас покажу где у меня есть этот урок на моём блоге чтобы вы не заблудились можно настраивать и по-старому и по-новому по-старому.

Я показывал как — это вот если мы зайдём подстригусь и, а то здесь как раз вот запрет поисковый индексации через robots.txt здесь же у нас есть регистрация карты сайта в. Гугле в. Яндексе Ну ещё некоторые другие уроки которые касаются именно SEO и здесь мы настраивали вот, скоро через файл robots.txt здесь мы настраивались сам файл robots.txt вручную и его на свой сайт на битриксе прикрепляли. Ну и там. Я показывал как — это делается. Какие разделы лучше закрыть какие нет если вам интересно. Эти подробности заходите смотрите этот урок там много интересного здесь у нас сейчас многие вещи просто автоматизированные то есть нам не надо смену за ручки не писать всё — это можно сделать в полуавтоматическом режиме и так мы идём с вами в админку идёт с вами в сервисы в сервисах находим поисковую оптимизацию, а то у нас только на версии появилась и идём в настройку robots.txt. Когда вы нажмете на эту ссылочку у вас если не создан файл robots.txt — это появится. Вот эта надпись, что файл не найден его необходимо как можно быстрее создать. Есть ли у вас файл уже есть то он у вас определиться и здесь у вас заполнить подачки исходя из того, что у вас есть уже в этом файле поэтому не бойтесь вы файл никуда не потеряйте есть у вас уже создан вы просто можете его сейчас более удобно настраивать не в ручном. А в таком вот в автоматическом режиме с помощью админке битрикса. Но мы с вами сейчас. Смотрим как будто бы файла нет то есть у нас его вообще нет чтобы посмотреть, что такое там стартовый набор то есть мы с вами сразу попадал на первую складочку — это общее правило для всех поисковых систем есть отдельная складочки ещё для. Яндекса то есть для поисковой оптимизации только на. Яндексе 10 дней накладочка для. Гугла и есть отдельно палочка редактировать — это если бы вы просто взяли этот файл robots.txt открыли в текстовом редакторе начали редактировать вот эта вкладка. Именно для этого можно прямо из админки в ручном режиме тоже. Ну и общие правила — это те правила которые применяются для всех роботов поэтому weddywood user-agent: звёздочка то есть иди правила будут применяться ко всем роботом. Ну и — это самый распространенный тип правил в принципе который применяется кстати сразу, что внизу везде на каждый складочки есть вот такие 2 ссылочки — это руководство по управлению валиком robots.txt в документации. Яндекса и. Гугла Если вам нужны какие-то ещё дополнительные подробности заходите смотрите там достаточно подробно всё написано в строчке искать не надо не прямо здесь и так первое, что нам надо сделать — это создать стартовый набор специально для сайта на битриксе если мы нажимаем набор нам надо выбрать главное зеркало главное зеркало — это тот адрес сайта который будет считаться в основном есть у вас. Основной сайт SW пишите своего. Есть ли без у меня-то — это в убираете у меня потому, что с. Домино BMW. Всё redirect. Яйца прямо на biz.ru и в в принципе не надо то есть два сайта продвигать одновременно посева в поисковых системах — это скажем так излишне. Это лишнее трудозатраты — это вам не надо поэтому. Выбирайте какой-то. Основной сайт который вы продвигаете со всех остальных адресов если у вас там есть вы или ещё что-то вы просто сделали переадресацию на основной на главное зеркало и его и я сохраняю. Всё у нас появился стартовый набор правил и так вот мы видим, что здесь у нас для всех. Мы видим, что у нас вот здесь появилось много строчек с запретами и мы видим стручка. Хоста joom.ru — это и есть главное зеркало. То есть у нас автоматически создали правила например ядро у нас не индексируется то есть вот то, что у нас начинается здесь — это значит, что эти, а папки и файлы не надо индексировать и здесь же у нас есть куча куча всяких дополнительных параметров. Чтобы у нас не индексировались ссылочки которые идут например для очистки кэша которые идут на для сравнения файлов которые идут там для значит регистрации заказа подтверждение заказа для постраничной навигации значит страницы для печати и так далее так далее так далее. Вот — это всё у нас отец в том числе ссылочки которые ведут из встречаюсь и так далее и ссылочки которые у нас идут из поисковых систем. Если вы используете значит метки для того чтобы смотреть откуда на сайт — это тоже всё откидывается то есть у нас учитываются только прямые адреса, но здесь ещё не всё нам ещё дополнительно. Надо запрещать некоторые другие которые здесь. Нина и папочки которые у нас используется на сайте. Ну например для того чтобы запретить какую-нибудь папку или какой-нибудь.

0 комментариев
0

Читайте также