Як закрити індексацію сторінки від пошукових Googlebot?
Сьогодні у цьому відео "Як закрити індексацію сторінки від пошукових Googlebot?" я розповім Вам коротку інформацію про запобігання індексації від Googlebot для певних сторінок. Це необхідно для того аби приховати від пошукової системи сторінки, які не слід їй показувати, або ж навпаки показати, які сторінки слід індексувати.
Корисні посилання:
👉 Розумні поп-ап форми, опитування (відгуки) - https://www.plerdy.com/ua/smart-forms/
👉 Карта кліків - https://www.plerdy.com/ua/heatmap/
👉 SEO-Checker (сервіс SEO-сповіщень) - https://www.plerdy.com/ua/seo-alerts/
👉 Записи сеансів користувача - https://www.plerdy.com/ua/user-session-recordings/
Загалом є чотири правила, які забороняють індексацію певних сторінок:
👉 Robots.txt
👉 meta name="robots" content="noindex,nofollow"
👉 X-Robots-Tag noindex, nofollow
👉 Canonical
Як закрити індексацію сторінки від пошукових систем через Robots.txt?
Це основний файл, який Google шукає в першу чергу, тобто одразу після потрапляння на сайт. Саме він повинен повідомити пошуковій системі, куди їй можна чи не можна заходити. В першу чергу в ньому слід вказати весь контент, який ви плануєте приховати від пошукових систем.
До прикладу, на нашому сайті https://plerdy.com/robots.txt не було причин нічого закривати. У нас близько трьох сотень сторінок, проте немає потенційних дублів, фільтрацій, які потрібно було б закривати. Це більше необхідно для Інтернет-магазинів, наприклад, сайт https://www.foxtrot.com.ua/robots.txt має вже досить багато закритих сторінок, хоча багато є і дозволених. При цьому є моменти, особливо в таких CMS-системах, як magento та opencart, де є десятки рядків, які варто закривати.
Як закрити індексацію сторінки від пошукових систем за допомогою meta name="robots" content="noindex,nofollow"
При використанні другого і третього способів закриття сторінок (meta name="robots" content="noindex,nofollow" та X-Robots-Tag noindex,nofollow) Googlebot змушений зайти на сторінку і лише після цього сказати, що не буде її індексувати.
Як закрити індексацію сторінки від пошукових систем за допомогою X-Robots-Tag noindex, nofollow
Третій спосіб не є ефективним для зменшення кількості індексації та запитів, тобто вони не з’являться у пошуку, але Google буде робити спроби зайти на них. Крім цього він є найбільш рідкісним, але Google його підтримує. Якщо говорити про мою особисту практику, то приблизно за 10 років, я використовував його всього один раз.
Canonical, як ще один спосіб боротьби із контентом, що дублюється
Якщо у вас є посилання з GET-параметрами й вони також є дублями, тоді слід ставити там Canonical. Якщо ж його поставити на звичайному посиланні, тоді Google може ігнорувати його та продовжувати індексацію. Таке трапляється доволі часто. Бажано таких моментів уникати, хоча критичного у цьому нічого немає.
Як бачите на прикладі, якщо сторінка є не проіндексована, то Canonical показувати не буде. Тобто, вона мусить бути проіндексованою, щоб Google це побачив і це важливо.
Ще один важливий момент - коли сторінка заблокована, вона буде давати дозвіл індексувати, але забороняти показувати її пошуковій системі. Якщо ж вона заблокована в Robots.txt, то в графі про дозвіл на індексацію буде стояти – ні.
Міксування цих способів
Слід уникати міксування усіх цих способів чи певних з них. Це не є строгою забороною і ви не отримаєте санкцій, але спеціалісти від Google кажуть, що варто все-таки уникати цього. Хоча я особисто бачив чимало прикладів, де все знаходиться на одній і тій самій сторінці.
Якщо ви хочете перевірити, додати певні посилання чи забрати, то для цього є тестування файлу Robots.txt. Там можна додати будь-яке правило, переглянути інструкцію та зробити усе правильно, щоб випадково не заблокувати сторінку, яка є потрібною. У цій інструкції вказано, що файл Robots.txt не є обов’язковим, але, на мою думку, він таки обов’язковий. Завдяки йому вирішується чимало питань, особливо, якщо мова про великі інтернет-магазини.
Ці основні правила, які я озвучив, обов’язково слід налаштовувати перед запуском сайту, а також слідкувати в процесі за усіма сторінками, щоб чітко розуміти, як і куди ходить Google.
Якщо у Вас виникли запитання, залишайте коментарі чи пишіть мені у соціальних мережах:
👉 https://www.instagram.com/andriy_chornyy/
👉 https://www.facebook.com/chornyy.a
Я з радістю Вам відповім та допоможу покращити конверсію Вашого інтернет-магазину.
Вдячний за кожен перегляд відео "Як закрити індексацію сторінки від пошукових Googlebot?".
Якщо Вам сподобалося відео ставте лайк і підписуйтесь на мій канал
https://www.youtube.com/channel/UC0NDYgj90nvUR8kYegrwI0g
Дякую за увагу! До нових зустрічей.
Видео Як закрити індексацію сторінки від пошукових Googlebot? канала Plerdy: UX & SEO огляди
Корисні посилання:
👉 Розумні поп-ап форми, опитування (відгуки) - https://www.plerdy.com/ua/smart-forms/
👉 Карта кліків - https://www.plerdy.com/ua/heatmap/
👉 SEO-Checker (сервіс SEO-сповіщень) - https://www.plerdy.com/ua/seo-alerts/
👉 Записи сеансів користувача - https://www.plerdy.com/ua/user-session-recordings/
Загалом є чотири правила, які забороняють індексацію певних сторінок:
👉 Robots.txt
👉 meta name="robots" content="noindex,nofollow"
👉 X-Robots-Tag noindex, nofollow
👉 Canonical
Як закрити індексацію сторінки від пошукових систем через Robots.txt?
Це основний файл, який Google шукає в першу чергу, тобто одразу після потрапляння на сайт. Саме він повинен повідомити пошуковій системі, куди їй можна чи не можна заходити. В першу чергу в ньому слід вказати весь контент, який ви плануєте приховати від пошукових систем.
До прикладу, на нашому сайті https://plerdy.com/robots.txt не було причин нічого закривати. У нас близько трьох сотень сторінок, проте немає потенційних дублів, фільтрацій, які потрібно було б закривати. Це більше необхідно для Інтернет-магазинів, наприклад, сайт https://www.foxtrot.com.ua/robots.txt має вже досить багато закритих сторінок, хоча багато є і дозволених. При цьому є моменти, особливо в таких CMS-системах, як magento та opencart, де є десятки рядків, які варто закривати.
Як закрити індексацію сторінки від пошукових систем за допомогою meta name="robots" content="noindex,nofollow"
При використанні другого і третього способів закриття сторінок (meta name="robots" content="noindex,nofollow" та X-Robots-Tag noindex,nofollow) Googlebot змушений зайти на сторінку і лише після цього сказати, що не буде її індексувати.
Як закрити індексацію сторінки від пошукових систем за допомогою X-Robots-Tag noindex, nofollow
Третій спосіб не є ефективним для зменшення кількості індексації та запитів, тобто вони не з’являться у пошуку, але Google буде робити спроби зайти на них. Крім цього він є найбільш рідкісним, але Google його підтримує. Якщо говорити про мою особисту практику, то приблизно за 10 років, я використовував його всього один раз.
Canonical, як ще один спосіб боротьби із контентом, що дублюється
Якщо у вас є посилання з GET-параметрами й вони також є дублями, тоді слід ставити там Canonical. Якщо ж його поставити на звичайному посиланні, тоді Google може ігнорувати його та продовжувати індексацію. Таке трапляється доволі часто. Бажано таких моментів уникати, хоча критичного у цьому нічого немає.
Як бачите на прикладі, якщо сторінка є не проіндексована, то Canonical показувати не буде. Тобто, вона мусить бути проіндексованою, щоб Google це побачив і це важливо.
Ще один важливий момент - коли сторінка заблокована, вона буде давати дозвіл індексувати, але забороняти показувати її пошуковій системі. Якщо ж вона заблокована в Robots.txt, то в графі про дозвіл на індексацію буде стояти – ні.
Міксування цих способів
Слід уникати міксування усіх цих способів чи певних з них. Це не є строгою забороною і ви не отримаєте санкцій, але спеціалісти від Google кажуть, що варто все-таки уникати цього. Хоча я особисто бачив чимало прикладів, де все знаходиться на одній і тій самій сторінці.
Якщо ви хочете перевірити, додати певні посилання чи забрати, то для цього є тестування файлу Robots.txt. Там можна додати будь-яке правило, переглянути інструкцію та зробити усе правильно, щоб випадково не заблокувати сторінку, яка є потрібною. У цій інструкції вказано, що файл Robots.txt не є обов’язковим, але, на мою думку, він таки обов’язковий. Завдяки йому вирішується чимало питань, особливо, якщо мова про великі інтернет-магазини.
Ці основні правила, які я озвучив, обов’язково слід налаштовувати перед запуском сайту, а також слідкувати в процесі за усіма сторінками, щоб чітко розуміти, як і куди ходить Google.
Якщо у Вас виникли запитання, залишайте коментарі чи пишіть мені у соціальних мережах:
👉 https://www.instagram.com/andriy_chornyy/
👉 https://www.facebook.com/chornyy.a
Я з радістю Вам відповім та допоможу покращити конверсію Вашого інтернет-магазину.
Вдячний за кожен перегляд відео "Як закрити індексацію сторінки від пошукових Googlebot?".
Якщо Вам сподобалося відео ставте лайк і підписуйтесь на мій канал
https://www.youtube.com/channel/UC0NDYgj90nvUR8kYegrwI0g
Дякую за увагу! До нових зустрічей.
Видео Як закрити індексацію сторінки від пошукових Googlebot? канала Plerdy: UX & SEO огляди
Показать
Комментарии отсутствуют
Информация о видео
Другие видео канала
Аналіз юзабіліті інтернет-магазину, які елементи сторінки погано працюють #маркетинг #вебдизайнGoogle Ads: основні помилки чому він не працює для Вашого бізнесу?Підприємець та бізнесмен #бізнес #бізнесонлайн #стартап #бізнесукраїна #підприємництвоЯк покращити конверсію та продажі на сайті? 2 крокиДизайн сайту та заклик до дії #вебдизайн #маркетинг #стартап #seoЮзабіліті аудит сайту чи інтернет магазину #маркетинг #вебдизайн #дропшипінг #seo #бізнесонлайн #uxПокращення конверсії та збільшення продажів в магазині Shopify. #shopify #шопіфайLanding Page: особливості створення, аналітика та що варто врахувати?Ч8 Карта кліків: Якщо не врахувати для UX аудиту #ux #seo #маркетинг #дизайн #вебдизайн #бізнесЮзабіліті огляд сайту Moyo #юзабіліті #інтернетмагазин #маркетинг #дизайн #вебдизайн #moyo #мойоSEO-просування інтернет-магазину: моменти та нюансиAI інструменти для інтернет-магазину #ai #штучнийінтелект #шопіфай #shopify #маркетингДизайн сайту та різні мови #вебдизайн #програміст #айті #маркетинг #стартап #онлайнбізнесЯк стати UX експертом? #ux #вебдизайн #uxdesign #вебдизайнерАналіз дизайну сайту, різних ніш #маркетинг #вебдизайн #дропшипінг #seo #бізнесонлайн #ux #стартапЮзабіліті аудит на основі даних Plerdy #юзабіліті #маркетинг #інтернетмаркетингХовер на сторінці сайту #маркетинг #вебдизайн #seo #дизайн #стартап #бізнесонлайнЮзабіліті огляд сайту Мойо, моб #юзабіліті #маркетинг #інтернетмаркетинг #seo #дизайнЯк провести UX-аудит сайту? #маркетинг #вебдизайн #стартап #seo #бізнесЧ10 Карта кліків: Аналіз мікро подій #ux #seo #маркетинг #дизайн #вебдизайн #бізнес