4 причини втрати органічного трафіку після перезапуску сайту

Не завжди при розробці дизайну і програмуванні нового сайту вдається врахувати всі SEO-вимоги і передбачити можливі проблеми. Тому нерідкі випадки, коли при редизайні і перезапуску сайту спостерігається значний спад органічного пошукового трафіку.

Отже, на що ж потрібно звернути увагу, щоб цього уникнути?

1. Перевірте, чи не змінився алгоритм пошуку

В першу чергу переконайтеся, що причиною втрати трафіку став дійсно перезапуск сайту, а не, наприклад, зміни в алгоритмі самого пошуку.

Якщо втрата трафіку спостерігається тільки в одному пошуковику, швидше за все, справа саме в зміні алгоритму пошуку. Також є сенс відвідати тематичні форуми і подивитися, чи є зміна алгоритму популярною темою для обговорення. А історію змін алгоритму Google можна вивчити на сайті moz.com

2. Перевірте 301 редиректи

Це один з аспектів, який не враховується при перезапуску або перенесенні сайту, а також зазвичай головний винуватець втрати органічного трафіку.

301 редиректи для пошукових роботів служать повідомленням про зміну адреси, тобто вказують, що старий URL переміщений на новий.

Якщо веб-сторінка на новому сайті має новий URL, пошукової робот все одно буде йти на стару адресу для індексації (наприклад, якщо на сторонніх ресурсах є посилання на ваш старий сайт).

Без налаштованого 301 редиректу, пошукові роботи не знатимуть, на якій URL переміщена сторінка, і після безуспішних спроб проіндексувати Старий URL виключать його їх пошукового індексу.

Щоб перевірити, чи правильно налаштовані або запрограмовані 301 редиректи, погляньте на органічний трафік окремих сторінок сайту до і після редизайну.

Якщо ви виявили сторінки з істотним спадом трафіку, перевірте її URL, ввівши його в адресний рядок браузера. Чи відбувається перенаправлення? Якщо немає, і ви потрапляєте на неіснуючу сторінку з помилкою 404, швидше за все, її ж бачать і пошукові роботи.

Також проблема може полягати у вигляді використовуваного редиректу. Переконайтеся, що налаштований саме 301 редирект, який повідомляє роботам, що сторінка переміщена назавжди. Інші види редиректів, як, наприклад, 302, за правилами не повинні використовуватися при реструктуризації сайту.

Для перевірки настройки 301 редиректу використовуйте спеціальні ресурси – просто введіть в поле старий URL.

3. Перевірте файл robots.txt

Файл robots.txt служить своєрідною інструкцією для пошукових роботів, вказуючи їм, які сторінки можна індексувати, а які — ні.

Коли сайт знаходиться на стадії розробки, файл robots.txt використовується, щоб приховати тестовий майданчик від пошукових систем. Однак трапляється так, що вже після запуску готового сайту, robots.txt з тестового майданчика через неуважність переноситься на живий сервер.

Якщо файл robots.txt не оновлено і не дозволяє пошуковим роботам проіндексувати новий сайт, з часом його сторінки будуть виключені з пошукового індексу.

Щоб перевірити файл robots.txt, в адресному рядку браузера напишіть адресу Вашого сайту, а потім / robots.txt – і ви побачите файл вашого сайту. Директива “disallow” відповідальна за закриття від індексування. З її допомогою можна закрити як весь сайт, так і певні сторінки.

4. Перевірте безпосередньо сторінки

Крім файлу robots.txt, окремі сторінки можна приховати від індексації за допомогою мета-тега “noindex”.

Однак, як і в ситуації з файлом robots.txt, сторінки з цим мета-тегом можуть випадково бути перенесені з тестового майданчика на основну. Тому не забудьте перевірити вихідний код сайту на наявність мета-тега “noindex”. Він має наступний вигляд:

<META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”>

… і розташовується перед розділяє тегом <head>.

Не відкладайте проблему на потім

Що б не було причиною втрати трафіку, не баріться! Якщо пошукові роботи не можуть знайти будь-які сторінки (тобто проіндексувати їх), незабаром вони виключать їх з індексу. Тому реагуйте оперативно, щоб повернути свої позиції.

Автор: Джанет Дрісколл МиллерИсточник:searchengineland.com