Поиск распространенных ошибок во внутренней оптимизации Олег Бойко

Get Started. It's Free
or sign up with your email address
Rocket clouds
Поиск распространенных ошибок во внутренней оптимизации Олег Бойко by Mind Map: Поиск распространенных ошибок  во внутренней оптимизации   Олег Бойко

1. Зачем и как правильно использовать тег canonical? — убрать с индекса страницы с похожим содержанием (не канонические страницы); — передать все характеристики (например: ссылочный вес) на нужную версию адреса. Пример использования: http://domain.com.ua/catalog/grupa-179/page-2 <link rel="canonical" href="http://domain.com.ua/catalog/grupa-179" />

2. Основные ошибки: 1. В структуре каталога интернет-магазина; 2. Дубли внутренних страниц и контента; 3. Спам (ссылочный, в контенте)

3. ТОП 20 ошибок на пути к успеху 1. Нет посадочных страниц для многих сем. групп. Еще хуже — нет возможности их создать; 2. Продвижение огромного списка ключевых слов на одну страницу, не разделенных по семантическим группам. 3. Фильтрация товаров реализовано линейно статическими страницами Результат: — недополучаете СЧ и НЧ трафик — риск попасть под санкции поисковых систем; — большой процент отказов.

4. О чем сегодня будем говорить: — Отличия продвижения информационных, конверсионных и нечетких запросов; — Как правильно сделать распределение на посадочные страницы, на что обратить внимание; — Технический аудит сайта, структура. На что обратить внимание; — Основные ошибки внутренней оптимизации и как их обнаружить.

5. 4. Страницы фильтрации создаются на Java или по принципу поиска товара в базе данных (www.site.com.ua/search/…).; Результат — не получаете трафик на страницы фильтрации

6. 5. Все страницы пересечения фильтров открыты для индексации. Результат: — в индексе много страниц с низким рейтингом; — большая загрузка гугл бота; — плохое ранжирование страниц фильтрации; — возможны санкции со стороны поисковых систем.

7. 6. Для основных страниц каталога не прописаны вручную мета-теги; Результат: — недополучаем трафик с поисковых систем; 7. Одинаковые мета-теги на разных страницах сайта. Основные причины: — возникли дубли внутренних страниц; — неправильный шаблон формирования мета-тегов. 8. Дублирование контента на внутренних страницах сайта. Основные причины: — возникли дубли внутренних страниц; — ошибка в движке сайта (например: текст выводится на всех страницах пагинации и сортировки)

8. Результат дублирования — понижение рейтинга страницы (позиций в поисковой системе); — соответственно понижение бесплатного поискового трафика; — санкции со стороны поисковых систем (ручные, автоматические)

9. Виды дублирования страниц: — /index.php Пример: domain.com.ua и domain.com.ua/index.php — первая страница пагинации Пример: domain.com/catalog и domain.com/catalog/page-1 — “?” – get-параметры Пример: domain.com.ua и domain.com.ua/?get — страница доступна с различными окончаниями Пример: domain.com/catalog и domain.com/catalog/ — верхний и нижний регистры Пример: domain.com/catalog и domain.com/Catalog — не корректная работа 404 для не существующих страниц Ответ сервера не существующей страницы 200 OK

10. Способы устранения дублей страниц: — 301-й редирект; — <link rel="canonical" href=”канонический УРЛ”>; — <meta name=”robots” content=”noindex, follow”> / noindex, nofollow — решаем корень проблемы в самой CMS

11. Зачем и как правильно использовать мета тег robots? Тег meta robots объяснить поисковым системам, как именно индексировать конкретную страницу. Популярные варианты использования: — <meta name="robots" content="index, follow"> — <meta name="robots" content="noindex, nofollow"> — <meta name="robots" content="noindex, follow"> — <meta name="robots" content="index, nofollow">

12. 9. После создания ЧПУ не делается 301-ый редирект со старых URL. Результат: — вылет позиций по всем ключевым словам за топ 100; — резкое падение трафика; — возможны санкции со стороны поисковых систем; 10. После создания ЧПУ и настройки 301-го редиректа, в robots.txt закрываются от индексации get-параметры. Результат: — вылет позиций по всем ключевым словам за топ 100; — резкое падения трафика трафика. 11. В настройках GWT не указано что сайт переехал на новый домен; Результат: — старые URL-адреса долго покидают индекс; — страницы с новым доменом считаются дублями страниц со старым доменом; — возможно проседание трафика и позициий.

13. 12. Спам в мета-тегах. Пример title: Бумага офисная, бумага офсетная, бумага для заметок, бумага рулонная купить в Киеве, цена, недорого, фото 13. Спам в текстах: частое использование ключевых слов. 14. Злоупотребление ключевыми словами в точном вхождении. Пример: бумага Киев, бумага Харьков, бумага купить в Киеве, бумага цена Киев, бумага недорого Киев. 15. Перебор акцентирующих тегов b и strong в текстах.

14. 16. Отсутствие файлов на сервере; 17. Sitemap.xml размещен с ошибкой. 18. В sitemap.xml собрано очень много URL; Результат: Google Bot не может просканировать все страницы сайта. сканирование страниц с УВ больше 3, будет осуществляться редко. Рекомендации: — в каждом sitemap.xml не больше 25 тыс URL адресов; — после размещения, убедитесь что файл открывается в браузере; — проверьте соответствующий раздел в GWT: сканирование >>> файл sitemap.

15. 19. В robots.txt не указано зеркало сайта и путь к sitemap.xml; Результат: google bot не найдет sitemap.xml и не проанализирует 20. Не правильно прописаны правила запрета индексирования каталогов и отдельных страниц; Результат: — закрыты от индексации целые каталоги и продвигаемые страницы; — страницы которые планировали закрыть от индексации, остаются открытыми и попадают в индекс.

16. Основные правила: — Disallow: / - не заходить на сайт: — Allow: / - сканировать весь сайт: — Disallow: /page.html Пример: domain.com.ua/page.html — Disallow: */page.html Пример: domain.com.ua/catalog/123/page.htm — Disallow: /page/ Пример: domain.com.ua/page/1/2 — Disallow: *page* Пример: domain.com.ua/catalog/123/1page24 — Disallow: /*.xls$ Пример: domain.com.ua/catalog/123/page.xls Подробнее: http://goo.gl/s46Q3

17. Ваши вопросы Бойко Олег [email protected] 044 538 01 61 http://aweb.ua/seo-blog/author/boiko/ https://www.facebook.com/oleg.boiko.140

18. Страницы фильтрации которые должны быть открыты для индексации

19. Результат не оптимизированных страниц фильтрации

20. Чек лист по поиску ошибок во внутренней оптимизации интернет-магазина

21. 1. Проверить динамику роста трафика за последний год в Google Analytics

22. 2. наличие ручных санкций

23. Проверить в GWT: 3. геотаргетинг и основное зеркало сайта; 4. наличие дублей мета-тегов, внутренних страниц сайта; 5. ошибки на внутренних страницах сайта; 6. ошибки в sitemap.xml; 7. ошибки в robots.txt;

24. 8. Все URL на сайте должны быть приведены к виду ЧПУ; 9. Проверить главную страницу сайта на наличие дублей: http://site.com/[index.php, index.html, index.htm, main; 10. Все URL должны содержать символы в нижнем регистре; 11. Все URL адреса должны быть приведены к единому окончанию; 12. Проверить ответ сервера на несуществующих страницах сайта; 13. Проверить наличие дублирования страниц каталогов с первой страницей пагинации

25. 14. Проверить наличие тегов link rel="canonical" или meta name="robots" на страницах с похожим содержанием; 15. Проверить реализацию кнопки "Купить | Заказать | В корзину"; 16. Проверить реализацию фильтрацию товаров; 17. Проверить оптимизацию страниц фильтрации 18. Проверить уникальность текстов 19. Проверить мета-теги на продвигаемых страницах; 20. Проверить уровень вложенности продвигаемых страниц.

26. Виды поисковых запросов

27. Как собрать: — Google Adwords / Wordstat Yandex; — Key Collector; — Анализ конкурентов (prodvigator.ua)