Главная / SEO практика / SEO анализ сайта по-быстрому и не только

SEO анализ сайта по-быстрому и не только

Знание — сила, а получить знания быстро, еще круче. Очень часто возникает ситуация, когда люди обращаются ко мне с таким вопросом: «Старичок, глянь на сайт, что не так? Возьмешь на продвижение/починишь/почистишь/настроишь/ускоришь».

И таких просьб очень много, и зачастую ответы от меня идут быстро, иногда, я даю решения на не заданные вопросы быстрее, чем обращающийся допечатает текст. Именно про скоростной SEO анализ сайта мы сегодня и поговорим.

Существует много вариантов сделать комплексный SEO анализ сайта, например есть готовые варианты решения в виде сервисов, которые представлены в моем списке SEO инструментов. В нем всего 59 вариантов анализа сайта. Но мы не будем их все рассматривать. Возьмем самый сок и покажем на примере.

Из более чем 15 сайтов, которые мне предлагали для обзора, я выбрал один. И этот счастливчик — Интернет магазин сантехники (http://aquarom.ru/)

Первое, что я делаю, проверяю сайт в RDS плагине. Почему именно он, сейчас объясню.

rds

Он показывает первичную информацию сайта наглядно. Например, то что показывает нам этот сайт в панеле:

Возраст сайта 7 лет, это хороший показатель, если домен не дроп. Кликнули на вебархив, проверили, что домен не дроп. Хорошо.

тИЦ, тем временем, показывает 0, что для старого сайта очень сложно верится. И тут же смотрим ниже почему — было зеркало. Плохо.

После тщательной проверки истории сайта и тИЦ выяснилось, что зеркало ни при чем, просто был АГС в начале 2016 г.

Индекс страниц в Яндексе и Google очень отличается, значит Google выплюнул дубли страниц ведь показывает без «соплей» (100%). Плохо.

По бэклинкам и упоминаниям — мало. Плохо.

Это первичная информация, которая дает нам направление дальше. А дальше нужно выяснить, почему у Яши больше страниц, чем в Google, проверить беки и позиции.

Первый сервис аудитов, которые рекомендую — https://a.pr-cy.ru/ 

2016-10-07_16-43-47

Именно он покажет всю интересующую вас информацию сайта по быстрому аудиту.

Например по нашему донору выделяем красные пункты:

  • 10.02.16 С сайта снят фильтр АГС
  • Мы не нашли главного заголовка H1.
  • Мы нашли 230 ссылок, из них индексируются 230.
  • Оптимизируйте время ответа сервера.
  • В ответе сервера отсутствуют заголовки кеширования или настроено на слишком короткое время.
  • Оптимизируйте изображения, чтобы уменьшить их размер на 151,7 КБ (20%).
  • Сократите css-файлы, чтобы уменьшить размер на 15,8 КБ (31%).
  • Сократите js-файлы, чтобы уменьшить их размер на 1,9 КБ (24%).
  • Сократите html-код, чтобы уменьшить его размер на 3,4 КБ (18%).
  • В верхней части страницы найден блокирующий CSS: 9.
  • В верхней части страницы найден блокирующий JS: 8.

Вывод для владельца сайта: нужно посмотреть на заголовки страниц, оптимизировать количество открытых ссылок на страницах, посмотреть аудит по скорости загрузки сайта.

Поехали дальше. А дальше я предлагаю замечательный сервис — https://varvy.com/

2016-10-07_16-47-50

Он показывает аудит по рекомендациям Google.

Например первый пункт, он проверяет доступность всех js и css для роботов ПС. Это очень частая ошибка. Google в прошлом году предупреждал всех вебмастеров про эту ошибку.

Все JS и CSS файлы сайта, отвечающие за внешний вид сайта, должны быть открыты для роботов ПС.

Также сервис проверяет robots.txt и sitemap на наличие ошибок, анализирует сайт по рекомендациям google скорости, смотрим на альты картинок.

Выводы для владельца сайта: настройки для индексации сайта и sitemap находятся в надлежащим виде.

Но правильные ли в них параметры, если мы обнаружили разницу индексации страниц? Вообще история с этим сайтом начинает напоминать детектив. Но будет ли найден «убийца» в конце?

Ради интереса решил проверить сайт в Serpstat.com и обнаружил очень удивительную вещь.

В Google практически нет позиций.

2016-10-07_17-48-39

2 позиции в Google.ru и 2 в Google.com.ua, в Яндексе довольно хорошие позиции.

Наверное эта история так и останется загадкой, только владелец может рассказать, что же было с сайтом раз так Google его не любит.

Теперь проверим поглубже тех.анализ с помощью Netpeak Spider, кстати до 9 октября с промо-кодом Netpeak_Spider_211 он продается с 50% скидкой.

При проверке сайта по URL, были обнаружены следующие ошибки:

2016-10-07_17-53-46

Он просканировал 13813 страниц, что почти похоже на количество страниц в индексе Яндекса и как мы видим, робот нашел очень много ошибок в дублях страниц.

Проверим сайт по sitemap.xml

2016-10-07_16-20-56

По sitemap.xml spider нашел 4768 страниц, что на 1000 больше, чем в индексе у Google. Но, в сайтмапе неправильные url`ы на категории, с закрывающим слешем, что дает 301 редирект на весь сайт, но уже нет никаких дублей ни в тайтлах, ни в описаниях.

Вообще структура сайта неправильная. Все категории доступны по двум Url`ам, но google выкидывает дубли из индекса, так как он заботится о своей базе, и не допускает сохранения дублей в ней. А вот Яндексу, как мы видим, глубоко по боку что держать в индексе.

Вывод для владельца сайта: поправить sitemap, добавить в robots.txt пути, которые не должны быть в индексе у Яндекса, поправить структуру категорий.

Вернемся к Serpstat.com и посмотрим на беки:

2016-10-07_18-06-37

Всего 7 беков.

Вывод: разработать стратегию линкбилдинга.

Теперь проверим сайт на наличие хорошего текста с помощью сервиса http://www.siteliner.com/

2016-10-07_18-10-54

Как нам показывает сервис, 15% страниц — дубли по тексту, 74% повторы по сайту и только 11% уникального текста.

Это плохо. Выводы тут сами напрашиваются.

Скорость загрузки сайта проверяем этим инструментом — https://gtmetrix.com

2016-10-07_18-12-50

Результаты не критичны, но с картинками нужно что-то делать. Как видно от сюда — http://www.seoptimer.com/, что картинки и скрипты занимают большую часть сайта:

2016-10-07_18-14-09

Оптимизировать скрипты и CSS я рекомендую здесь — https://www.giftofspeed.com/tools/, тут вообще 4 сервиса по оптимизации файлов для сайта, которые очень облегчают и помогают «ускорителям» сайтов:

2016-10-07_18-15-32

А как же HTML оптимизация? Да вот, берите https://htmlcompressor.com/compressor/

Сервис отлично сжимает html код и оптимизирует его. Прекрасно подходит для чистки шаблонов от мусора.

Все проверки у меня заняли около 5 минут и за это время мы выяснили:

Что у сайта был АГС, неправильная настройка индексации для ПС, ошибки в структуре сайта и sitemap, проблемка в заголовках страниц, нужно немножко оптимизировать css, js, и картинки для ускорения сайта, добавить побольше уникального текста, и поработать над линкбилдингом.

Конечно, если использовать другие инструменты, то можно докопаться до других ошибок, и выявить еще пару десятков косяков в любом направлении, но сегодня мы говорим о быстром анализе, и давайте я вам повторю инструменты:

  1. Для первичного анализа — RDS плагин
  2. Для первичного аудита — https://a.pr-cy.ru/
  3. Для скорости сайта — https://gtmetrix.com
  4. Для технического анализа — Netpeak Spider
  5. Для проверки текста на сайте — http://www.siteliner.com/
  6. Для глубокого аудита, проверки позиций и бэклинков — Serpstat.com
  7. Для оптимизации CSS, JS, PNG и JPG — https://www.giftofspeed.com/tools/
  8. Для оптимизации HTML — https://htmlcompressor.com/compressor/

Весь быстрый SEO аудит занимает от 1 до 10 минут, смотря как быстро вы работаете за компьютером. Так же не забывайте про мой огромный список SEO инструментов, он вам всегда пригодится.

С вами был, ленивый Staurus.

Следующий посты будут про «разбор софта Netpeak Spider», «полное руководство по Serpstat», и про «черное seo — живо или нет».

Один комментарий

  1. Спасибо, много интересных сервисов узнал, о которых раньше ни сном, ни духом. 🙂 Для анализа сайта также часто использую cy-pr.com и sbup.com, рекомендую и Вам попробовать. Из следующих постов очень заинтересовал «черное seo — живо или нет», будет интересно почитать.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *