LET'S CREATE YOUR COMPANY'S GROWTH STRATEGY TOGETHER!

Блог

16 December

Технічна сторона SEO - підготовка сайту до органічного пошуку

Технічна сторона SEO - підготовка сайту до органічного пошуку

Якщо Ви запитаєте 10 різних людей, що таке SEO, то, швидше за все, отримаєте зовсім різні відповіді. І це зовсім не дивно, враховуючи минуле цієї індустрії. Перенасичення ключовими словами, спам у коментарях і різного роду помилки - все це повпливало на створення поганої репутації перших сео-оптимізаторів серед інших членів веб-товариства настільки, що і до сих пір злі язики поширюють міф про непотрібність сео-просування. Мало того, сео - це нечесна практика, кажуть вони.

Варто сказати, це НЕ правда.

Якщо коротко, то SEO зараз - це поєднання двох суміжних галузей: контент-маркетингу і технічної оптимізації. Життєво важливим для успіху будь-якого веб-сайту є створення контенту, який би зацікавив користувачів і заставляв їх повертатись на сайт знову і знову, який би надавав брендові впізнаваності, який би був корисним і унікальним.

Проте, якщо з контентом все більш-менш зрозуміло, то коли справа доходить до технічної частини все стає геть погано. Чомусь саме технічна оптимізація овіяна їдким димом дезінформації. Попри все, ця наука надзвичайно багата на способи і саме вона є ключем до реалізації інформації, та, однак, стосовно технічної сторони оптимізації і досі виникає багато непорозумінь.

Тому сьогодні SEOOWL вирішили розвінчати міфи і легенди та поділитись секретами, на чому базується SEO, включаючи контроль індексації, лінки, і багато іншого. І наприкінці ви будете мати повен запас сео-методів, які використовуються для більшості сайтів.

Перевірка доступності сайту

Для того щоб просунути сайт важливо розуміти як він виглядає для пошукової системи.

Пошукові системи використовують автоматизовані боти, які ще називають парсерами або ж гуглботами (Googlebot). Гуглбот використовується для сканування сайту,яке починається з отримання списків URL-адрес веб-сторінок, та доповнює його інформацією з мапи сайту. Скануючи сайт, бот шукає лінки і добавляє їх у список тих, які підлягають скануванню.

Він же і інтерпретує зміст цих сторінок, добавляючи їх до індексу Google, згодом використовуючи їх у пошуковій видачі, якщо вона буде актуальною.

Пройти таку перевірку успішно - важливо. Якщо Гуглбот не може ефективно відсканувати ваш сайт, то він не буде відображатись у органічному пошуку. Незалежно від розміру сайту, його популярності, кількості сторінок, історії, Авторитетність сайту також може підвищуватись із кількістю і ретельністю перевірок гуглбота, тому зараз основним вашим завданням є зробити його відвідини максимально ефективними.

Архітектура і мапа сайту.

Архітектура сайту - один із основних факторів, який впливає на його пошуковий рейтинг. Від того наскільки швидко по сайту зможуть орієнтуватись як його відвідувачі так і пошукова система буде залежати його успіх. Вірите ви чи ні, а погана архітектура сайту може значно вплинути на пошуковий рейтинг сайту, знизити об’єм сайту і навіть рівень конверсії.

І основною порадою є “правило трьох кліків”- зробіть інформацію доступною за три кроки, щоб до неї можна було максимально швидко добратись.

Структура сайту може бути визначним кроком у формуванні поведінки користувача на сайті і побудова цієї структури, враховуючи всі фактори є в певній мірі мистецтвом, розкривати повністю яке ми тут не будемо. Проте, можемо сказати, що якщо Ви хочете зробити логічну, симетричну пірамідну ієрархію, то необхідно розміщувати.

Мапа сайту може бути згенерована автоматично із застосуванням таких інструментів як Yoast SEO Plugin для сайтів, що написані на WordPress.

Якщо ж ви намагаєтесь налаштувати її вручну, старайтесь зробити її максимально сучасною. Уникайте відправляння пошуковим роботам посилань, що є заблокованими через неправильну роботу файлу robots.txt, видають 404 помилку чи ж є несталими чи результатами редиректу - і все це просто витрачає “бюджет сканування” вашого сайту.

Заблокований контент.

Проте інколи у вас також може виникати потреба і заблокувати зміст вашого сайту від пошукової системи. І це також можна зробити.

Для цього необхідно використовувати деякі інструменти. Наприклад, можна заборонити доступ до файлів і каталогів на сервері за допомогою файлу robots.txt.

Після створення такого файлу може пройти деякий час перед тим як робот виявить зміни.

Існують також корисні інструменти, які допомагають дізнатися як Googlebot буде інтерпретувати зміст файлу ( Перевірка файлу robots.txt).

Інструмент Подивитись як Googlebot в Search Console допомагає правильно проаналізувати сайт і виявити помилки, через які контент може не відображатися у видачі.

Швидкість сторінки & мобільна версія

Алгоритми пошукових систем стають щоразу чутливішими щодо юзабіліті сайту, це можна спостерігати на двох найяскравіших прикладах: швидкість сторінки та наявність мобільної чи адаптивної версії.

Пошукові системи є прихильними до різних мобільних конфігурацій, завдяки чому це стає важливою частиною ранжування Гугл. Не знати цього означає залишитись далеко позаду, чи, у випадку сео - на останніх сторінках пошукової видачі.

Швидкість сторінки теж є важливим пріоритетом. І мова йде навіть не про те, що вона може довго завантажуватись, що не додає їй балів зі сторони юзерів, а про те, що швидкість сторінки теж є одним із факторів ранжування Google.

Є десятки інструментів, які допоможуть з’ясувати які фактори на вашому сайті сповільнюють його роботу. Одним із таких є GTmetrix, що має як безкоштовні так і платні варіанти із різними можливостями, проводить аналіз Google PageSpeed і Yahoo YSlow і надає допоміжну візуалізацію.

Хорошими першими кроками можуть стати такі:

- gzip-стиснення на сервері;

- мінімізація таких активів як стилі і скрипти;

- мінімізація кількості HTTP запитів;

І, зрештою, слід не забувати, що чутливість алгоритмів до юзабіліті з часом лише зростатиме.

Продовження нашого занурення у глибини океану технічного SEO уже незабаром, залишайтесь на гребені найвищої seo-хвилі разом із SEOOWL!

Читайте також: