Основы поисковой оптимизации

1. Привлечь клиента рекламой - подъем в топ, удержать его, заинтересовать,описать преимущества, выгоду, побудить воспользоваться, клиент доведен до нужной кондиции, можно поставить сроки по времени или товару. Только сейчас и только в Up-Site раскручиваем магазин за 2499.99 грн. или 99,99 $ !
Для начала надо понимать целевую аудиторию (ЦА). И конкретно заточить под нее любой вид маркетинга.
2. Есть форматирование в Notepad++ HTML отдельно, CSS отдельно. (мухи отдельно котлеты отдельно)
С помощью тегов можно задавать размер, цвет, расположение и т.д.
3. Речь идет о мета-тегах, когда пишем код в html файле. Кратко перечислю: title (название страницы), description(описание), keywords (ключевые слова), h1 (заголовок главный - первостепенные запросы) h2 (второстепенные запросы, чаще в описании подразделов).
4. Перелинковка (страницы с большим весом делятся им с другими страницами) – т.е. прокачиваем не только главную страницу, а подразделы под определенный запрос.
5. Внутренняя ссылка нужна для того, чтобы соединить одну страницу с другой. Обычно вторая ссылка выступает в роли источника или списка литературы. Также эти ссылки используют для навигации по сайту, ранжировки, архитектуры.
По типу они делятся: ссылки меню, навигации, в тексте, в подвале, дополнительных ссылок, блоки сайта.
6. Понятные и говорящие ссылки сайта. И чем короче URL и он совпадает с тем запросом, который клиент ищет, то вдвойне приятно.
Должна быть отличная навигация, чтобы клиент получал кайф при перемещении по сайту, и чем больше он тусит на нем, тем клевее)
7. Отслеживание поведения людей по запросам, что они хотят, что сейчас в тренде. Даже есть Google Trends. Но все же мы можем увидеть сколько по времени и по каким страницам гуляет юзер. Используем Аналитикс.
Юзабилити – это удобство серфить по сайту. Надо следить за контентом, очень и очень желательно, чтобы он был уникальным в свое роде)
8. Код должен быть высокого качества, а не низкого. Уходить нужно от графических тяжелых сайтов, особенно с множествами Джава-скриптами, к минимализму, сайт должен грузиться быстро и не напрягать юзера. Желательно сайт должен иметь древовидную структуру и пользователь должен находить то что он хочет не более чем в 5 кликов. Код должен быть составлен вручную, а не с помощью визуального редактора. Нужен верстальщик) Код надо продумывать, чем он меньше, тем лучше. Не должно быть много повторов в коде, пихать в html файл не стоит, для этого есть style.css (классика).
9. 301-й редирект (перенаправление). С помощью редиректа мы перенаправляем пользователей и поисковые системы на другой URL в отличие от того, который они изначально запросили. Мы используем 301-й редирект, когда сайт перешел на новый домен, для 404 страниц и страниц сайтов, которые потеряли свою актуальность.Если у нас много страниц, то вместо редиректа можно юзануть Canonical (поисковик включает в индекс только нужную нам страницу). Есть сервисы генерации редиректов, а можно все вручную ручками.
404-ая страница нужна для робота, чтобы он понимал, что что-то поменялось в сайте, этой страницы уже нет, особенно актуально для старых сайтов, иногда просто невозможно усмотреть и хорошо дизайнером оформленная 404-ая страница с функцией поиска и креативным описанием ошибки + картой разделов сайта является неплохим выходом. 404-ая нужна для того, чтобы не плодились дубли и не падала релевантность остальных страниц сайта. Чтобы проверить ответ, то можно использовать bertal.ru
Также можно глянуть статистику в Google Analytics или Яндекс Метрика сколько народу натыкается на 404, но нужно вставить специальный код отслеживания.
10. Файл robots.txt нужен для роботов поисковиков. Это первый файл с которым сталкивают пауки роботы. После скана этого файла, пауки начинают смотреть все страницы. Надо этот файл правильно настроить, чтобы машины индексировали сайт. Некоторые страницы мы можем закрыть с помощью настройки в этом файле, но не всегда это помогает. Настраивать и проверять данный файл можно через Google Webmasters или Яндекс Вебмастер.
Sitemap.xml – это карта сайта. Она нужна: а) для поисковых систем б) для посетителей сайта. В данном случае имеется только для посиковых систем, т.к. .xml
Его нужно сгенерировать, можно юзануть данный сайт https://www.xml-sitemaps.com/ либо Google Site MapGenerator (но почему-то его не особо рекомендуют). Проверяем его, чистим где надо, корректируем что показывать, а что не показывать поисковикам. Далее загружаем его в корень сайта – далее в Google Webmatersили Яндекс Вебмастер. Для крупных сайтов делается несколько карт, а не одна. Можно карту сгенерировать либо ручками с помощью HTML.
Развитие web-проектов в Одессе