Меню
научно-исследовательский институт
прикладных методов формализации
+38 099 015 97 95
+38 096 390 71 01
info@itf.in.ua
support@itf.in.ua
Корзина пуста
0
Личный кабинет
Улыбнись
Закрыть
Обновить
RU
Мы научились летать по воздуху, как птицы. Мы научились плавать в воде, как рыбы.

Нам осталось научиться жить на земле, как люди !

Грамотная поисковая оптимизация (SEO) интернет-магазина, вся суть в одном флаконе

Последнее обновление: 13-12-2019

Общий подход

В первую очередь отметим - самым главным и необходимым для понимания в поисковой оптимизации является то, что если пользователю не понравятся товары, цены, или не понравится сервис, предоставляемый вашей компанией, то никакая поисковая оптимизация вам не поможет.

 

Суть работы любого бизнеса - удобства и выгоды конечного потребителя.

 

Поисковые системы, такие как, например, Google, или Yahoo так же исповедуют данный принцип, потому, наиболее правильным протоколом общения вебмастера и поисковой системы является именно удобство конечного пользователя. Назовем его протоколом комфорта пользователя.

 

Исходя из данного протокола и происходит, собственно, название термина SEO - search engine optimization - оптимизация для поисковых машин. Таким образом под SEO будем понимать комплекс мероприятий, направленных на облегчение для робота поиска релевантного пользовательскому запросу контента на сайте.

 

При этом все, что связано с махинациями типа искусственного накручивания ключевых слов на странице, оптимизацией считать не будем, поскольку, во первых, данные действия приводят к тому, что конечный пользователь в поисковой выдаче получает нерелевантный его запросу контент, что противоречит принятому нами протоколу общения с поисковиками, а во вторых, в долгосрочной перспективе все, что связано с так называемой серой, или черной оптимизацией вредит самому ресурсу, ее использующему.

 


Белая, серая, или черная оптимизация? Какую SEO выбрать?  

 

Все схемы поисковой оптимизации принято разделять на три основные группы - белая, серая и черная SEO.

 

Поочередно рассмотрим каждую из них.

 

Начнем с черных методов. Суть данного подхода состоит в том, чтоб обмануть поисковую машину, подсовывая ей специально заточенный под робота, но не предназначенный для пользователя контент.

 

Наиболее известным примером черной SEO является метод дорвеев, когда создается набор оптимизированных под конкретный запрос страниц. При этом страницы не являются читабельными, потому после попадения на них человека, браузер пользователя перенаправляется на другую страницу сайта.

 

Различный контент, предоставляемый роботам и людям является поисковым спамом и может послужить причиной возникновения пагубных последствий для сайта со стороны поисковой машины.

 

Практикуя черную "оптимизацию", сайт становится врагом поисковых систем. В данной ситуации есть вероятность попасть в бан - сайт НАВСЕГДА выпадет из индекса либо целиком, либо по тем запросам, нацеливаясь на которые вы решили использовать скрытый текст. Такое положение вещей неприемлемо в долгосрочной перспективе. Для успешного привлечения большой аудитории к ресурсу, необходимо быть другом поисковых систем, а никак не их врагом.

 

ПРИМЕЧАНИЕ:

Когда-то один из наших клиентов поделился опытом использования скрытого текста. По его словам предупреждение о том, что за подобное поведение его сайт будет занесен в бан пришло от Гугл через несколько недель после начала использования черного метода оптимизации. Естественно предупреждение - это не бан, но тем ни менее попадение в поле зрения службы безопасноти поисковой системы очевидно не является лучшим спобом сэкономить рекламный бюджет. 

 

Таким образом мы настоятельно рекомендуем отказать от попыток обмана поисковых машин.

 

Так же, помимо откровенно недобросовестных методов "оптимизации" существуют и относительно правомерные. Объединены они под названием "Серая SEO". Суть сих изысканий состоит в том, чтобы создать на сайте относительно читабельный для пользователя контент, но при этом нацеленный на поисковые машины.

 

Например, пишутся тексты перенасыщенные ключевыми словами. Для пользователя они кое-как читабельны, потому поисковик не будет банить ваш сайт. При этом, действительно, из-за перенасыщения ключевыми словами, робот подумает, что ваши тексты отображают саму суть описанного в них явления. Чем больше различных терминов собрано в кучу, тем большей информативностью обладает текст и тем более он интересен для пользователя - так рассуждает поисковая машина.

 

ПРИМЕЧАНИЕ:

Некоторые горе-оптимизаторы перенасыщают текст парой тройкой одних и тех же ключевых слов. Такой подход не будет давать ожидаемой эффективности, поскольку перенасыщение должно происходить именно различными ключевыми словами. Робот должен думать, что текст просто мегаинформативный.

 

Описанное решение действительно даст быстрый рост позиций сайта в индексе, но у него есть один огромный минус - людям, зашедшим на сайт в поисках информации навряд ли будет интересно ломать глаза, пытаясь вычитать смысл в том, что написано на странице. Таким образом страницы сайта, пользующегося серыми методами "оптимизации" будут получать больший процент отказов пользователей, чем сайты, страницы которых нацелены на удобство конечного потребителя.

 

В долгосрочной перспективе намного лучше по некому произвольному запросу получить 5 человек аудитории, из которых на сайте останутся 3, нежели получить 10, из которых останутся 4. Мнение пользователей является для поисковой машины архиважным критерием определения позиций сайте в индексе, потому с течением относительно небольшого времени белый сайт обойдет своего серого собрата в поисковой выдаче.

 

Таким образом, исходя из вышесказанного становится понятно, что черные и серые методы "оптимизации" дают быстрый рост позиций в индексе, но в дальнейшем, учитывая высокий процент отказов пользователей, в условиях наличия конкуренции, позиции будут падать. Также существует вероятность попадания в бан по нескольким запросам, или всего сайта в целом.

 

При этом продвижение белого сайта займет у вас больше времени и средств, но в результате при правильном отношении к клиентам, у вас будет возможность посоревноваться за топ-10 в поисковой выдаче по самым высокочастотным запросам в вашей отрасли.

 

Таким образом любому владельцу сайта в первую очередь необходимо определиться с тем, чего он хочет в итоге. Если его максимум - это всю жизнь быть генеральным директором ларька, то черные и серые методы "оптимизации" помогут довольно быстро добиться результатов. Но, если целью является действительно успешный и популярный интернет ресурс, то от серых и черных схем следует отказаться.

 

Для меня, как математика с гипертрофированным чувством справедливости, выбор в сторону белой оптимизации очевиден. Потому в данном изложении речь пойдет именно о том, как облегчить работу поисковой машине.

 

Пройдемся по основным моментам, не затрагивая таких мелочей, как использование анкорного текста, или грамотная перелинковка с использованием "хлебных крох" и т.п. элементов. Отметим лишь, что во всех мелочах связанных с SEO, необходимо так же отталкиваться в первую очередь от комфорта пользователя. Сделайте удобно для пользователя и поисковики это оценят.

 


META теги

 

У любого сайта есть возможность рассказать поисковой машине о содержании своих страниц. Делается это при помощи так называемых "Мета тегов". Про мета теги написано очень много, потому рассмотрим лишь три самых известных. Кто не знаком с темой, изучение можно начать отсюда

 

Начнем с тегов <title> и <meta name='description'>

 

МЕТА ТЕГ <title>: Предназначен для определения названия страницы.

 

Состоит обычно из одной, максимум двух фраз и выводится браузером пользователя как название закладки. Поисковыми роботами воспринимается так же как очень краткое содержание страницы и зачастую, при правильном написании, используется как текст ссылки на сайт в поисковой выдаче.

 

МЕТА ТЕГ <meta name='description'>: Предназначен для определения краткого описания страницы.

 

В отличии от <title> может содержать несколько предложений.

 

Генерация мета тега <title> должна происходить исходя из названий структурных элементов, которые формируют страницу. Причем, чем важнее элемент, тем раньше он должен быть указан в тайтле. Поскольку <title> должен быть коротким, в нем необходимо указывать самые основные сведения о странице, остальную информацию правильно будет выносить в дескрипшн.

 

Например, для страницы, где отображается список продаваемых смартфонов некой фирмы Х, черного цвета с 8-ядерным процессором, отсортированные по возрастанию цены, тайтл правильно генерировать по следующему шаблону:

 

[<названия категории и группы товаров> - узнать цену, или купить в интернет-магазине <название магазина >].

 

При этом остальные сведения про страницу уйдут в <meta name='description'>, который следует сформировать по шаблону:

 

[Показать <названия категории и группы товаров>, отсортированные по <название сортировки> с параметрами : <список параметров> | <суфикс>].

 

В нашем конкретном случае для смартфонов получим следующий <title>: Смартфоны фирмы Х - узнать цену, или купить в интернет-магазине "Ваш магазин"

.

Отметим, что на странице отображения конкретной позиции товара, фразу "узнать цену, или купить" целесообразно будет расширить до "узнать отзывы, цену, или купить".

 

При этом <meta name='description'> будет выглядеть следующим образом:

 

Показать смартфоны фирмы Х, отсортированные по возрастанию цены, с параметрами : цвет - черный, кол-во ядер - 8 | При заказе от 10 штук в подарок пиво и рыбка. А так же акции, скидки, новинки и многое, многое другое.

 

ПРИМЕЧАНИЕ :

В карточках товаров, для тега картинки, являющей собой кнопку "Купить", желательно назначить атрибут alt='купить <Название позиции товара>'. Таким образом поисковая машина предаст дополнительный вес записанным в тайтле словам о том, что на странице можно купить смартфоны.

 

МЕТА ТЕГ <meta name='keywords'>: На данный момент скорее анахронизм, нежели действенная директива.

 

Использовался для определения набора ключевых слов страницы. Можно указывать на страницах магазина, он не помешает, но скорее всего и не поможет.

 

Современные поисковые машины определяют ключевые слова исходя из семантики страницы, потому мета тег кивордс им не нужен. Так, например, поисковая система Гугл перестала пользоваться <meta name='keywords'> еще в 2009м году. О чем можно прочесть здесь.

 


Именованные адреса страниц

 

Про чистоту URL в интернете написано очень много, потому не будем особо распыляться по этому поводу.

 

Сойдемся на том, что в справке Гугл для вебмастеров именованные адреса страниц указаны как необходимый для удобства пользователя атрибут, потому, как минимум, исходя из протокола комфорта пользователя, URL должны быть именованными.

 

Таким образом, если у вас на сайте адрес страницы с указанными в примере смартфонами фирмы Х имеет вид похожий на:

домен/ru/productid=37538642;filter=1+3+5/

 

То вам желательно постараться привести URL к следующему виду :

 

Домен / smart-phones / asus  / _size / low / high / _ram / 2gb / 1gb / _processor / 2-cores / 4-cores / sort=price-drop / [weight:500-600] / show=list / !5 /

 


Задача семантического разбора страницы

 

Данная задача существовала в области SEO с незапамятных времен. Так, например, поисковые роботы могли ошибаться, принимая навигационные ссылки, или элементы футера за часть основного контента. Необходимо было помогать роботу разбираться что к чему. Существовал ряд решений, у всех них были свои плюсы и минусы, но суть не в этом.

 

Со времен появления HTML5 и структурированных данных с микроразметкой, задача семантического разбора страниц решена полностью.

 

Для навигации существует специальный тег <nav>, для хедера и футера теги <header> и <footer> соответственно. Атрибут микроразметки itemscope позволяет указать список товаров, или конкретную карточку товара. Остальные элементы микроразметки помогут объяснить роботу, что является именем товара, что описанием, что ценой. Возможно обозначить даже такие показатели как популярность, бренд, валюта продажи и т.п.

 

Иными словами, учитывая имеющийся на сегодняшний день инструментарий, при грамотном подходе к микроразметке, роботу будет крайне сложно ошибиться во время семантического разбора страниц вашего сайта.

 


Задачи правильного склеивания/разбиения страниц и их содержимого

 

Общим образом данный класс задач можно описать как проблемы размещения одних и тех же, или схожих материалов на страницах с разными URL, а так же проблемы динамического содержимого страниц. Особенно актуальна данная проблематика была в древности, еще когда html верстальщики пугали своих детей 6м Internet Explorer'ом.

 

С течением времени появлялись все новые и новые решения и на сегодняшний день для интернет-магазинов задача склейки и правильного разбиения страниц решена в полном объеме. Рассмотрим ситуацию более подробно.

 

Разбирая интернет-магазин, поисковая машина может столкнуться с двумя стандартными проблемами :

 


1. Проблема динамического содержимого страниц.

 

Приведем пример - допустим, на странице товара выводится генерируемый случайным образом список интересных товаров, которые могут заинтересовать пользователя. В таком случае, поисковый робот, попадая на страницу каждый раз будет получать новое содержимое страницы в месте, где размещен список товаров. Из-за этого будет тратиться машинное время на внесение новой информации в индекс, вместо того, чтоб затрачивать данный ресурс на отслеживание важных изменений.

 

Таким образом, при большом количестве страниц с динамическим содержимым, индексация сайта может существенно затормозиться.

 

РЕШЕНИЕ :

 

Ведущими поисковыми системами реализован стандарт микроатрибута для ссылки rel='nofollow'. При этом в справке вебмастеров гугл сказано, что по ссылкам, отмеченным атрибутом rel='nofollow', Google не передает ни PageRank, ни текст ссылки. Первоисточник

 

Следовательно, если вам необходимо создать блок со списком интересных товаров, для каждой карточки товара из списка, обрамляющим элементом сделайте ссылку, для которой положите rel='nofollow'. Таким образом вы закроете от индексации каждую карточку товара в целом.

 

Рассмотрим пример :

 

Стандартная реализация блока интересных товаров соответствует следующему шаблону:

 

<section itemscope name='список товаров'>
__<section itemscope name='карточка товара1'>
_____<img><a rel='nofollow'>Название товара</a><div>Описание</div>
__</section>
__<section itemscope name='карточка товара2'>
_____<img><a rel='nofollow'>Название товара</a><div>Описание</div>
__</section>
...
...
</section>

 

При этом, из-за того, что список интересных товаров подбирается случайным образом из некого набора, описания и картинки товаров будут являться динамическим содержимым страницы. Чтобы избавиться от динамического содержимого, можно использовать следующий шаблон разметки:

 

<section itemscope name='список товаров'>
__<a rel='nofollow' style="display:block" _mce_style="display: block;" name='карточка товара1'>
_____<img><div>Название товара</div><div>Описание</div>
__</a>
__<a rel='nofollow' style="display:block" _mce_style="display: block;" name='карточка товара2'>
_____<img><div>Название товара</div><div>Описание</div>
__</a>
...
...
</section>

 

Простое и красивое решение, не требующее никаких махинаций с запретом индексирования некоторых скриптов и тому подобных действий. Особенно учитывая то, насколько сильно протестуют против таких яваскриптовых решений поисковые системы.

 

Так же отметим, что в случае необходимости запретить индексирование части текста достаточно просто обрамить его в ссылку, соответствующую следующему виду :

 

<a rel='nofollow' onClick='return false;'>Текст, который помешает поисковику эффективно проиндексировать ваш сайт</a>

 


2. Проблема индексации товарных фильтров в интернет-магазине.

 

Суть проблемы индексации фильтров в интернет магазине состоит в том, что за счет различных комбинаций параметров фильтрации генерируется настолько большое количество страниц, что проиндексировать весь набор в полном объеме реально не представляется возможным. При этом одни и те же товары отображаются на разных страницах, из-за чего поисковой машине довольно трудно узнать какие именно из этих страниц важны для переиндексации.

 

Итак, допустим у вашего магазина 100 000 страниц.  Если гугл-бот будет закачивать все страницы подряд со скоростью, скажем, 3000 страниц в день, то на переиндексацию всего сайта уйдет больше месяца. Таким образом, изменившаяся актуальная инфа просто затеряется в груде мусора, который будут понапрасну затянут ботом.

 

При этом многие разработчики интернет-магазинов, решая описанную проблему, указывают  фильтры полностью закрытыми для индексации. На ряду с этим, чтоб страницы с товарами все-таки попадали в индекс, они предлагают создавать условные категории фильтрации и разносить по ним товары.

 

Так, например, в одном из магазинов видеонаблюдения на момент написания статьи присутствуют две открытые для индексации категории – «камеры видеонаблюдения» и «wi-fi камеры dahua» . При этом на странице с камерами видеонаблюдения можно выбрать фильтры «Dahua Technology» и «Поддержка Wi-Fi», получив таким образом в выдаче набор товаров идентичный тому, который можно просмотреть в категории «wi-fi камеры dahua».

 

Для того чтоб не плодить страницы с идентичной выдачей, фильтры закрыты от индексации.

 

Но получается, что за счет сокрытия фильтров, словосочетание «wi-fi камеры dahua» теряет приличное количество ссылочного веса, что в свою очередь увеличивает расходы на продвижение сайта по запросу «wi-fi камеры dahua».

 

Более правильным будет обеспечить возможность изменять видимость для индексации страниц с указанными наборами параметров фильтрации. По умолчанию все неоткрытые страницы стоит сделать закрытыми.

 

Таким образом получим более точное распределение ссылочного веса и возможность создания посадочных страниц для запросов типа «женские футболки», «ноутбуки Asus», или «обручальное кольцо из золота » и прочих, хотя, самое главное – у вас будут открыты для индексации страницы, которые удобны для пользователя. Если грамотно оценить то, что люди гуглят по вашей тематике, то можно привести набор страниц сайта в точное соответствие запросам пользователей. 

 

Вспомним, что суть работы поисковика – отображение релевантной пользовательскому запросу информации. Помощь в сем нелегком деле повышает ваш авторитет в глазах поисковой машины, что в свою очередь снижает расходы на рекламу.

 

В довершение рассмотрим одну важную ошибку, совершаемую некоторыми вебмастерами в тот момент, когда они относят страницы фильтров интренет-магазина к дублированному содержимому.

 

Гугл в своих советах для вебмастеров ( справка о канонической перелинковке ) в качестве неканонического содержания приводит пример некого контента, разбитого на несколько частей. При этом сами части относят к неканоническому содержанию только, если на сайте есть страница view-all, на которой должны быть отображены все части контента разом без разбиения.

 

Указание в справке гугл страниц пагинации дублированным содержимым может сбить с толку. Можно забыть, что пагинация указывается дублированным содержимым только при условии наличия view-all и провести аналогию с пагинацией на страницах фильтрации в интернет-магазинах.

 

Но делать этого не стоит, поскольку страницы фильтров – это семантически выделенные единицы, каждая из которых несет свою личную смысловую нагрузку, связанную с удобством поиска.  Часть страниц с фильтрами скрывается от индексации не потому, что они являются дублированным содержимым, а потому, что проиндексировать все страницы фильтрации просто нет возможности ввиду ограничений производительности поисковых серверов.

 


Заголовки last-modified + if-modified-since

 

На сегодняшний день в протоколе общения сайта с поисковиками присутствует такой параметр, как заголовок last-modified ( используется со вспомогательным if-modified-since ). Необходим он для указания поисковым ботам на то, когда страница обновлялась в последний раз и стоит ли ее снова скачивать для ранжирования.

 

В условиях наличия большого количества страниц на сайте, учитывая ограничение квоты на машинное время поисковой системы, last-modified является важным параметром, влияющим на скорость индексации интернет ресурса.

 

При этом в абсолютном большинстве отечественных сайтов данный заголовок либо не реализован вообще, либо с точки зрения профессионального программиста, реализован, откровенного говоря, кривыми руками выросшими не из того места. В общем, состояние у пациента плачевное, за державу обидно !

 

Рассмотрим last-modified подробнее и оценим как можно его реализовать в рамках вашего сайта.

 

Итак, любой пользователь, будь то поисковый робот, или человек, попадая на любую страницу любого сайта, в первую очередь получает от сервера не саму страницу собственно, а информацию о ней. Например, тип содержимого страницы, или протокол передачи данных. Такая информация называется мета инфой, или данными о данных и отправляется пользователю при помощи так называемых хедеров, или по нашенски – заголовков.

 

При этом существует стандарт, благодаря которому можно сообщать поисковому роботу о том, когда страница обновлялась в последний раз. Реализуется стандарт при помощи заголовка last-modified и вспомогательных к нему.

 

Если поисковик, попадая на страницу вашего сайта получит мета данные о том, что с последнего визита страница не изменилась, то закачиваться заново она не будет. За исключением, конечно,  тех случаев, когда поисковая машина посчитает, что отображение last-modified на вашем сайте реализовано безграмотно. В таких ситуациях, робот будет затягивать страницы сугубо на свое усмотрения, не обращая внимания на рекомендации.

 

Точных цифр, описывающих разницу в сумме вложений в сайт с настроенным  и не настроенным last-modified у нас пока нет и появятся они не раньше лета 2020 года, но они обязательно появятся. Мы будем вкладываться в несколько стартапов интернет-торговли,  чтоб проводить на них свои эксперименты. Так же наличие в управлении собственных магазинов, позволит нам предоставлять клиентам не просто программный продукт, а сразу готовый бизнес план с указанием точных сумм необходимых инвестиций и точных сроков реализации задуманного.

 

В любом случае, как бы там ни было, чем большее количество рекомендаций поисковых систем вам удастся соблюсти, тем большим авторитетом будет обладать перед ними ваш сайт.  А, как известно, чем больший у вашего сайта авторитет, тем меньше денег расходуется на рекламу.

 

Учитывая вышесказанное, попробуем спроектировать реализацию заголовка last-modified на вашем сайте.

 

В идеале, помимо работы  last-modified, так же необходимо реализовать систему кеширования ( запоминания содержимого ), которая обеспечит пользователю возможность получать запрашиваемые страницы сайта за несколько обращений к файловой системе. Такой подход существенно уменьшит нагрузку на сервер, что в свою очередь, позволит поисковикам скачивать большее количество страниц за отведенную для вас квоту машинного времени.

 

К тому же, скорость загрузки страниц обладает дополнительной важностью ввиду участия  PageSpeed Insights в ранжировании webmasters.googleblog.

 

Итак, опишем общую схему кеширования и реализации last-modified. Рассмотрим наиболее наглядный и простой для понимания пример, оставляя усложнение системы на совести обывателя.

 

Учитывая высокую ресурсоемкость операции коннекта к БД, производить реализацию схемы будем на файловой системе.

 

Для осуществления задуманного нам понадобится файл, датой создания которого будет дата внесения последних обновлений на сайт.

 

Также нам понадобятся две файловые папки, в первой будут храниться фалы с кешем страниц, а во второй файлы с датой проверки на актуальность кеша страниц.

 

Производить кеширование будем по мере посещения страниц сайта пользователями, после выдачи страницы клиенту.

 

При заходе пользователя на сайт, программа должна проверять наличие в папке для сверки актуальности дат файла с названием, соответствующим URI.

 

  1. Если такого файла не существует, значит кеширование данной страницы не производилось, необходимо сгенерировать страницу, отдать ее клиенту и записать html текст страницы в файл с кешем. Назвать файл необходимо соответственно URI страницы.

     

    Также следует создать файл в папке для сверки актуальности дат.  Назвать файл потребуется соответственно URI страницы. Содержимым файла для сверки должны быть адреса  и даты создания использованных на странице изображений.

     

    В last-modified можно указать либо дату последнего обновления системы, либо текущую дату визита пользователя минус пару минут времени.

     

  2. Если файл существует, значит кеширование уже производилось и необходимо проверить актуальность кеша, сравнив дату создания сверочного файла с датой последних обновлений на сайте.

     

    • Если дата сверки окажется актуальной, потребуется отдать клиенту кеш записанный в кеш-файле с названием, соответствующим URI.

       

      В last-modified следует указать дату создания вышеуказанного файла с кешем.

       

    • Если дата сверки кеша окажется неактуальной, необходимо сгенерировать и отдать клиенту страницу. Далее потребуется сравнить html код сгенерированной страницы с тем, который хранится в кеш-файле с названием, соответствующим URI, а также сравнить даты создания изображений, используемых на странице с теми, которые записаны в файле из директории для сверки актуальности.

       

      В случае когда кеш окажется актуальным, надо пересоздать файл из каталога для сверки.

       

      В случае когда кеш окажется неактуальным, надо пересоздать файл с кешем, а также пересоздать файл из каталога для сверки.

       

      В last-modified стоит указать актуальную дату.

 

Реализации вышеуказанного алгоритма не составит особого труда какой бы из движков вы не выбрали для создания вашего магазина. Функция ob_start() позволит перенаправить вывод информации в буфер вывода, который после завершения генерации страницы можно считать в виде строки при помощи функции ob_get_contents();

 


Карта сайта

 

В интернете можно найти уйму информации по созданию карты сайта, потому не будем изобретать велосипед заново. Людям, незнакомым с темой, изучение можно начать со справки Гугл - support.google

 

В двух словах карта сайта – это файл, в котором модератор ресурса может указывать наиболее важные с его точки зрения разделы для индексации.

 

Опять же, не забывайте, что указания в файле sitemap.xml не являются директивами для поисковой машины, а лишь помогают роботу понять какие страницы по мнению владельца сайта стоит рассмотреть в первую очередь, когда они изменялись в последний раз и т.д.

 

При наличии на сайте большого количества страниц (по версии Гугл более чем 500), карта сайта поможет роботу правильным образом постранично распределить выделенную вам квоту машинного времени, что в свою очередь существенно ускорит индексацию важной информации на большом сайте.

 

Учитывая вышесказанное, карта сайта должна состоять из приоритетных канонических страниц, для которых необходимо указать даты их последних важных для индексации обновлений, таких как, например, добавление новых товаров.

 


Заключение:

В заключение всего сказанного вспомним, что как бы ни складывались события и как бы не обстояли дела, самым главным в SEO, как и во всех остальных изысканиях вебмастера, должно быть стремление к комфорту конечного пользователя. И забывать об этом нельзя ни в коем случае, даже если очень хочется !