Устраняем проблему индексации страницы Google на примере prestashop

Рассмотрим такой пример. В качестве примера возьмем prestashop 1.7.8.x. На работающем магазине, нужно проиндексировать страницы поиска, которые обзавелись определенным поисковым весом в магазине.
Как правило, такие страницы закрыты для поисковых роботов в коде самой страницы:
1 2 3 |
<meta name="robots" content="noindex"> |
И в файле robots.txt:
Disallow: /*?search_query=
Disallow: /*&search_query=
Для кода самой страницы, такое открытие для индексации, можно провести через соответствующий контроллер controllers\front\listing\SearchController.php:
1 2 3 4 5 6 7 8 9 10 11 |
public function getTemplateVarPage() { $page = parent::getTemplateVarPage(); //$page['meta']['robots'] = 'noindex'; -- change it to index $page['meta']['robots'] = 'index'; return $page; } |
Для файла robots.txt, открытие происходит таким образом, добавлением символа # перед строкой:
# Disallow: /*?search_query=
# Disallow: /*&search_query=
Но, даже после всех этих изменений в индексации, вы можете получить ошибку при добавлении страницы в гугл мастере:

Чтобы этого избежать, нужно создать запрос на загрузку свежей версии robots.txt в вебмастере Google:
https://www.google.com/webmasters/tools/robots-testing-tool?siteUrl=
И после этого робот Google сможет добавить вашу новую страницу для индексации.