Что же такое SEO?
SEO (аббревиатура от Search Engine
Optimization) — комплекс четких мероприятий, который
настроен на увеличение видимости сайта в поисковых системах
по целевым поисковым запросам.
Как работают поисковые системы?
У поисковых систем есть три основные функции:
Сканирование. Просматривайте содержимое в Интернете,
просматривая код / содержимое для каждого найденного URL.
Индекс: Храните и упорядочивайте контент, найденный в процессе
сканирования. Когда страница находится в индексе, она
запускается для отображения в результате соответствующих
запросов.
Ранг: укажите фрагменты контента, которые лучше всего отвечают
запросу поисковика, что означает, что результаты упорядочены по
наиболее релевантным или наименее релевантным
Что такое поисковая система?
Сканирование - это процесс обнаружения, при котором поисковые
системы отправляют команду роботов (известных как сканеры или
пауки) для поиска нового и обновленного контента. Содержание
может варьироваться - это может быть веб-страница, изображение,
видео, PDF и т. Д., - но независимо от формата контент
обнаруживается по ссылкам.
Робот Googlebot начинает с загрузки нескольких веб-страниц, а
затем переходит по ссылкам на этих веб-страницах, чтобы найти
новые URL-адреса. Перемещаясь по этому пути ссылок, сканер может
найти новый контент и добавить его в свой индекс под названием
Caffeine - огромная база данных обнаруженных URL-адресов - для
последующего извлечения, когда поисковик ищет информацию о том,
что контент по этому URL-адресу является хорошо подходит для.
Что такое индекс поисковой системы?
Поисковые системы обрабатывают и хранят информацию, которую они
находят, в индексе, огромной базе данных всего обнаруженного ими
контента, и считают его достаточно хорошим, чтобы служить
поисковикам.
Рейтинг в поисковых системах
Когда кто-то выполняет поиск, поисковые системы просматривают
свой индекс для очень релевантного контента, а затем
упорядочивают этот контент в надежде на решение поискового
запроса. Такое упорядочение результатов поиска по релевантности
называется ранжированием. В целом, вы можете предположить, что
чем выше рейтинг сайта, тем более релевантный поисковик считает,
что сайт соответствует запросу.
Можно заблокировать поисковые роботы для части или всего вашего
сайта или дать указание поисковым системам избегать сохранения
определенных страниц в своем индексе. Хотя для этого могут быть
причины, если вы хотите, чтобы ваш контент был найден
поисковиками, вы должны сначала убедиться, что он доступен
сканерам и индексируется. В противном случае это так же хорошо,
как невидимый.
Сканирование: могут ли поисковые системы найти ваши
страницы?
Как вы только что узнали, предварительная проверка того, что ваш
сайт сканируется и индексируется, является обязательным условием
отображения в результатах поиска. Если у вас уже есть веб-сайт,
неплохо было бы начать с просмотра количества ваших страниц в
индексе. Это поможет лучше понять, сканирует ли Google все
страницы, на которые вы хотите, и те, которые вам не нужны.
Один из способов проверить ваши проиндексированные страницы -
это сайт: yourdomain.com, оператор расширенного поиска.
Перейдите в Google и введите "site: yourdomain.com" в строку
поиска. Это вернет результаты, которые Google имеет в своем
индексе для указанного сайта.
Количество результатов, отображаемых Google (см. «О результатах
XX» выше), не является точным, но оно дает четкое представление
о том, какие страницы проиндексированы на вашем сайте и как они
в настоящее время отображаются в результатах поиска.
Для получения более точных результатов отслеживайте и
используйте отчет «Покрытие индекса» в консоли поиска Google. Вы
можете подписаться на бесплатную учетную запись Google Search
Console, если у вас ее еще нет. С помощью этого инструмента вы
можете, помимо прочего, отправлять карты сайта для своего сайта
и отслеживать, сколько фактически отправленных страниц было
добавлено в индекс Google.
Если вы нигде не обнаруживаетесь в результатах поиска, есть
несколько возможных причин:
Ваш сайт совершенно новый и еще не просканирован.
Ваш сайт не связан ни с какими внешними сайтами.
Навигация вашего сайта мешает роботу эффективно сканировать его.
Ваш сайт содержит некоторый базовый код, называемый директивами
для сканеров, который блокирует поисковые системы.
Ваш сайт был оштрафован Google за тактику спама.
Большинство людей думают о том, чтобы Google мог найти их важные
страницы, но легко забыть, что есть страницы, которые вы не
хотите, чтобы робот Google нашел. К ним могут относиться такие
вещи, как старые URL-адреса с тонким содержимым, дублированные
URL-адреса (например, параметры сортировки и фильтрации для
электронной торговли), специальные кодовые страницы промо,
промежуточные или тестовые страницы и т. Д.
Чтобы убрать робота Google с определенных страниц и разделов
вашего сайта, используйте файл robots.txt.
Robots.txt
Файлы Robots.txt расположены в корневом каталоге веб-сайтов
(например, yourdomain.com/robots.txt) и указывают, какие части
поисковых систем вашего сайта должны и не должны сканировать, а
также скорость, с которой они сканируют ваш сайт. через
определенные директивы robots.txt.
Как Googlebot относится к файлам robots.txt
Если робот Googlebot не может найти файл robots.txt для сайта,
он продолжает сканирование сайта.
Если робот Googlebot находит файл robots.txt для сайта, он, как
правило, придерживается предложений и приступает к сканированию
сайта.
Если робот Googlebot обнаружит ошибку при попытке доступа к
файлу robots.txt сайта и не сможет определить, существует он или
нет, он не будет сканировать сайт.
Не все веб-роботы следуют robots.txt. Люди с плохими намерениями
(например, скребки адресов электронной почты) создают ботов,
которые не следуют этому протоколу. Фактически, некоторые плохие
актеры используют файлы robots.txt, чтобы найти, где вы
разместили свой личный контент. Хотя может показаться логичным
блокировать сканеры с личных страниц, таких как страницы входа и
администрирования, чтобы они не отображались в индексе,
размещение этих URL-адресов в общедоступном файле robots.txt
также означает, что люди со злонамеренными намерениями легче
найти их. Лучше использовать NoIndex для этих страниц и скрыть
их за формой входа, а не размещать их в файле robots.txt.
Определение параметров URL в GSC
Некоторые сайты (чаще всего встречающиеся в электронной
торговле) делают один и тот же контент доступным по нескольким
различным URL-адресам, добавляя к ним определенные параметры.
Если вы когда-либо делали покупки в Интернете, вы, вероятно,
сузили свой поиск с помощью фильтров. Например, вы можете
выполнить поиск «обувь» на Amazon, а затем уточнить поиск по
размеру, цвету и стилю. Каждый раз, когда вы уточняете, URL
меняется немного.
Как Google узнает, какая версия URL предназначена для
поисковиков? Google довольно неплохо справляется с определением
характерного URL самостоятельно, но вы можете использовать
функцию «Параметры URL» в консоли поиска Google, чтобы точно
указать Google, как вы хотите, чтобы они относились к вашим
страницам. Если вы используете эту функцию, чтобы сообщить
роботу Google «не сканировать URL-адреса с параметром ____», то
вы по сути попросите скрыть это содержание от робота Googlebot,
что может привести к удалению этих страниц из результатов
поиска. Это то, что вам нужно, если эти параметры создают
дубликаты страниц, но не идеально, если вы хотите, чтобы эти
страницы были проиндексированы.
Могут ли сканеры найти весь ваш важный контент?
Теперь, когда вы знаете некоторые тактики, позволяющие сканерам
поисковых систем держаться подальше от вашего неважного
контента, давайте узнаем об оптимизации, которая может помочь
роботу Google найти ваши важные страницы.
Иногда поисковая система может находить части вашего сайта путем
сканирования, но другие страницы или разделы могут быть скрыты
по той или иной причине. Важно убедиться, что поисковые системы
могут обнаружить весь контент, который вы хотите
проиндексировать, а не только вашу домашнюю страницу.
Задайте себе вопрос: может ли бот пролезть через ваш сайт, а не
только на него?
Ваш контент скрыт за формами входа?
Если вам требуется, чтобы пользователи входили в систему,
заполняли формы или отвечали на опросы, прежде чем получить
доступ к определенному контенту, поисковые системы не увидят эти
защищенные страницы. Crawler определенно не собирается входить в
систему.
Вы полагаетесь на формы поиска?
Роботы не могут использовать поисковые формы. Некоторые люди
считают, что если они разместят окно поиска на своем сайте,
поисковые системы смогут найти все, что ищут их посетители.
Скрыт ли текст в нетекстовом контенте?
Нетекстовые медиа-формы (изображения, видео, GIF и т. Д.) Не
должны использоваться для отображения текста, который вы хотите
проиндексировать. В то время как поисковые системы становятся
лучше в распознавании изображений, нет никакой гарантии, что они
смогут прочитать и понять это только сейчас. Всегда лучше
добавлять текст в разметку вашей веб-страницы.
Могут ли поисковые системы следить за навигацией по вашему
сайту?
Точно так же, как сканер должен находить ваш сайт по ссылкам с
других сайтов, ему нужен путь ссылок на вашем собственном сайте,
чтобы направлять его со страницы на страницу. Если у вас есть
страница, которую вы хотите найти в поисковых системах, но она
не связана ни с какой другой страницей, она будет как невидимой.
Многие сайты совершают критическую ошибку, структурируя свою
навигацию способами, недоступными для поисковых систем, что
затрудняет их возможность попадания в список результатов поиска.
Распространенные ошибки навигации, которые могут мешать
сканерам видеть весь ваш сайт:
Наличие мобильной навигации, которая показывает результаты,
отличные от навигации на рабочем столе
Любой тип навигации, где элементы меню отсутствуют в HTML,
например, навигация с поддержкой JavaScript. Google стал намного
лучше в сканировании и понимании Javascript, но это все еще не
идеальный процесс. Более надежный способ гарантировать, что
что-то будет найдено, понято и проиндексировано Google - это
поместить его в HTML.
Персонализация или показ уникальной навигации для определенного
типа посетителей по сравнению с другими, может показаться
скрытым для поискового движка
Забыть ссылку на главную страницу вашего сайта через навигацию -
помните, что ссылки - это пути, по которым сканеры переходят на
новые страницы!
Вот почему важно, чтобы на вашем сайте была понятная навигация и
полезные структуры папок URL.
У вас есть чистая информационная архитектура?
Информационная архитектура - это практика организации и
маркировки контента на веб-сайте для повышения эффективности и
доступности для пользователей. Лучшая информационная архитектура
интуитивно понятна, а это означает, что пользователям не нужно
слишком много думать, чтобы просматривать ваш сайт или что-то
находить.
Вы используете файлы Sitemap?
Карта сайта - это то, на что это похоже: список URL-адресов на
вашем сайте, которые сканеры могут использовать для обнаружения
и индексирования вашего контента. Один из самых простых способов
убедиться, что Google находит ваши страницы с самым высоким
приоритетом, - это создать файл, соответствующий стандартам
Google, и отправить его через Google Search Console. Хотя
отправка файла Sitemap не заменяет необходимость хорошей
навигации по сайту, она, безусловно, может помочь сканерам
проследить путь ко всем важным страницам.
Если на вашем сайте нет других сайтов, ссылающихся на него, вы
все равно сможете проиндексировать его, отправив свой XML-файл
сайта в Google Search Console. Нет гарантии, что они включат
отправленный URL в свой индекс, но стоит попробовать!
Получают ли сканеры ошибки при попытке получить доступ к
вашим URL?
В процессе сканирования URL на вашем сайте, сканер может
столкнуться с ошибками. Вы можете перейти к отчету «Ошибки
сканирования» Google Search Console, чтобы определить
URL-адреса, по которым это может происходить - этот отчет
покажет вам ошибки сервера, а не найденные. Файлы журнала
сервера также могут показать вам это, а также сокровищницу
другой информации, такой как частота сканирования, но поскольку
доступ к файлам журнала сервера и их распространение - более
сложная тактика, мы не будем подробно обсуждать ее в Руководстве
для начинающих, хотя вы можете узнать больше об этом здесь.
Прежде чем вы сможете сделать что-либо значимое с отчетом об
ошибках сканирования, важно понять ошибки сервера и ошибки «не
найдены».
Коды 4xx: когда поисковые роботы не могут получить доступ к
вашему контенту из-за ошибки клиента
Ошибки 4xx - это ошибки клиента. Это означает, что запрошенный
URL-адрес содержит неверный синтаксис или не может быть
выполнен. Одной из самых распространенных ошибок 4xx является
ошибка «404 - not found». Это может произойти из-за опечатки
URL-адреса, удаленной страницы или неправильного
перенаправления, и это лишь несколько примеров. Когда поисковые
системы попадают на 404, они не могут получить доступ к URL.
Когда пользователи бьют 404, они могут расстроиться и уйти.
Коды 5xx: когда сканеры поисковых систем не могут получить
доступ к вашему контенту из-за ошибки сервера
Ошибки 5xx - это ошибки сервера, то есть сервер, на котором
расположена веб-страница, не смог выполнить запрос поискового
сервера или поисковой системы на доступ к странице. В отчете
«Ошибка сканирования» консоли поиска Google есть вкладка,
посвященная этим ошибкам. Обычно это происходит из-за истечения
времени ожидания запроса URL-адреса, поэтому робот Googlebot
отклонил запрос. Ознакомьтесь с документацией Google, чтобы
узнать больше об устранении проблем с подключением к серверу.
К счастью, есть способ сообщить и поисковикам, и поисковым
системам, что ваша страница переместилась - перенаправление 301
(постоянное).
Сам код состояния 301 означает, что страница навсегда
переместилась в новое место, поэтому избегайте перенаправления
URL-адресов на нерелевантные страницы - URL-адреса, на которых
содержимое старого URL-адреса фактически не существует. Если
страница ранжируется по запросу, и вы передаете ее по URL-адресу
с другим содержимым, она может упасть в рейтинге, потому что
контент, который сделал ее релевантным этому конкретному
запросу, больше не существует. 301-е мощно - перемещайте URL
ответственно!
У вас также есть возможность 302 перенаправления страницы, но
это должно быть зарезервировано для временных перемещений и в
тех случаях, когда передача эквити по ссылке не является большой
проблемой. 302-ые как будто объезд дороги. Вы временно
откачиваете трафик через определенный маршрут, но он не будет
таким вечным.
После того, как вы убедились, что ваш сайт оптимизирован для
сканирования, вы должны убедиться, что он может быть
проиндексирован.
Индексация: Как поисковые системы интерпретируют и хранят ваши
страницы?
После того, как вы убедились, что ваш сайт просканирован,
следующий порядок действий - убедиться, что он может быть
проиндексирован. Это верно - то, что ваш сайт может быть
обнаружен и сканирован поисковой системой, не обязательно
означает, что он будет сохранен в их индексе. В предыдущем
разделе о сканировании мы обсуждали, как поисковые системы
обнаруживают ваши веб-страницы. Индекс - это место, где хранятся
ваши обнаруженные страницы. После того, как сканер находит
страницу, поисковая система отображает ее так же, как браузер. В
процессе этого поисковая система анализирует содержимое этой
страницы. Вся эта информация хранится в своем индексе.
Могу ли я увидеть, как сканер Googlebot видит мои страницы?
Да, сохраненная в кэше версия вашей страницы будет отражать
снимок последнего сканирования роботом Google.
Google сканирует и кэширует веб-страницы с различной частотой.
Более проверенные, известные сайты, которые часто публикуют
посты, такие как https://www.nytimes.com, будут сканироваться
чаще, чем менее известный сайт для сторонней суеты Роджера
Мозбота, http://www.rogerlovescupcakes.com ( если бы это было
реально…)
Вы можете посмотреть, как выглядит ваша кэшированная версия
страницы, щелкнув стрелку раскрывающегося списка рядом с
URL-адресом в поисковой выдаче и выбрав «Кэшированный».
Вы также можете просмотреть текстовую версию своего сайта, чтобы
определить, эффективно ли сканируется и кэшируется ваш важный
контент.
Страницы удаляются из индекса?
Да, страницы могут быть удалены из индекса! Вот некоторые из
основных причин, по которым URL может быть удален:
URL возвращает ошибку «not found» (4XX) или ошибку сервера (5XX)
- это может быть случайным (страница была перемещена и
перенаправление 301 не было настроено) или преднамеренным
(страница была удалена и 404 добавлена для того, чтобы удалить
его из индекса)
В URL добавлен метатег noindex. Владельцы сайтов могут добавить
этот тег, чтобы поисковая система пропустила страницу из своего
индекса.
URL был оштрафован вручную за нарушение Руководства для
веб-мастеров поисковой системы и в результате был удален из
индекса.
URL был заблокирован для сканирования с добавлением пароля,
необходимого для доступа посетителей к странице.
Если вы считаете, что страница на вашем веб-сайте, которая ранее
была в индексе Google, больше не отображается, вы можете
использовать инструмент проверки URL, чтобы узнать статус
страницы, или использовать Fetch as Google, который имеет
функцию «Запросить индексирование» для отправить отдельные URL в
индекс. (Бонус: инструмент «извлечения» GSC также имеет опцию
«рендеринга», которая позволяет вам увидеть, есть ли какие-либо
проблемы с тем, как Google интерпретирует вашу страницу).
Расскажите поисковым системам, как проиндексировать ваш сайт
Мета-директивы роботов
Мета-директивы (или «метатеги») - это инструкции, которые вы
можете дать поисковым системам относительно того, как вы хотите,
чтобы ваша веб-страница обрабатывалась.
Вы можете указать сканерам поисковых систем такие вещи, как «не
индексировать эту страницу в результатах поиска» или «не
передавать никакие ссылки на любые ссылки на странице». Эти
инструкции выполняются через метатеги Robots в
ваших HTML-страниц (наиболее часто используемые) или
через X-Robots-Tag в заголовке HTTP.
Метатег роботов
Метатег robots можно использовать в
HTML-кода вашей веб-страницы. Это может исключить все
или конкретные поисковые системы. Ниже приведены
наиболее распространенные мета-директивы, а также
ситуации, в которых вы можете их применять.
index / noindex сообщает движкам, следует ли сканировать
страницу и сохранять ее в индексе поисковых систем для
поиска. Если вы решите использовать «noindex», вы
сообщаете сканерам, что вы хотите, чтобы страница была
исключена из результатов поиска. По умолчанию поисковые
системы предполагают, что они могут индексировать все
страницы, поэтому использование значения «index» не
нужно.
Когда вы можете использовать: Вы можете пометить
страницу как «noindex», если вы пытаетесь обрезать
тонкие страницы из индекса Google вашего сайта
(например, сгенерированные пользователем страницы
профиля), но по-прежнему хотите, чтобы они были доступны
посетителям.
follow / nofollow сообщает поисковым системам, следует
ли переходить по ссылкам на странице или nofollowed.
«Follow» приводит к тому, что боты переходят по ссылкам
на вашей странице и пропускают ссылки на эти URL. Или,
если вы решите использовать «nofollow», поисковые
системы не будут следовать или передавать какие-либо
ссылки на ссылки на странице. По умолчанию
предполагается, что все страницы имеют атрибут «follow».
Когда вы можете использовать: nofollow часто
используется вместе с noindex, когда вы пытаетесь
предотвратить индексацию страницы, а также запретить
сканеру переходить по ссылкам на странице.
noarchive используется для того, чтобы запретить
поисковым системам сохранять кэшированную копию
страницы. По умолчанию движки сохраняют видимые копии
всех проиндексированных страниц, доступные для
поисковиков по кэшированной ссылке в результатах поиска.
Когда вы можете использовать: Если вы пользуетесь сайтом
электронной коммерции и ваши цены регулярно меняются, вы
можете рассмотреть возможность использования тега
noarchive, чтобы пользователи не видели устаревшие цены.
Вот пример мета-робота noindex, тега nofollow:
/
/ head>
... body>
html>
В этом примере все поисковые системы не
индексируют страницу и не переходят по ссылкам
на странице. Если вы хотите исключить несколько
сканеров, например, googlebot и bing, можно
использовать несколько тегов исключения роботов.
Мета-директивы влияют на индексирование, а не на
сканирование
Роботу Google необходимо сканировать вашу
страницу, чтобы увидеть его мета-директивы,
поэтому, если вы пытаетесь запретить сканерам
доступ к определенным страницам, то
мета-директивы не способ сделать это. Теги
роботов должны быть просканированы для
соблюдения.
X-Robots-Tag
Тег x-robots используется в заголовке HTTP
вашего URL-адреса, обеспечивая большую гибкость
и функциональность, чем мета-теги, если вы
хотите блокировать поисковые системы в масштабе,
потому что вы можете использовать регулярные
выражения, блокировать не-HTML-файлы и применять
сторонние теги noindex ,
Например, вы можете легко исключить целые папки
или типы файлов (например,
moz.com/no-bake/old-recipes-to-noindex):
Заголовок
установил X-Robots-Tag «noindex, nofollow»
Files>
Производные, используемые в метатеге
роботов, также могут использоваться в
X-Robots-Tag.
Или конкретные типы файлов (например, PDF):
Заголовок X-Robots-Tag
«noindex, nofollow» Files>
Понимание различных способов влияния на
сканирование и индексирование поможет
вам избежать распространенных ошибок,
которые могут помешать вашим важным
страницам найти.
Роль контента играет в SEO
Не было бы никакого смысла в ссылках,
если бы они не направляли поисковиков к
чему-либо. Это что-то содержание!
Содержание - это больше, чем просто
слова; это все, что предназначено для
поисковиков, - это видео, графическое
содержимое и, конечно же, текст. Если
поисковые машины - это машины ответов,
контент - это средство, с помощью
которого эти машины доставляют эти
ответы.
Каждый раз, когда кто-то выполняет
поиск, появляются тысячи возможных
результатов, так как поисковые системы
решают, какие страницы поисковик найдет
ценными? Большая часть определения того,
где ваша страница будет оцениваться по
заданному запросу, зависит от того,
насколько контент на вашей странице
соответствует цели запроса. Другими
словами, соответствует ли эта страница
словам, которые искали, и помогает
выполнить задачу, которую пытался
выполнить поисковик?
Из-за этого акцента на удовлетворенности
пользователей и выполнении задач не
существует строгих критериев
относительно того, какой длины должен
быть ваш контент, сколько раз он должен
содержать ключевое слово или что вы
вставляете в теги заголовка. Все они
могут играть роль в том, насколько
хорошо страница выполняет поиск, но
основное внимание следует уделять
пользователям, которые будут читать
контент.
Сегодня, с сотнями или даже тысячами
рейтинговых сигналов, первые три
остаются достаточно последовательными:
ссылки на ваш сайт (которые служат
сторонними авторитетными сигналами),
контент на странице (качественный
контент, который соответствует целям
поисковика), и RankBrain.
Локализованный поиск
Поисковая система, такая как Google,
имеет собственный собственный список
данных о местных компаниях, из которого
она создает результаты локального
поиска.
Если вы выполняете локальную SEO-работу
для бизнеса, который имеет физическое
местоположение, которое клиенты могут
посетить (например, стоматолог), или для
бизнеса, который путешествует, чтобы
посетить своих клиентов (например,
сантехник), убедитесь, что вы заявляете,
проверяете и оптимизируете бесплатно
Google My Business Listing.
Когда дело доходит до локализованных
результатов поиска, Google использует
три основных фактора для определения
рейтинга:
Актуальность
Расстояние
протуберанец
Актуальность
Релевантность - это то, насколько хорошо
местный бизнес соответствует тому, что
ищет искатель. Чтобы гарантировать, что
бизнес делает все возможное, чтобы быть
актуальным для поисковиков, убедитесь,
что информация о компании тщательно и
точно заполнена.
Расстояние
Google использует ваше географическое
местоположение, чтобы лучше отображать
локальные результаты. Результаты
локального поиска чрезвычайно
чувствительны к близости, которая
относится к местоположению искателя и /
или местоположению, указанному в запросе
(если искатель включил один).
Обычные результаты поиска чувствительны
к местоположению поисковика, хотя редко
бывают такими явными, как в результатах
локальных пакетов.
протуберанец
Принимая во внимание значимость этого
фактора, Google стремится поощрять
компании, хорошо известные в реальном
мире. В дополнение к известности бизнеса
в автономном режиме Google также
учитывает некоторые онлайн-факторы для
определения локального рейтинга, такие
как:
Отзывы
Количество отзывов Google, которые
получает местный бизнес, и их настроение
оказывают заметное влияние на их
способность ранжироваться в местных
результатах.
Цитирование
«Бизнес-цитата» или «бизнес-листинг» -
это веб-ссылка на «NAP» (название,
адрес, номер телефона) местной компании
на локализованной платформе (Yelp,
Acxiom, YP, Infogroup, Localeze и т.
Д.). ,
Местные рейтинги зависят от количества и
последовательности местных деловых
цитат. Google извлекает данные из самых
разных источников и постоянно составляет
свой локальный бизнес-индекс. Когда
Google находит несколько
последовательных ссылок на название,
местоположение и номер телефона
компании, это укрепляет «доверие» Google
к достоверности этих данных. Это
приводит к тому, что Google может
показывать бизнес с большей степенью
уверенности. Google также использует
информацию из других источников в
Интернете, такую как ссылки и статьи.
Органический рейтинг
Лучшие практики SEO также применимы к
местному SEO, поскольку Google также
учитывает позицию веб-сайта в
результатах обычного поиска при
определении локального рейтинга.
Надеемся на что данная статья была вам
полезна, несмотря на обилие онформации,
Вы не заскучали!
Назад