19 интересных технических фактов о SEO для новичков

Интересные факты о Seo

Хотите заняться продвижением сайтов в поисковиках? В этой статье вы сможете ознакомиться с некоторыми фактами, способным помочь новичкам лучше понять суть и принципы оптимизации.

SEO — это обширное поле деятельности, в этой области есть множество нюансов, требующих наличия способности мыслить и владеть теорией.

Итак, рассмотрим список важных фактов, способных расширить ваше понимание о SEO:

1) Скорость загрузки вебстраницы.

Многие считают, что этот параметр не сильно влияет на оптимизацию, думая, что медленная загрузка лишь раздражает посетителей. Но это не так, скорость загрузки является важным поисковым критерием, более того, в будущем Гугл планирует сделать его одним из критериев оценки для выдачи рейтинга в поисковых результатах (это касается тех случаев, когда пользователю важно быстро получить результат).

Для оценки скорости есть множество инструментов, одним из них является Google PageSpeed Insights. Он выявляет возможные проблемы, исправление которых способно увеличить скорость загрузки. Также есть специальные инструменты проверки скорости загрузки мобильных версий сайта, где быстрота загрузки — важный показатель. Например, Гугл предлагает пользоваться программой проверки скорости загрузки на 3G-соединении и оценки удобства интерфейса на мобильных телефонах.

2) Файл Robots.txt различает заглавные буквы регистра. Этот файл следует размещать в основной каталог ресурса.

Стоит учитывать, что для распознания файла нужно обязательно прописывать его название в Robots.txt. Не забывайте, поисковые боты ищут этот файл в основном каталоге, если вы разместите его в другой папке, роботы не смогут его отыскать.

3) Поисковые боты не всегда способны распознавать и сканировать страницы с бесконечной прокруткой.

Если они не могут просканировать контент, значит страница, на которой он размещен, не пройдет индексацию. Если вы хотите работать с бесконечной прокруткой страницы, то следует позаботиться о дополнительной разбивке страницы на части. Используйте replaceState/pushState для реализации функции бесконечной прокрутки. Проверяйте код, если для бесконечной прокрутки вы использовали rel = « next » и rel = « prev ».

4) Поисковикам безразлично, какой будет структура сайта.

Другими словами вы сами определяете количество разделов и подразделов, главное, чтобы была внутренняя связь между всеми страницами сайта без использования CSS и Javascript.

5) Можно использовать тег noarchiv, не боясь появления трудностей с оптимизацией.

Он используется для запрета отображения кешированной версии вебстранице в результатах поикового запроса, при этом само продвижение и индексирование не запрещается.

6) Первой проверяется домашняя/главная страница.

Чаще всего, поисковые роботы приходят на главную страницу, но иногда при наличии множества ссылок на другую страницу, поисковый бот может заходить на нее.

7) Внутренние и внешние ссылки оказывают разное влияние на продвижение.

Более влиятельными считаются внешние ссылки (независимая оценка конкурентов).

8) Google Search Console позволяет проверять доступность ваших страниц для поисковиков.

Этот инструмент позволяет просмотреть, какие страницы ресурса поисковые боты периодически проверяют или на какие зайдут в ближайшее время. Зная эту информацию, вы можете поработать над увеличением страниц, проверяемых ботами.

9) Блокировка или удаление бесполезных страниц поможет занять более высокие рейтинговые позиции.

Блокируйте страницы, которым не нужна индексация, например, из-за плохой уникальности контента.

10) Файлы Sitemap:

10.1) XML-файлы нужно кодировать в UTF8 (Без BOOM);

10.2) В них нельзя вставлять идентификаторы сеанса из URL-вдресов;

10.3) В них не должно быть более 50000 URL-адресов, а их вес не должен превышать 50 Мб;

10.4) Следует использовать индексный Sitemap вместо большого числа этих файлов;

10.5) Для разных типов медиа-файлов можно использовать свой Sitemap.

11) Оценка вида ресурса глазами поисковых ботов.

Этот параметр особенно важен для мобильной версии ресурсов. Существует множество инструментов оценки, например, можно использовать отчет Google Mobile или программы-тестировщики.

12) Большая часть страниц Гугл — это HTTPS.

Гугл стремится давать своим пользователям не только качественный, но и безопасный контент. Если возникает подозрение, что ресурс слабо защищен, то поисковик выдает предупреждение при попытке посетителя зайти на этот сайт. Также в первых результатах отображаются ресурсы с HTTPS.

13) Не заставляйте ждать посетителей загрузки контента, он должен появляется через 2-3 сек.

Не обязательно, что более долгая загрузка отобразится на поисковом рейтинге, но не стоит заставлять ждать.

14) Правила Robots.txt не способны полностью запретить появление страниц в списке результатов.

Директива «Запретить» в этом файле действует в качестве блокировки сканирования страниц папок или отдельных файлов, но сама индексация не запрещается.

Гугл сообщает, что использование директивы «запретить» не способна отменить индексацию. Поисковые роботы могут попасть на нее по внешним ссылкам или другим способом без обращения к Robots.txt. Если вы хотите заблокировать определенные страницы, то используйте другие способы блокировки (например, защищая вход паролем или тегом noindex).

15) Добавление параметров прежнего домена в основной.

Вы можете сохранить значение старого домена после замены его на новый (например, после смены торгового бренда);

16) Поисковик Google советует поддерживать переадресацию после смены адреса не менее 1 года.

Иногда поисковик получает информацию о «переезде» контента через несколько месяцев после смены адреса. Чтобы не потерять завоеванные позиции, стоит сохранить переадресацию на достаточно большой срок.

17) Управление окном поиска в Google.

Управление окном поиска в Google

Есть отдельное поле поиска, позволяющее отображать соответствующий контент на вашем сайте.

У вас есть возможность отключать его отображение, используя метатег nositelinkssearchbox.

18) Чтобы запретить перевод контента, используйте «notranslate».

Это рекомендуется для тех случаев, когда переводчики поисковиков могут допустить ошибки при переводе.

19) Можно проиндексировать свои приложения.

Был разработан инструмент для индексации приложений. Речь идет про Firebase. Эта программа позволяет не только проиндексировать, но и получать результаты про установку другими пользователями подобных программ, поиска по похожим ключевикам.

Несколько советов:

1) Следите за новостями поисковых систем;

2) Читайте сообщения в Центре веб-мастеров Google;

3) При возможности посещайте видеоконференции Google Webmaster или смотрите видео о них.

Советы по созданию качественного контента от Google

Советы по созданию качественного контента от Google

Все стремятся занять высокие поисковые позиции. Поэтому стоит стараться придерживаться рекомендаций, выданных поисковиком мировой величины Google.

Google подчеркивает, что достаточно важно следить за качеством содержимого ресурса, но немногие прислушиваются к этому.

Недавно на официальном ресурсе Гугл опубликовал руководства с целью помочь начинающим и опытным разработчикам и оптимизаторам улучшить качество контента.

Теперь при создании ресурса можно использовать:

  • Руководство по дизайну документации для разработчиков
  • Руководство по стилю HTML / CSS
  • Руководство по стилю JavaScript
  • Руководство по стилю Java

Это далеко не полный перечень руководств, это лишь несколько пособий, с которыми действительно стоит ознакомиться. Не стоит ожидать, что вся информация, выложенная в них, будет новой, уникальной или полной. Здесь выложены базовые знания и правила создания высококачественного содержания, ведь все пользователи, создающие поисковые запросы разной тематики, хотят отыскать качественный и полезный контент.

Небольшой список основных рекомендаций от разработчиков Гугл:

1) Придерживайтесь дружеского разговорного стиля, не отклоняйтесь от основной темы разговора;

2) Создайте впечатление у читателей, что вы их хороший друг, понимающий желания и ожидания;

3) Пишите тексты по принятым стандартам письма (придерживайтесь правилам пунктуации, стилистики, грамматики, орфографии);

4) Не используйте длинных и вычурных фраз, передавайте мысли простыми словами и короткими предложениями для улучшения восприятия информации;

5) При вставке ссылки предоставьте хорошее подробное описание;

6) Старайтесь не употреблять афоризмы, слова и фразы, смысл которых трудно перевести на другие языки;

7) Для структуризации текста используйте нумерованные списки;

8) Проверяйте ссылки на посторонние ресурсы, убедитесь, что они относятся к надежным, качественным и полезным вебсайтам;

 

Кроме этого, стоит обратить внимание на оформление публикаций:

1) При добавлении изображений используйте атрибут Alt, не забывая про описание, содержащее ключевые фразы;

2) Наличие таблиц и списков приветствуется, но они должны быть уместны.

3) Подчеркивайте важные элементы текста при помощи <strong>. Если вы хотите обратить внимание читателя на определенную часть текста, то можно для визуального выделения использовать <b>;

4) Желательно использовать HTTPS при вставке ссылок, мультимедийных файлов, скриптов на CSS;

5) Для HTML-шаблонов стоит выбирать HTML5 в UTF-8 без (BOM) — подробнее;

6) Используйте 16-ричные 3х-символьные нотации для цветов вместо 6-ти символьных;

7) Предпочтительней выбирать HTML для создания структуры и CSS для оформления дизайна;

 

Также есть несколько моментов, про которые стоит знать. Не стоит при создании контента использовать:

1) Жаргонную лексику;

2) Сленговые выражения;

3) Слово «пожалуйста», если речь идет о написании руководства;

4) Знаки восклицания;

5) Выражения-метафоры;

6) Фразы, служащие для увеличения объема без смысловой нагрузки (обратите внимание, в это время, таким образом и т.д.);

7) Вставка ссылок в тексте с названием «нажмите здесь»;

8) Программы для слежения за пользователем.

Это далеко не полный список. Разработчики из Гугл написали эти руководства для написания технических текстов, поэтому стоит учитывать этот факт при создании развлекательного контента.

В любом случае, исходя из этих советов, можно понять, на какие факторы обращает внимание поисковик при оценке содержимого ресурса.

Как правильно уменьшить размер изображения: 5 инструментов сжатия изображений.

Как правильно уменьшить размер изображения, 5 инструментов сжатия изображений

Как правильно уменьшить размер изображения: 5 инструментов сжатия изображений

сжатие изображений

Одним из важных параметров, влияющих на получение высокого поискового рейтинга, является скорость загрузки вебстраниц. Рекомендуется начать с оптимизации изображений. В этой статье будет рассказано про пять способов сжатия изображений, влияние размера на скорость загрузки контента.

В последнее время уменьшение времени загрузки содержимого страницы становится актуальным. Такой параметр, как быстрая загрузка, положительно влияет на продвижение ресурса, хорошую оценку посетителями, которые желают быстро получать доступ к запрашиваемой информации.

Нередко можно столкнутся с трудностями при добавлении определенных элементов на страницу, они могут сильно нагружать, увеличивая скорость открытия. Подобное усложняет оптимизацию, например, нужно искать способы разблокировки визуализации JavaScript или CSS, определять приоритетность отображения данных.

Но есть простой элемент оптимизации, для которого не требуются большие познания SEO. Речь идет про оптимизацию изображений, уменьшение размера и сжатие изображений эффективно влияет на ускорение загрузки всего контента страницы.

Есть множество руководств по работе с изображениями, но есть определенные нюансы. Например, как понять, какие изображения нужно оптимизировать или что лучше использовать для сжатия?

Сжатие изображений — достаточно простой способ добиться отличного результата, осталось лишь определится с оптимальным инструментом. В этой статье мы расскажем про опыт использования пяти разны бесплатных инструментов сжатия без потери размера изображения, их часто выбирают опытные дизайнеры, создатели контента маркетологи.

Инструменты будут испробованы на трех типах изображений:

1) Логотип в формате PNG;

2) Большое изображение слайдера без предварительного сжатия в формате PNG;

3) Несжатая инфограстика в формате JPG.

Изображения для тестирования подбирались таким образом, чтоб максимально соответствовать существующим в реальности ведь большая часть картинок создана без оптимизации.

На сегодняшний день можно отыскать множество бесплатных инструментов, после проверки около 20 наиболее популярных, было выявлено что описанные ниже пять наиболее соответствуют поставленным целям необходимости сжатия.

Пять лучших инструментов сжатия изображений:

1) Отимизилла «Optimizilla HYPERLINK» http://optimizilla.com .

Optimizilla.

У этой программы простой и понятный интерфейс и несколько полезных функций:

1.1) Вы можете работать одновременно с 20-ю изображениями;

1.2) Можно видеть результат сжатия благодаря функции предпросмотра, что позволяет оценить качество изображения после обработки;

1.3) Функция проверки качества. Вы можете настраивать качество изображения, пока не добьетесь приемлемого результата. Вы можете оценить разницу между 65% и 80% качеством изображения, чтобы узнать насколько можно уменьшить размер картинки.

2) TinyPNG.

TinyPNG

 

Эта программа похожа Оптимизиллу. Важные функции:
2.1) Возможность работы с 20 изображениями одновременно;

2.2) Экспортирование в Dropbox.

3) Compressor.io

Compressor

Имеет хороший интерфейс, но придется обрабатывать каждое изображение по очереди, здесь нет возможности работать с несколькими изображениями одновременно.

4) Kraken

Kraken 

Достаточно полезная программа, имеющая удобные функции:

4.1) Работа с нескольким картинками одновременно;

4.2) Экспортирование в Dropbox или импортирование файлов в Box, Dropbox или Google Drive;

4.3) Улучшенные инструменты настройки качества изображения с возможностью сохранения метаданных для изображений.

Также были обнаружены недостатки, бесплатно можно работать с небольшими изображениями. Например, наш банер весил 1,7 МБ бесплатно его не удалось сжать, нужно было заплатить от 5 до 79 $ в месяц для разблокировки всех возможностей программы.

5) Gift of Speed для (Png) и  для JPG-сжатия

Gift of Speed

Предлагает инструменты для работы с изображениями формата PNG и . Есть возможность загрузить несколько файлов формата PNG. Недостатком можно назвать отсутствие массовой обработки изображений в JPG.

Подведем итоги

Оптимизация изображений

Все проверенные программы смогли справиться с основной задачей — сжатием изображения. Но следует сказать, что для тестирования использовался стандартный набор инструментов, в то время как Kraken и Optimizilla предлагают дополнительные возможности для улучшения результата.

Итак, наименьший вес двух больших изображений получился после обработки TinyPNG, меньший вес логотипа был у файла, обработанного Compressor.io.

Если вы ищете несложный и в то же время эффективный инструмент сжатия, то стоит остановить выбор на TinyPNG. Если нужен более широкий ассортимент функций, включая предпросмотр, то можно выбрать Optimizilla.

Насколько увеличилась скорость загрузки после сжатия?

Работа сделана, изображения сжаты, теперь нужно узнать, насколько увеличилась скорость загрузки.

Было проведено небольшое тестирование, изменилась ли скорость загрузки контента со страницы после изменения размера.

Выяснилось, что время загрузки значительно сократилась. До изменения размера на отображение страницы уходило 5,882 секунды, после изменения контент загружался за 2,369 секунды. Это весьма впечатляющий показатель, оптимизация всего трех изображений увеличила скорость загрузки страницы практически в два раза.

Поэтому не стоит недооценивать важность оптимизации размера и веса изображений.

Идеи для блога или как увеличить аудиторию, выбирая правильные темы.

Идеи для блога или как увеличить аудиторию, выбирая правильные темы.

В этой статье вы узнаете про идеи для блога, что считается удачной темой, как выбирать темы, способные достигать ваших целей, как не испытывать недостаток идей.

Поставьте следующие цели написания статей для вашего блога:

1) Увеличение потока посетителей, интересующихся выбранной тематикой;

2) Увеличение поискового рейтинга. Это не просто цель создания статьи, это повышение авторитетности, надежности в глазах поисковиков, улучшение ранжирования. Очень хорошо, если статья помогает добиться этого.

3) Создание интереса и симпатии у читателей, получая постоянных посетителей, заходящих на ресурс периодически;

4) Выразить собственные позиции, идеи и мнения. То есть вы создаете блог для того, чтобы рассказать другим людям о вашем мнении, оценить определенную ситуацию или поделиться чем-то интересным с подписчиками;

5) Создание «продающего» текста. То есть вы пишете определенный пост, стараясь заинтересовать читателя, чтоб он купил ваш товар, зарегистрировался на ресурсе, захотел стать обладателем пробной версии книги/товара или совершил что-либо другое. Например, из-за прочтения поста про определенного кандидата из политической области читатель может захотеть проголосовать за этого кандидата.

Что должен делать отдельный блог?

Для ответа на этот вопрос следует понимать, как посетители приходят на эту страницу. Каждая статья создается так, чтобы достигать одну или несколько целей из списка выше. Не стоит пытаться при помощи одного блога охватить сразу все, это достаточно сложно. Рассмотрим четыре качества, важные для любого поста:

1) Помогает посетителям ответить на поисковый запрос. Например, человек хочет приобрести отличный поисковый автомобиль. Он ищет совет, какой машине отдать предпочтение. Если ваша статья предоставляет данную информацию, она написана грамотным специалистом, имеет две или более рекомендаций, человек сможет понять, на чем остановить выбор или хотя бы сузить перечень. Если статья помогает людям, значит она действительно хорошая.

2) Знакомит с определенной информацией, или развлекает. Она не должна быть чисто информационной или развлекательной, она должна совмещать оба эти качества, давая действительно нужную, интересную информацию. Другими словами, посетитель должен узнать что-то новое, интересное для себя. Например, если он ищет юмор, ему будут интересны только свежие анекдоты, которые ранее он не читал.

3) Помогает улучшить критерии, оцениваемые поисковиками. То есть написанный блог служит средством увеличения посетителей, обратных ссылок и других важных показателей для сайта.

4) Помогает создать благоприятное впечатление о бренде. Другими словами, автор делиться с личным опытом, предлагает обменяться впечатлениями, предоставляет интересную информацию. Написанный текст вызывает чувство доверия бренду, появляется постоянная аудитория.

Хороший пост обладает одним и более описанными качествами.

Шесть способов отыскать хорошую идею для написания блога

Зная, каких целей следует добиваться, какими качествами должны обладать отдельные посты, как можно определиться с идеей для написания новой статьи? Мы расскажем про шесть хороших способов, способных помочь постоянно генерировать идеи для написания блогов.

1 Способ. Оценка ответов на запросы, связанные с тематикой вашего ресурса. Другими словами, вы должны оценить, насколько хорошо раскрыты темы, связанные с определенными запросами, имеющие отношения к вашему ресурсу. Возможно, вы обнаружите, что на некоторые вопросы невозможно отыскать ответ, или тема не раскрыта полностью. Возможно, вы можете интересно и необычно предоставить ответ, что понравится читателям.

Для проведения оценки востребованности есть множество методов, используемых профессиональными блогерами. Чтобы придумать новые полезные темы, соответствующие запросам потенциальных читателей, можно опираться на:

1) Обзоры читателей;

2) Присылаемые электронные письма с просьбой, индивидуальные встречи, вопросы в интервью;

3) Разговоры в неформальной обстановке, если происходит взаимодействие с подписчиками/читателями ресурса;

4) Результаты исследований ключевых фраз, особенно важны при этом вопросы потенциальных читателей.

Для этого существует множество платных и бесплатных инструментов оценки, которые позволяют проверять запросы, вопросы пользователей поисковиков. Это может быть Mozse Keyword Explorer или Ahref, которые анализируют запросы. Одним из часто используемых является такой инструмент, как ЯндексВордстат, он показывает, что набирают в поисковиках пользователи, в частности вопросы, начинающие с как, где, когда, что, кто и т.д.

Рассмотрим несколько примеров, связанных с существующими вебсайтами. Один из этих сайтов — stephan-photo.com. Им занимается известный сео-специалист компании prodvizheniesajtov.com. Это компания предлагает фотосъемку различных праздников, на сайте публикуется контент, предусмотрены услуги и сервисы на тему фотосъемки. Второй сайт принадлежит компании site-photographer.ru. Там часто публикуются отличные блоги с хорошими темами, связанные с известными фотографами.

2 способ. Наличие доступа к редкой и ценной информации, которой не обладают другие.

Такой информацией может стать личный опыт, доступ к секретным исследованиям, данным. Вы можете самостоятельно сделать выводы по определенной ситуации, используя проницательность. Подобное может стать хорошей темой для написания статьи. Суть идеи состоит в том, что вы делитесь с читателями интересной и редкой информацией. Например, вы хотите создать ежеквартальный внутренний отчет по состоянию рынка, вы смогли получить статистические данные, можете ими поделиться с остальными, потому что они могут вызвать интерес.

Можно проанализировать исследования по ключевым запросам пользователей, чтобы узнать, что они хотят увидеть, какая информация нужна, чтобы написать нужный и востребованный контент.

Есть несколько способов, помогающих определиться с востребованностью выбранной темы:

1) Количественные и статистические результаты исследований;

2) Опрос инсайдеров, потребителей в вашей отрасли или конкретного продукта, членов команды, работающих с вами;

3) Краудсортинг, например, его можно осуществить через подписчиков вашего сообщества в соцсетях;

4) Данные, собранные лично вами, например, для создания внутреннего годового отчета;

5) Публичные данные, требующие систематизации, обработки. То есть обнаружив интересную и полезную информацию, вы знаете, как ее интерпретировать для улучшения восприятия и пробуждения интереса у читателей;

6) Талант в мультимедийной области. Например, вы умеете создавать увлекательные видео, аудио, фотографии в интернете;

7) Связь с источником информации (это может быть человек, данные, ваш личный опыт, который другие не смогут повторить).

Описанные выше методы способны помочь отыскать интересную тему для написания блога, которые будут действительно полезны и важны для потенциальных читателей.

 

3 способ. Поделитесь собственным впечатлением, опытом

Этот способ часто используется многими блогерами. Он использовался компанией prodvizheniesajtov.com при написании контента. Вы можете описать свое мнение про использование товаров вашего бренда, оценить полученный результат. Вы можете своим примером вдохновлять читателей на приобретение описанного товара. Или возбудить интерес к вашим исследованиям, поэтому читатели будут периодически проверять ресурс на появление продолжения в других блогах.

Блоги, основанные на личной работе, представляют большую полезность и ценность. Для их написания помогают:

1) Фото. Это отличный способ запомнить важные моменты. Многие блогеры часто публикуют фотоотчеты, связанные с контентом блога;

2) Журнал. Введение журнала позволяет записывать важные события;

3) Интересные моменты в разговорах по электронной почте, соцсетях;

4) Путешествия. Достаточно часто вы узнаете новую и полезную информацию, когда отправляетесь путешествовать.

4 способ. Покрытие «горячей» темы, новостного тренда.

Этот способ основан на усилении впечатления от ранее увиденного, услышанного. Вы может писать о том же, что и кто-то другой, добавляя свое. Например, переписывая известный блог  на свой лад, вы получаете не только людей, которым интересно сравнить ваше мнение с первоисточником, но и у самих авторов может возникнуть желание прочитать ваши тексты.

То есть, увидев, что кто-то затронул интересную тему, описав ситуацию правильно или неправильно, вы можете написать свою новость по этой теме, выражая согласие или не согласие с предыдущим автором или добавив нюансы. Вы можете обладать дополнительной информацией по данной теме, поэтому можете сделать написанное ранее более ценным и полезным. Вы можете брать источники идей с:

1) Instagram;

2) Facebook;

3) Форумы;

4) Разнообразные порталы наподобие Pocket, Techmeme или многие другие, где часто появляются интересные блоги, которые могут вдохновить на написание собственных блогов.

Последние два способа основаны на базовых основах, поэтому нет нужды слишком углубляться.

5 способ. Простое исследование ключевых фраз.

Для этого используется инструменты, такие как Google AdWords, tool.io, Mozword Keyword Explorer или многие другие, предоставляющие часто используемые фразы в строке поиска по выбранной тематике. Анализируя результаты, можно определить, какие темы интересны потенциальным посетителям ваших страниц.

6 способ. Уточнение полных интересов читателей. Вы пытаетесь понять, что интересует ваших потенциальных читателей, что они еще ищут, связанное с вашей тематикой.

Рассмотренных способов достаточно для генерации хороших идей для написания блогов. Вы можете пользоваться одним или всеми для поиска подходящей тематики.

Как Google обрабатывает «Скрытый» текст в CSS + Javascript ?

Как Google обрабатывает «Скрытый» текст в CSS + Javascript ?

Оценивает ли поисковик Google скрытые ссылки, скрытый текст? 

В этой статье будет рассказано про скрытые тексты и его разновидности. Под скрытым текстом понимается не спам или раскрутка ключевых слов, что делалось в 90-х - 2000 годах. Здесь будет рассказываться про использование CSS и JavaScript для открытия полного контента.

На сегодняшний день CSS и Javascript часто используются при создании дизайна сайта, разработчики предпочитают использовать эти инструменты для загрузки текста после совершения определенных действий посетителем ресурса. Это может быть кнопка «прочитать далее» для того, чтобы увидеть остальной текст, или отдельное меню на странице, после нажатия на которое открывается дополнительная информация о товаре или услуге. Из-за этого могут возникать трудности с SEO-оптимизацией, хоть поисковики могут сканировать и делать анализ скрытого текста. Трудность заключается в том, что поисковики по-разному оценивают скрытый и обычный текст.

Рассмотрим пример. Есть текст про качественную мебель из кокосового дерева, он будет продвигаться в поисковом поиске. Допустим, что весь текст разбит на несколько страниц, например, на странице А показан первый абзац текста, в конце есть ссылка читать дальше, которая перенаправляет на страницу В с остальным текстом.

Подобное часто встречается на разных сайтах, люди преследуют разные цели, используя скрытые тексты. Одни хотят получить информацию, насколько статья интересна, сколько пользователей хочет узнать продолжение (число нажатий на ссылку читать дальше) или отслеживают другие статистические данные. Другие подобным образом вставляют рекламу с целью заработка. Очень часто скрытые тексты помогают представить статью в удобном формате.

Но как реагирует поисковик при оценке текста, открывающегося после нажатия кнопки «читать далее»?

Есть несколько параметров, влияющих на оценку:

1) У страниц должны совпадать домены, профили ссылок;

2) Совпадение тематики текстов. Если страница А была про мебель из кокосового дерева, то и страница В должна иметь отношение к данному ключевику, при этом она должна содержать больше информации, чем страница А;

3) Влияние страниц, которые открываются после нажатия ссылки CSS или JavaScript, минимальное. Поисковик будет считать такой текст малозначимым и неважным.

4) Разные поисковики по-разному оценивают скрытые тексты. Например, Bing и Yahoo оценивают скрытые одинаково с обычными текстами.

Лучшие методы оптимизации скрытого текста.

Итак, что нужно сделать для максимальной оценки скрытого текста поисковиками:

1) Следует быть готовыми к тому, что скрытые тексты при помощи CSS и JavaScript будут иметь меньшее влияние на поисковый рейтинг, чем обычный контент. Он будет учитываться при показе результатов поиска заданной ключевой фразы, но не займет первые позиции. Другими словами, поисковик знает про существование вашего текста, но отдает предпочтение контенту, доступного полностью по умолчанию, без осуществления дополнительных переходов по ссылкам. Поэтому стоит подумать, стоит ли терять поисковый рейтинг, а значит и дополнительных посетителей, создавая страницы со скрытым текстом для достижения других целей.

2) Следует предоставить альтернативный вариант для просмотра содержания скрытого текста. Можно сделать текст открытым по умолчанию, например, разрешив краткий предпросмотр содержимого, максимально близкого к оригиналу. Подобное решение поможет получать ту же самую статистику просмотров и других действий читателей, ведь на практике 95% читателей закрывают скрытый текст, не дочитывая до конца. Также можно пользоваться разнообразными программами, позволяющими получить статистику, например, GitHub. Это позволит открыть весь текст, не используя скрытие текста при помощи CSS и JavaScript.

3) Если вам нужно скрывать часть текста при помощи CSS и JavaScript, то следует важные ключевые фразы, главную информацию указывать в той части, что останется открытой по умолчанию. Другими словами, все, что оказывает положительное влияние на продвижение в поисковиках, не стоит прятать в скрытой части. Используя важное для ранжирования в открытой части контента, вы сможете минимизировать потери поискового рейтинга.

Ранее часто спорили по поводу оценки Гуглом скрытого текста. Многие считали, что он оценивается одинаково с открытым. Но после исследования в этой области, проведенного А. Шайем, было доказано, что скрытый текст оказывает меньшее влияние на продвижение.

Настройка ускоренной индексации сайта

Настройка ускоренной индексации сайта

Настройка ускоренной индексации сайта

Настройка ускоренной индексации сайта

Первоначальным и главным аспектом для успешного продвижения сайта выступает настройка индексированных основ для его развития. Точное индексирование веб-сайта обеспечивает:

  • максимальную скоростную индексацию страниц ботами поиска;
  • полное отображение числа страниц в главном индексе;
  • выделение системами поиска сайта с несколькими страницами;
  • занятие лидирующего расположения ресурсом со своим наполнением;
  • мощный интернет-трафик.

Для ограждения страницы от проникновения в индекс систем поиска как не значащихся или мусор, для экономии временных затрат краулеров поиска на бессмысленные интернет-страницы, необходимо определить попавшие конкретные страницы сайта в индексе. Также это проделывается и с ресурсом в целом с помощью ввода запроса site:http://site.ru/ или запросы продажи site:http://site.ru/ «запрос».

Сайтам с активной структуризацией позиций и интернет-магазинам рекомендуется периодически проводить процедуру индексирования с первоначальным обновлением карты.

Необходимо проконтролировать, по какому числовому запросу система поиска показывает ваши страницы. Часто происходит так, что в индексе при вводе ключевого вопроса высвечивается огромное количество страниц, а не одна. Вследствие чего продвижение страницы по требуемому запросу отсутствует.

Некорректная настройка индекса для вашего проекта влечет за собой такие последствия:

  • страницы, имеющие большое значение не индексируются;
  • отображение в индексе различных веб-продуктов с идентичными URL;
  • в индексе отображаются страницы с похожим контентом и отличающимися URL;
  • разделы технического характера индексируются;
  • замусоренные выпадают при выдаче и индексируются;
  • административные страницы отображаются в индексе;
  • авторитет главных страниц снижается;
  • лишняя трата времени краулерами на индексацию разделов малой важности.

Для хорошей индексации необходимо обязательное использование таких мета-тегов:

  1. Noindex, Follow применяется для скрывания страниц от индексирования, при этом бот поиска перемещается по необходимым ссылкам, заносится в тег. Негативным моментом будет потеря времени на индексацию, хотя краулеры легко перемещаются по ссылкам разных ранговых и текстовых назначений.
  2. Nofollow, Noindex препятствует индексации страниц, перемещению по ссылкам, временных затрат краулером нет, степень внутреннего и внешнего веса ссылок отсутствует.
  3. Index, Nofollow. Тег способствует индексу страниц, а ссылочное перемещение в боте поиска отсутствует. Рекомендуется его применять для обхода индекса страниц, посылающихся на внутренние ссылки.
  4. Cannonical+Next/Prey. Значение Cannonical предназначен для указания повторяющихся и применяется на дублирующих страницах только комплексно с rel=«next» and rel=«prev» для связи с URL при нумерации страниц.
  5. txt используется только в качестве рекомендуемого элемента и предназначен для регламентации в ПС индексе с учетом не обязательного обозначения в Robots.txt необходимых моментов для индексации. В Яндексе выделять отдельное место установки с правильным хостом без http:// или https://, для закрытия места установки указывайте Disallow: /dir/
  6. Для ресурсов с множеством контента, интернет-магазинов рекомендуем применять Sitemap.xml. Для разработки карты сайта необходимо учесть файловый размер до 10 МБ, обозначение этого тега с файлом Robots.txt, создание не одного файла Sitemap.xml, а нескольких и объединение их в общий Sitemap, применение тегов priority и lastmod.
  7. AJAX/JavaScrip предназначен для создания внутренней и внешней структуры. Уменьшает временные затраты на отклик при использовании JavaScrip при серверном обращении без перезагрузки страниц. Легкость просмотра и процессов контроля продуктов при производстве единичного URL. AJAX помогает создавать фильтры, кнопки, меню, сортировку, формы, серверный обмен сведений, структуру комментариев и т.д.

Применяя данный тег, можно столкнуться с такими сложностями, как трудоемкий процесс разработки, трудности с системами поиска при индексировании, не корректные ЧПУ страничные адреса, приблизительные данные статистики. Переход на AJAX осуществляется по этапам, чтобы сайт не утратил уровень значимости.

При хорошем организационном подходе с AJAX можно увеличить юзабилити и скорость. Если не учитывать правила поисковиков AJAX, можно получить снижение трафика и хорошее позиционное место.

Для разработки сайтов с AJAX с 2015 года Google предлагает придерживаться «Progressive Enhancement», помогающее роботам поиска изучать страницы с динамическими характеристиками. Google разъясняет .js и .css, распознавая на AJAX страницы в самостоятельном режиме и не требует вспомогательных настроек.

В реальности решение проблем на сайтах только одним методом еще не придумали. К каждому сайту приходится использовать разные способы для настройки индексации с учетом особенностей и требований.

При создании функциональной структуры различных ресурсов и процессов индексирования можно применять базовые правила, а для сайтов интернет- магазинов необходимо придерживаться таких основ:

  • Разрабатывается протокольный сайт https со склеенными «зеркалами». Дублированные URL закрываются от индексации с применением тега Noindex, Nofollow.
  • Основа URL заключается в создании статических и ЧПУ с короткими адресами страниц для продвижения. Ключи URL (посадочные элементы) для домена в целом невозможны.
  • Меню навигации структурируется по максимуму и располагается сверху.
  • Оформление цепочки навигации и «назад» осуществляется разметкой микроданных и просто в визуальном просмотре.
  • Перелинковка внутренняя обязательно (блочные части «похожая продукция», «с продукцией покупают», «рекомендуемая продукция», применяется модуль MegaIndex.com с целью легкого создания перелинковки).

Используются эффективные фильтры для продвижения интернет-страниц в комплексе с известными комбинациями фильтров с открытой для процессов индекса, но скрыты от ссылочного серфинга с применением тега Index, Nofollow. Другие фильтры с комбинационными элементами скрываются. Сортировка не должна подпадать под индексацию и закрывается при помощи тега Noindex, Nofollow.

Пагинация  формируется на основе canonical и next/prev для связывания нескольких URL при нумерации страниц.

Увеличение трафика за счет оптимизации навигации сайта

Увеличение трафика за счет оптимизации навигации сайта

Увеличение трафика за счет оптимизации навигации сайта

Увеличение трафика за счет оптимизации навигации сайта

Процесс максимизации навигации сайта способствует привлечению большего количества заинтересованных пользователей, повышению качества распределения и лояльности систем поиска. Также он способствует увеличению рейтинга веб-сайта при выдаче из чего следует рост интернет-трафика и обменных процессов.

Проводя процедуру оптимизации необходимо обратить особое внимание на такие разделы:

  • URL – адресные данные страницы;
  • Menu – меню навигации (главное, дополнительное);
  • Breadcrumbs – подпункты навигационной цепочки и назад;
  • Internal links – внутренние ссылки;
  • Tags – теги, облачные теги;
  • Sitemap – карта сайта с учетом потребностей посетителей.

Рассмотрим подробно каждый из разделов, позволяющих увеличить трафик.

Усовершенствование URL

Регламентация всех используемых URL сможет улучшить структурные показатели веб-сайта. Для ознакомления структуры URL можно воспользоваться сервисом Яндекс.Вебмастер>> Индексирование сайта>> Структура сайта. Структурный вид не должен содержать сложную и беспорядочную для человеческого глаза ЧПУ. Придерживайтесь 8 логических и простых правил:

  • при создании URL используйте дефисы, исключите нижнее подчеркивание;
  • за именем домена ставьте слеш, что приводит к уменьшению влияния на сервер;
  • устанавливайте склейку 301 редиректом на сервере или файле htaccess, в Google Webmasters и Яндекс.Вебмастере выделите главное зеркало с директивой Host в robots.txt;
  • при наличии доменных имен-синонимов осуществите их склейку;
  • защищенный протокол https используйте для сайтов с финансовыми интернет операциями;
  • позаботьтесь о переходе посетителей на высшие уровни дирестории;
  • избегайте повторяющихся URL даже при разном содержании разное.;
  • на основе мета-тега «noindex, nofollow» скрывайте от индексирования динамические

Улучшение навигационного меню

Есть несколько особенностей, которые необходимо соблюдать для оптимизационных результатов:

  1. Главное меню и дополнительное должно содержать около 7 положений, так как человеческая память акцентирует внимание только на 7 объектах одновременно.
  2. Не зависимо от места нахождения на странице доступ к главному меню должен быть быстрым и при прокрутке оставаться видимым.
  3. В верхнем левом углу располагайте первый важный пункт меню (каталог предоставляемых товаров или сервисов, прочее). Заключающим пунктом лучше делать «контакты».

Оптимизация цепочек навигации и назад

Для активной работы навигационных систем и перелинковки внутри сайта рекомендуется применять цепочку навигации. Навигационная цепь организовывается такими методами:

  • Воспроизведения истории просмотра установить в виде «назад на предыдущую страничку», что сохраняет работающие фильтры и сортировку используемых пользователей при возврате на просмотренную недавно страницу сайта.
  • Воспроизведения структуры сайта в виде главная>> Категория>> Подкатегория>> Продукция. В центральном месте пользовательского внимания устанавливается под главным меню Breadcrumbs. Важно избежать размещения на основной странице и конечном звене активных ссылок, за исключением посылания на саму себя страницы

Важно! Навигационная цепь должна содержать микроданные.

Регламентация ссылок внутри страницы

Размещаются на текстовых страничках как внутренние ссылки контекста. Применяются с целью оптимизации навигационных систем и формулировки структуры сайта системами поиска. Также обозначают распределение внутренних страниц ресурсов.

При перенасыщении внутренними ссылками возникает обратный результат, поэтому используйте их в меру. Если часто вносить ссылки контекста прямого вхождения при запросах поиска возникнет снижающий эффект. Создавая новые алгоритмы внедрения системы поиска рекомендуют разработчикам создавать страницы для пользовательской аудитории, а не для роботов. Если возникает потребность в размещении большого количества ссылок для смыслового контента и пользователей, то это не наказуемо, главное не переусердствовать.

Теговое улучшение

Для вспомагательных навигационных основ по изложенному материалу на веб-сайте(реклама, статьи и прочее) применяется технология тегирования. Вводятся слова или фразы ключевого значения в виде ссылок. Переходя по ним заинтересованные посетители перемещаются на страницы с тематическим наполнением, указанным в теге.

Применение тегов на ресурсах больших объемов (статьи, продукция) необходимо контролировать, чтобы не сбиться в основных формулировках.

Результативная карта сайта с учетом потребностей посетителей- Sitemap XML

Для удобного пользования сайта разрабатывается карта двух видов: графическая, текстовая. Данный вид оптимизации используется чаще всего ресурсами с информационным наполнением со значительным числом контента. Для эффективного функционирования карт необходимо придерживаться:

  1. Для сайтов с форматом HTML карта должно отвечать требованиям структуры ресурсов.
  2. Карта должна делиться пунктами и подпунктами на требуемые разделы.
  3. Оформления текста осуществляется в стиле CSS.
  4. Наполнение карт разбавляется мини-обзорами.

Используя при разработке или обновлении веб-сайта вышеизложенные способы создания внешнего структурирования, можно поднять рейтинги пользовательских показателей, заинтересованность посетителей. А результатом будет значительное наращивание трафика системами поиска.

JavaScript и SEO: проверка доступности содержимого страниц
для поисковых ботов

JavaScript-и-SEO

Любой грамотный сео-оптимизатор должен знать, как использование JavaScript может повлиять на поисковое продвижение. Это достаточно важно, ведь если поисковые боты не смогут распознавать контент, не смогут провести его анализ, то страницы, где он содержится, не проиндексируются, они не появится в списке результатов, отвечающих на запросы пользователей.

Одними из основных вопросов, которые часто задаются при оптимизации, являются: «Виден ли контент для поисковых роботов?» или «Как исправить проблемы, связанные с недоступностью контента для поисковиков?».

Базовая информация

Что представляет собой JavaScript?

Для создания страницы сайта могут использоваться такие элементы:

1) HTML. Этот язык программирования стал основным, большая часть страницы (структура, статистический контент и многое другое) написана на нем;

2) CSS. Этот язык используется для создания стиля вебстраницы, его можно считать «презентационной частью» сайта;

3) JavaScript. Данный язык служит для интерактивности ресурса и создания динамических элементов вебстраницы.

Что представляет собой JavaScript?

JavaScript прописывается в основной код, написанный на HTML, при помощи специальных тегов. На сегодняшний день разработано множество библиотек и фреймворков с JavaScript, это jQuery, AngularJS, ReactJS, EmberJS и многие другие.

Библиотеки и фреймворки JavaScript

фреймворки JavaScript

1) AJAX.

Многие слышали про AJAX, но мало знают о нем. AJAX — это набор методов для создания страниц, представляющих собой объединение асинхронного JavaScript и XML. При этом созданные вебприложения работают с сервером в фоновом режиме, не нагружая загружаемую страницу. Другими словами, запуск сценария async позволяет другим функциям и строкам кода работать без прерывания.

AJAX используется для неполного обновления контента или общего макета вебстраницы. Дело в том, что при загрузке страницы сервер получает запрос на извлечение с последующим отображением. Если использовать AJAX, то не нужно каждый раз загружать все активы, подгружаются только те, что изменились или добавились.

AJAX можно представить в виде небольшого сервера. Одним из ярких примеров является Google Maps, где происходит обновление вебстраниц без полной перезагрузки.

AJAX

2) Объектный макет документ (DOM).

Для того, что заниматься сео-оптимизацией, нужно обязательно иметь представление о DOM, ведь поисковые системы используют это для анализа и распознавания контента.

Это то, что вы видите после нажатия на «Проверка элемента», другими словами это алгоритм получения и преобразование HTML кода браузером в отображаемую страницу, которую мы видим после загрузки.

Алгоритм достаточно прост:

2.1) Браузер получает контент в HTML-коде;

2.2) Проводится сканирование и анализ содержимого;

2.3) Извлечение элементов CSS, JavaScript, изображений.

DOM представляет собой результат анализа, имеющий вид структурированной, организованной версией кода страницы ресурса.

Главным отличием DOM от исходного HTML кода является способность изменять содержимое страницы, опираясь на введенные запросы пользователя, время суток и других параметров благодаря использованию HTML, CSS и JavaScript. Его еще часто называют динамическим HTML.

Источник HTML DOM
 html  DOM

 

3) Безгласный просмотр.

Под безгласным просмотром понимается просмотр содержимого без загрузки пользовательского интерфейса. Поисковые системы, такие как Google, пользуются этой функцией для оценки полезности и качества контента страницы.

На сегодняшний день есть специальные инструменты, например, PhantomJS и Zombie.js, позволяющие делать безгласный предпросмотр для тестирования результата оптимизации, совершения предварительного рендеринга.

Почему использование JavaScript может затруднить продвижение в поисковиках, как исправить это?

Существует три основных фактора, при которых должны быть выполнены при использование JavaScript:

1) Возможность проведение скана — поисковые роботы могут сканировать и распознать страницы ресурса;

2) Доступность контента — для поисковых роботов открыт доступ к контенту, они способны его проанализировать;

3) Воспринимаемость ресурса — оценка визуализации (латентность)

 

Сканирование поисковыми роботами.

При этом поднимается важный вопрос, способны ли поисковые роботы отыскать URL-адреса страниц, распознать структуру проекта? Здесь могут появиться две проблемы:

1) Некоторые элементы страницы оказались заблокированными (случайно или неслучайно) для поисковых роботов из-за использования JavaScript;

2) Нарушение структурных связей из-за замены тегов HTML на события JavaScript.

Почему блокировка сканирования из-за JavaScript оказывает негативное влияние на продвижение?

Если определенные элементы страницы недоступны для скана из-за JavaScript, значит поисковик не сможет полностью проверить и оценить все содержимое, а посетитель этой страницы не сможет увидеть заблокированные элементы. Поисковая система старается предоставить наиболее полезный и качественный результат по поисковым запросам, они по умолчанию считают страницы с заблокированными элементами менее привлекательными для посетителей. Также наличие заблокированных элементов может быть расценено как умышленно-вредоносное, такая страница может не пройти индексацию.

Есть множество программ-инструментов, позволяющих проверить на доступность сканирования страниц поисковиками, например, это могут быть Fetch и Render, или инструменты с Google, robots.txt , которые покажут элементы, заблокированные для поисковой системы.

Трудность с блокировкой элементов достаточно легко решить, достаточно открыть доступ ко всем нужным элементам страницы.

Обратите внимание на важный момент, надо действительно разбираться в этой области. Принимать решение про открытие/блокировку доступа для поисковиков к определенным элементам страниц следует вместе с опытными специалистами-разработчиками.

Структурирование ссайтов (внутренние связи).

Разработка внутренней связи страниц — важный этап работы. Для этого следует использовать обычные теги-команды HTML или DOM (при этом все равно используется тег вида hrefs = «www.example.com») с использованием JavaScript-функций для перемещения посетителя по всем страницам ресурса.

Не стоит применять JavaScript onclick events для внутренней связи, хоть вполне возможно, что поисковики смогут отыскать страницы и проанализировать их (в элементах кода JavaScript или XML-файлах Sitemap). Проблема в том, робот не свяжет те страницы с общей структурой ресурса.

Внутренняя связь служит для поисковых роботов для оценки важности и полезности вебстраниц, в некоторых случах они могут оказывать очень сильное влияние и переопределять «подсказки SEO», такие как канонические теги.

Структура URL.

Исторически веб-сайты на основе JavaScript (например, «сайты AJAX») использовали идентификаторы фрагментов (#) в URL-адресах.

Есть несколько советов, которых следует придерживаться:

1) Старайтесь избегать использовать одиночный хэш #, потому что этот знак не сканируется поисковыми роботами. Он нужен для созданий ссылки перехода, то есть таких ссылок, которые перенаправляют к определенной части содержимого на странице. Все, что находится после этого символа в адресной ссылки не отправляется на сервер, вебстраница будет прокручиваться до первого элемента, совпадающего с указанным идентификатором. Поэтому поисковик Гугл советует не использовать данный символ в URL-адресах.;

2) Не стоит также прописывать URL-адреса Hashbang (#!), их распознает только поисковая система Бинг, Гугл отказались от поддержки данного формата из-за попыток манипуляций с похожим escaped_fragment HTML. Рассмотрим на двух примерах:

2.1) В оригинале должно содержатся #! (hashbang) в URL-адресе как свидетельство существования определенного фрагмента или метаданных <meta name = «fragment» content = «!»>;

2.2) На практике символ #! (hashbang) заменяется на «_escaped_fragment_», делая адрес длинным, похожим на взломанный.

Гугл советует:

1) Использовать API истории PushState, что базируется на истории просмотра вебстраниц. Другими словами, при загрузке страницы повторно обновляются лишь те элементы, что изменились с прошлого посещения. Гугл одобряет это, поддерживая браузерную навигацию для визуализации. Особенно хорошо применять этот метод для «бесконечной прокрутки», то есть для ситуаций, когда пользователь часто нажимает на разные части вебстраницы, при этом происходит обновление URL-адресса. Считается хорошим, если после прокрутки страницы вниз, происходит загрузка контента без обновления всей страницы.

2) Можно сделать бесконечную прокрутку без постоянной перезагрузки при помощи replaceState ().

Возможность взаимодействия ресурса с поисковыми роботами.

Выше обсуждалось, что поисковики применяют режим безгласного просмотра для оценки содержимого контента на соответствие поисковым фразам. При этом поисковик может распознавать некоторые элементы сайта, сделанные при помощи JavaScript, пользуясь при этом DOM.

Но достаточно часто поисковые роботы не способны распознать фрагменты кода на JavaScript, что негативно влияет на продвижение. Поэтому нужно знать, способны ли поисковые роботы анализировать и сканировать весь контент. Нет смысла строить догадки, нужно проверять доступность содержимого ресурса.

Поведение поискового робота, обнаружившего JavaScript, имеет ряд особенностей:

1) Поисковые боты не выполняют какие-то действия, предусмотренные на получение дополнительной информации. Например, если вы разместите статьи, прочитать которые можно только после регистрации, то они не пройдут индексацию, так как боты не смогут получить доступ к этому контенту. Поэтому стоит позаботится, чтобы поисковики могли получить доступ к этому контенту.

2) Поисковые боты могут пропустить страницу, если происходит долгая загрузка. Важно убедится что после срабатывания событий загрузки JavaScript страница открывается менее, чем за 5 секунд. Если длительность загрузки будет более, есть большая вероятность, что поисковики не видят загружаемый контент.

Нет конкретного значения задержки загрузки, но стоит придерживаться 5 сек. Есть специальные инструменты тестирования, например, GoogleSpeed ​​Insights, Mobile Friendliness Tool и Fetch, можно проверить таймер Max Prin.;

3) Обнаружение ошибок в срабатывании JavaScript может повлечь пропуск отдельных страниц ресурса.

Как проверить, способны ли роботы сканировать и распознавать содержимое?

1) Тестирование.

Поисковые алгоритмы постоянно развиваются, получая новые методики оценки и распознавания содержимого. В 2015 поисковые роботы научились анализировать JavaScript, применяя DOM. Отсюда следует вывод, если вы можете просмотреть содержимое ваших страниц в DOM, то скорее всего и боты способны его проанализировать.

Б.Горавлеч решил протестировать комбинацию разных библиотек и фреймворков JavaScript, чтобы узнать, как поисковые боты реагируют на их наличие (например, проведение индексации страниц и их содержимого). В результате выяснилось, чтоб большинство библиотек и фреймворков Гугл способен просканировать и распознать, иногда создавая достаточно сложные структуры.

Этот тест показал, что использование JavaScript допустимо, но нужно проверять совместимость выбранных библиотек и фреймворков с поисковыми ботами.

Это можно сравнить с высказыванием Д. Коллина про пули и пушки:

«Пулю можно сравнить с эмпирическим экспериментом, используемым для определения работоспособности объекта. Пуля должна обладать тремя параметрами: недорогой стоимостью, низким уровнем риска при использовании и низкой отдачей. Опираясь на эмпирический эксперимент, происходит концентрация ресурсов, чтобы стреляя из пушки, получить максимальную выгоду.»

Можно пользоваться следующим алгоритмом проверки доступности контента для поисковых роботов:

1) Проверить доступность контента в DOM;

2) Проверить структуру ресурса на наличие внутренних связей;

3) Вручную проверить некоторые элементы вебстраниц;

4) Используйте инструменты для проверки видимости контента поисковой системой;

5) Оцените скорость загрузки после срабатывания события JavaScript при помощи Fetch с Google. Это способно отобразить возможные проблемы, связанные с блокировкой отдельных элементов, это можно увидеть в файле robots.txt.

Примечание. Если у вас нет возможности проверить ресурс через GSC, можно воспользоваться «Any Bot Tool» Technicalseo.com

Вы провели проверку и обнаружили, что есть неисправности? Или используемые вами метаданные предназначены для поисковых ботов соцсетей (Фейсбук, твитер и т.д)? Для решения этих и других проблем следует сделать HTML SNAPSHOTS.

2) HTML SNAPSHOTS.

HTML SNAPSHOTS — это отображение страницы, которую видят поисковые боты (статическая версия DOM).

Впервые они появились в 2009, в 2015 Гугл решил отказаться от этого метода. Тем не менее они помогают разобраться с выявленными трудностями.

Например, если вы обнаружили, что поисковые боты не распознают ваши элементы JavaScript, то вы можете предоставить HTML SNAPSHOT страницы, чтобы бот смог проиндексировать и оценить содержимое.

Стоит учитывать, что поисковики стремятся получать те же данные, что и посетитель вашего ресурса, поэтому пользоваться HTML SNAPSHOT стоит лишь в тех случаях, когда нет возможности исправить трудности из-за использования JavaScript.

Примечание.

Гугл продолжает поддерживать работу с HTML SNAPSHOT, но рекомендует избегать его использование, аргументируя это тем, что:

1) Они ориентируются на получение страниц в том же виде, что и пользователи ресурса;

2) Попытки обмана в виде предоставления отличного содержания снимка от оригинальной страницы. При этом содержание снимка и оригинала не должны отличаться. При обнаружении попыток обмана возможно наложение штрафа.

Несмотря на эти недостатки, есть ряд преимуществ:

1) Поисковый бот Гугл получает представление о контенте страницы, даже если не способен распознать некоторые элементы JavaScript;

2) Поисковые боты других систем способны распознавать содержимое страниц, ведь далеко не все существующие поисковики работают с JavaScript.

Локализация сайта

Когда браузер получает страницу от сервера, он создает DOM образ, при этом большая часть элементов подгружается в зависимости от места расположения на вебстранице. Если вы разместите крупный объект в начале, то он будет загружаться первым.

Гугл нацеливает на загрузку данных таким образом, чтобы первыми отображались самые важные и полезные для посетителей.

Путь рендеринга — оптимизация загрузки по важности. При этом использование JavaScript, без которого можно обойтись, может замедлить скорость загрузки страницы, блокируя потенциал (воспринимаемая латентность).

Способы решения Render-blocking JavaScript.

Есть множество инструментов, позволяющих проверить скорость загрузки вебстраницы, например, Speed SpeedWare, WebPageTest.org, CatchPoint, способных оценить влияние элементов JavaScript на скорость. При выявлении проблем можно:

1) Inline — добавить JavaScript в HTML-документ;

2) Async — асинхронизировать JavaScript, добавив атрибут async к HTML-тегу;

JavaScript асинхронным

3) Отложить — расположить элемент JavaScript в нижней части страницы.

Поместив JavaScript ниже в HTML

Стоит отметить, что вызываемые сценарии следует расставить по приоритетности. Вы не должны менять очередность исполнения сценариев, или запускать сценарий до завершения предыдущего действия (например, до открытия другого файла, на который есть ссылка в сценарии). Работать над этим должен грамотный специалист.

Подробнее: Документация по скорости разработки Google Developer

Итоги.

Поисковые системы стараются создать возможности для скана, анализа и распознавания JavaScript, но все еще есть проблемы с этим. Обязательно проверьте, что содержание ваших страниц проверяется поисковыми ботами. При выявлении проблем ищите способы их преодоления.

Мораль истории