19 интересных технических фактов о SEO для новичков

Интересные факты о Seo

Хотите заняться продвижением сайтов в поисковиках? В этой статье вы сможете ознакомиться с некоторыми фактами, способным помочь новичкам лучше понять суть и принципы оптимизации.

SEO — это обширное поле деятельности, в этой области есть множество нюансов, требующих наличия способности мыслить и владеть теорией.

Итак, рассмотрим список важных фактов, способных расширить ваше понимание о SEO:

1) Скорость загрузки вебстраницы.

Многие считают, что этот параметр не сильно влияет на оптимизацию, думая, что медленная загрузка лишь раздражает посетителей. Но это не так, скорость загрузки является важным поисковым критерием, более того, в будущем Гугл планирует сделать его одним из критериев оценки для выдачи рейтинга в поисковых результатах (это касается тех случаев, когда пользователю важно быстро получить результат).

Для оценки скорости есть множество инструментов, одним из них является Google PageSpeed Insights. Он выявляет возможные проблемы, исправление которых способно увеличить скорость загрузки. Также есть специальные инструменты проверки скорости загрузки мобильных версий сайта, где быстрота загрузки — важный показатель. Например, Гугл предлагает пользоваться программой проверки скорости загрузки на 3G-соединении и оценки удобства интерфейса на мобильных телефонах.

2) Файл Robots.txt различает заглавные буквы регистра. Этот файл следует размещать в основной каталог ресурса.

Стоит учитывать, что для распознания файла нужно обязательно прописывать его название в Robots.txt. Не забывайте, поисковые боты ищут этот файл в основном каталоге, если вы разместите его в другой папке, роботы не смогут его отыскать.

3) Поисковые боты не всегда способны распознавать и сканировать страницы с бесконечной прокруткой.

Если они не могут просканировать контент, значит страница, на которой он размещен, не пройдет индексацию. Если вы хотите работать с бесконечной прокруткой страницы, то следует позаботиться о дополнительной разбивке страницы на части. Используйте replaceState/pushState для реализации функции бесконечной прокрутки. Проверяйте код, если для бесконечной прокрутки вы использовали rel = « next » и rel = « prev ».

4) Поисковикам безразлично, какой будет структура сайта.

Другими словами вы сами определяете количество разделов и подразделов, главное, чтобы была внутренняя связь между всеми страницами сайта без использования CSS и Javascript.

5) Можно использовать тег noarchiv, не боясь появления трудностей с оптимизацией.

Он используется для запрета отображения кешированной версии вебстранице в результатах поикового запроса, при этом само продвижение и индексирование не запрещается.

6) Первой проверяется домашняя/главная страница.

Чаще всего, поисковые роботы приходят на главную страницу, но иногда при наличии множества ссылок на другую страницу, поисковый бот может заходить на нее.

7) Внутренние и внешние ссылки оказывают разное влияние на продвижение.

Более влиятельными считаются внешние ссылки (независимая оценка конкурентов).

8) Google Search Console позволяет проверять доступность ваших страниц для поисковиков.

Этот инструмент позволяет просмотреть, какие страницы ресурса поисковые боты периодически проверяют или на какие зайдут в ближайшее время. Зная эту информацию, вы можете поработать над увеличением страниц, проверяемых ботами.

9) Блокировка или удаление бесполезных страниц поможет занять более высокие рейтинговые позиции.

Блокируйте страницы, которым не нужна индексация, например, из-за плохой уникальности контента.

10) Файлы Sitemap:

10.1) XML-файлы нужно кодировать в UTF8 (Без BOOM);

10.2) В них нельзя вставлять идентификаторы сеанса из URL-вдресов;

10.3) В них не должно быть более 50000 URL-адресов, а их вес не должен превышать 50 Мб;

10.4) Следует использовать индексный Sitemap вместо большого числа этих файлов;

10.5) Для разных типов медиа-файлов можно использовать свой Sitemap.

11) Оценка вида ресурса глазами поисковых ботов.

Этот параметр особенно важен для мобильной версии ресурсов. Существует множество инструментов оценки, например, можно использовать отчет Google Mobile или программы-тестировщики.

12) Большая часть страниц Гугл — это HTTPS.

Гугл стремится давать своим пользователям не только качественный, но и безопасный контент. Если возникает подозрение, что ресурс слабо защищен, то поисковик выдает предупреждение при попытке посетителя зайти на этот сайт. Также в первых результатах отображаются ресурсы с HTTPS.

13) Не заставляйте ждать посетителей загрузки контента, он должен появляется через 2-3 сек.

Не обязательно, что более долгая загрузка отобразится на поисковом рейтинге, но не стоит заставлять ждать.

14) Правила Robots.txt не способны полностью запретить появление страниц в списке результатов.

Директива «Запретить» в этом файле действует в качестве блокировки сканирования страниц папок или отдельных файлов, но сама индексация не запрещается.

Гугл сообщает, что использование директивы «запретить» не способна отменить индексацию. Поисковые роботы могут попасть на нее по внешним ссылкам или другим способом без обращения к Robots.txt. Если вы хотите заблокировать определенные страницы, то используйте другие способы блокировки (например, защищая вход паролем или тегом noindex).

15) Добавление параметров прежнего домена в основной.

Вы можете сохранить значение старого домена после замены его на новый (например, после смены торгового бренда);

16) Поисковик Google советует поддерживать переадресацию после смены адреса не менее 1 года.

Иногда поисковик получает информацию о «переезде» контента через несколько месяцев после смены адреса. Чтобы не потерять завоеванные позиции, стоит сохранить переадресацию на достаточно большой срок.

17) Управление окном поиска в Google.

Управление окном поиска в Google

Есть отдельное поле поиска, позволяющее отображать соответствующий контент на вашем сайте.

У вас есть возможность отключать его отображение, используя метатег nositelinkssearchbox.

18) Чтобы запретить перевод контента, используйте «notranslate».

Это рекомендуется для тех случаев, когда переводчики поисковиков могут допустить ошибки при переводе.

19) Можно проиндексировать свои приложения.

Был разработан инструмент для индексации приложений. Речь идет про Firebase. Эта программа позволяет не только проиндексировать, но и получать результаты про установку другими пользователями подобных программ, поиска по похожим ключевикам.

Несколько советов:

1) Следите за новостями поисковых систем;

2) Читайте сообщения в Центре веб-мастеров Google;

3) При возможности посещайте видеоконференции Google Webmaster или смотрите видео о них.

Советы по созданию качественного контента от Google

Советы по созданию качественного контента от Google

Все стремятся занять высокие поисковые позиции. Поэтому стоит стараться придерживаться рекомендаций, выданных поисковиком мировой величины Google.

Google подчеркивает, что достаточно важно следить за качеством содержимого ресурса, но немногие прислушиваются к этому.

Недавно на официальном ресурсе Гугл опубликовал руководства с целью помочь начинающим и опытным разработчикам и оптимизаторам улучшить качество контента.

Теперь при создании ресурса можно использовать:

  • Руководство по дизайну документации для разработчиков
  • Руководство по стилю HTML / CSS
  • Руководство по стилю JavaScript
  • Руководство по стилю Java

Это далеко не полный перечень руководств, это лишь несколько пособий, с которыми действительно стоит ознакомиться. Не стоит ожидать, что вся информация, выложенная в них, будет новой, уникальной или полной. Здесь выложены базовые знания и правила создания высококачественного содержания, ведь все пользователи, создающие поисковые запросы разной тематики, хотят отыскать качественный и полезный контент.

Небольшой список основных рекомендаций от разработчиков Гугл:

1) Придерживайтесь дружеского разговорного стиля, не отклоняйтесь от основной темы разговора;

2) Создайте впечатление у читателей, что вы их хороший друг, понимающий желания и ожидания;

3) Пишите тексты по принятым стандартам письма (придерживайтесь правилам пунктуации, стилистики, грамматики, орфографии);

4) Не используйте длинных и вычурных фраз, передавайте мысли простыми словами и короткими предложениями для улучшения восприятия информации;

5) При вставке ссылки предоставьте хорошее подробное описание;

6) Старайтесь не употреблять афоризмы, слова и фразы, смысл которых трудно перевести на другие языки;

7) Для структуризации текста используйте нумерованные списки;

8) Проверяйте ссылки на посторонние ресурсы, убедитесь, что они относятся к надежным, качественным и полезным вебсайтам;

 

Кроме этого, стоит обратить внимание на оформление публикаций:

1) При добавлении изображений используйте атрибут Alt, не забывая про описание, содержащее ключевые фразы;

2) Наличие таблиц и списков приветствуется, но они должны быть уместны.

3) Подчеркивайте важные элементы текста при помощи <strong>. Если вы хотите обратить внимание читателя на определенную часть текста, то можно для визуального выделения использовать <b>;

4) Желательно использовать HTTPS при вставке ссылок, мультимедийных файлов, скриптов на CSS;

5) Для HTML-шаблонов стоит выбирать HTML5 в UTF-8 без (BOM) — подробнее;

6) Используйте 16-ричные 3х-символьные нотации для цветов вместо 6-ти символьных;

7) Предпочтительней выбирать HTML для создания структуры и CSS для оформления дизайна;

 

Также есть несколько моментов, про которые стоит знать. Не стоит при создании контента использовать:

1) Жаргонную лексику;

2) Сленговые выражения;

3) Слово «пожалуйста», если речь идет о написании руководства;

4) Знаки восклицания;

5) Выражения-метафоры;

6) Фразы, служащие для увеличения объема без смысловой нагрузки (обратите внимание, в это время, таким образом и т.д.);

7) Вставка ссылок в тексте с названием «нажмите здесь»;

8) Программы для слежения за пользователем.

Это далеко не полный список. Разработчики из Гугл написали эти руководства для написания технических текстов, поэтому стоит учитывать этот факт при создании развлекательного контента.

В любом случае, исходя из этих советов, можно понять, на какие факторы обращает внимание поисковик при оценке содержимого ресурса.

Как правильно уменьшить размер изображения: 5 инструментов сжатия изображений.

Как правильно уменьшить размер изображения, 5 инструментов сжатия изображений

Как правильно уменьшить размер изображения: 5 инструментов сжатия изображений

сжатие изображений

Одним из важных параметров, влияющих на получение высокого поискового рейтинга, является скорость загрузки вебстраниц. Рекомендуется начать с оптимизации изображений. В этой статье будет рассказано про пять способов сжатия изображений, влияние размера на скорость загрузки контента.

В последнее время уменьшение времени загрузки содержимого страницы становится актуальным. Такой параметр, как быстрая загрузка, положительно влияет на продвижение ресурса, хорошую оценку посетителями, которые желают быстро получать доступ к запрашиваемой информации.

Нередко можно столкнутся с трудностями при добавлении определенных элементов на страницу, они могут сильно нагружать, увеличивая скорость открытия. Подобное усложняет оптимизацию, например, нужно искать способы разблокировки визуализации JavaScript или CSS, определять приоритетность отображения данных.

Но есть простой элемент оптимизации, для которого не требуются большие познания SEO. Речь идет про оптимизацию изображений, уменьшение размера и сжатие изображений эффективно влияет на ускорение загрузки всего контента страницы.

Есть множество руководств по работе с изображениями, но есть определенные нюансы. Например, как понять, какие изображения нужно оптимизировать или что лучше использовать для сжатия?

Сжатие изображений — достаточно простой способ добиться отличного результата, осталось лишь определится с оптимальным инструментом. В этой статье мы расскажем про опыт использования пяти разны бесплатных инструментов сжатия без потери размера изображения, их часто выбирают опытные дизайнеры, создатели контента маркетологи.

Инструменты будут испробованы на трех типах изображений:

1) Логотип в формате PNG;

2) Большое изображение слайдера без предварительного сжатия в формате PNG;

3) Несжатая инфограстика в формате JPG.

Изображения для тестирования подбирались таким образом, чтоб максимально соответствовать существующим в реальности ведь большая часть картинок создана без оптимизации.

На сегодняшний день можно отыскать множество бесплатных инструментов, после проверки около 20 наиболее популярных, было выявлено что описанные ниже пять наиболее соответствуют поставленным целям необходимости сжатия.

Пять лучших инструментов сжатия изображений:

1) Отимизилла «Optimizilla HYPERLINK» http://optimizilla.com .

Optimizilla.

У этой программы простой и понятный интерфейс и несколько полезных функций:

1.1) Вы можете работать одновременно с 20-ю изображениями;

1.2) Можно видеть результат сжатия благодаря функции предпросмотра, что позволяет оценить качество изображения после обработки;

1.3) Функция проверки качества. Вы можете настраивать качество изображения, пока не добьетесь приемлемого результата. Вы можете оценить разницу между 65% и 80% качеством изображения, чтобы узнать насколько можно уменьшить размер картинки.

2) TinyPNG.

TinyPNG

 

Эта программа похожа Оптимизиллу. Важные функции:
2.1) Возможность работы с 20 изображениями одновременно;

2.2) Экспортирование в Dropbox.

3) Compressor.io

Compressor

Имеет хороший интерфейс, но придется обрабатывать каждое изображение по очереди, здесь нет возможности работать с несколькими изображениями одновременно.

4) Kraken

Kraken 

Достаточно полезная программа, имеющая удобные функции:

4.1) Работа с нескольким картинками одновременно;

4.2) Экспортирование в Dropbox или импортирование файлов в Box, Dropbox или Google Drive;

4.3) Улучшенные инструменты настройки качества изображения с возможностью сохранения метаданных для изображений.

Также были обнаружены недостатки, бесплатно можно работать с небольшими изображениями. Например, наш банер весил 1,7 МБ бесплатно его не удалось сжать, нужно было заплатить от 5 до 79 $ в месяц для разблокировки всех возможностей программы.

5) Gift of Speed для (Png) и  для JPG-сжатия

Gift of Speed

Предлагает инструменты для работы с изображениями формата PNG и . Есть возможность загрузить несколько файлов формата PNG. Недостатком можно назвать отсутствие массовой обработки изображений в JPG.

Подведем итоги

Оптимизация изображений

Все проверенные программы смогли справиться с основной задачей — сжатием изображения. Но следует сказать, что для тестирования использовался стандартный набор инструментов, в то время как Kraken и Optimizilla предлагают дополнительные возможности для улучшения результата.

Итак, наименьший вес двух больших изображений получился после обработки TinyPNG, меньший вес логотипа был у файла, обработанного Compressor.io.

Если вы ищете несложный и в то же время эффективный инструмент сжатия, то стоит остановить выбор на TinyPNG. Если нужен более широкий ассортимент функций, включая предпросмотр, то можно выбрать Optimizilla.

Насколько увеличилась скорость загрузки после сжатия?

Работа сделана, изображения сжаты, теперь нужно узнать, насколько увеличилась скорость загрузки.

Было проведено небольшое тестирование, изменилась ли скорость загрузки контента со страницы после изменения размера.

Выяснилось, что время загрузки значительно сократилась. До изменения размера на отображение страницы уходило 5,882 секунды, после изменения контент загружался за 2,369 секунды. Это весьма впечатляющий показатель, оптимизация всего трех изображений увеличила скорость загрузки страницы практически в два раза.

Поэтому не стоит недооценивать важность оптимизации размера и веса изображений.

Идеи для блога или как увеличить аудиторию, выбирая правильные темы.

Идеи для блога или как увеличить аудиторию, выбирая правильные темы.

В этой статье вы узнаете про идеи для блога, что считается удачной темой, как выбирать темы, способные достигать ваших целей, как не испытывать недостаток идей.

Поставьте следующие цели написания статей для вашего блога:

1) Увеличение потока посетителей, интересующихся выбранной тематикой;

2) Увеличение поискового рейтинга. Это не просто цель создания статьи, это повышение авторитетности, надежности в глазах поисковиков, улучшение ранжирования. Очень хорошо, если статья помогает добиться этого.

3) Создание интереса и симпатии у читателей, получая постоянных посетителей, заходящих на ресурс периодически;

4) Выразить собственные позиции, идеи и мнения. То есть вы создаете блог для того, чтобы рассказать другим людям о вашем мнении, оценить определенную ситуацию или поделиться чем-то интересным с подписчиками;

5) Создание «продающего» текста. То есть вы пишете определенный пост, стараясь заинтересовать читателя, чтоб он купил ваш товар, зарегистрировался на ресурсе, захотел стать обладателем пробной версии книги/товара или совершил что-либо другое. Например, из-за прочтения поста про определенного кандидата из политической области читатель может захотеть проголосовать за этого кандидата.

Что должен делать отдельный блог?

Для ответа на этот вопрос следует понимать, как посетители приходят на эту страницу. Каждая статья создается так, чтобы достигать одну или несколько целей из списка выше. Не стоит пытаться при помощи одного блога охватить сразу все, это достаточно сложно. Рассмотрим четыре качества, важные для любого поста:

1) Помогает посетителям ответить на поисковый запрос. Например, человек хочет приобрести отличный поисковый автомобиль. Он ищет совет, какой машине отдать предпочтение. Если ваша статья предоставляет данную информацию, она написана грамотным специалистом, имеет две или более рекомендаций, человек сможет понять, на чем остановить выбор или хотя бы сузить перечень. Если статья помогает людям, значит она действительно хорошая.

2) Знакомит с определенной информацией, или развлекает. Она не должна быть чисто информационной или развлекательной, она должна совмещать оба эти качества, давая действительно нужную, интересную информацию. Другими словами, посетитель должен узнать что-то новое, интересное для себя. Например, если он ищет юмор, ему будут интересны только свежие анекдоты, которые ранее он не читал.

3) Помогает улучшить критерии, оцениваемые поисковиками. То есть написанный блог служит средством увеличения посетителей, обратных ссылок и других важных показателей для сайта.

4) Помогает создать благоприятное впечатление о бренде. Другими словами, автор делиться с личным опытом, предлагает обменяться впечатлениями, предоставляет интересную информацию. Написанный текст вызывает чувство доверия бренду, появляется постоянная аудитория.

Хороший пост обладает одним и более описанными качествами.

Шесть способов отыскать хорошую идею для написания блога

Зная, каких целей следует добиваться, какими качествами должны обладать отдельные посты, как можно определиться с идеей для написания новой статьи? Мы расскажем про шесть хороших способов, способных помочь постоянно генерировать идеи для написания блогов.

1 Способ. Оценка ответов на запросы, связанные с тематикой вашего ресурса. Другими словами, вы должны оценить, насколько хорошо раскрыты темы, связанные с определенными запросами, имеющие отношения к вашему ресурсу. Возможно, вы обнаружите, что на некоторые вопросы невозможно отыскать ответ, или тема не раскрыта полностью. Возможно, вы можете интересно и необычно предоставить ответ, что понравится читателям.

Для проведения оценки востребованности есть множество методов, используемых профессиональными блогерами. Чтобы придумать новые полезные темы, соответствующие запросам потенциальных читателей, можно опираться на:

1) Обзоры читателей;

2) Присылаемые электронные письма с просьбой, индивидуальные встречи, вопросы в интервью;

3) Разговоры в неформальной обстановке, если происходит взаимодействие с подписчиками/читателями ресурса;

4) Результаты исследований ключевых фраз, особенно важны при этом вопросы потенциальных читателей.

Для этого существует множество платных и бесплатных инструментов оценки, которые позволяют проверять запросы, вопросы пользователей поисковиков. Это может быть Mozse Keyword Explorer или Ahref, которые анализируют запросы. Одним из часто используемых является такой инструмент, как ЯндексВордстат, он показывает, что набирают в поисковиках пользователи, в частности вопросы, начинающие с как, где, когда, что, кто и т.д.

Рассмотрим несколько примеров, связанных с существующими вебсайтами. Один из этих сайтов — stephan-photo.com. Им занимается известный сео-специалист компании prodvizheniesajtov.com. Это компания предлагает фотосъемку различных праздников, на сайте публикуется контент, предусмотрены услуги и сервисы на тему фотосъемки. Второй сайт принадлежит компании site-photographer.ru. Там часто публикуются отличные блоги с хорошими темами, связанные с известными фотографами.

2 способ. Наличие доступа к редкой и ценной информации, которой не обладают другие.

Такой информацией может стать личный опыт, доступ к секретным исследованиям, данным. Вы можете самостоятельно сделать выводы по определенной ситуации, используя проницательность. Подобное может стать хорошей темой для написания статьи. Суть идеи состоит в том, что вы делитесь с читателями интересной и редкой информацией. Например, вы хотите создать ежеквартальный внутренний отчет по состоянию рынка, вы смогли получить статистические данные, можете ими поделиться с остальными, потому что они могут вызвать интерес.

Можно проанализировать исследования по ключевым запросам пользователей, чтобы узнать, что они хотят увидеть, какая информация нужна, чтобы написать нужный и востребованный контент.

Есть несколько способов, помогающих определиться с востребованностью выбранной темы:

1) Количественные и статистические результаты исследований;

2) Опрос инсайдеров, потребителей в вашей отрасли или конкретного продукта, членов команды, работающих с вами;

3) Краудсортинг, например, его можно осуществить через подписчиков вашего сообщества в соцсетях;

4) Данные, собранные лично вами, например, для создания внутреннего годового отчета;

5) Публичные данные, требующие систематизации, обработки. То есть обнаружив интересную и полезную информацию, вы знаете, как ее интерпретировать для улучшения восприятия и пробуждения интереса у читателей;

6) Талант в мультимедийной области. Например, вы умеете создавать увлекательные видео, аудио, фотографии в интернете;

7) Связь с источником информации (это может быть человек, данные, ваш личный опыт, который другие не смогут повторить).

Описанные выше методы способны помочь отыскать интересную тему для написания блога, которые будут действительно полезны и важны для потенциальных читателей.

 

3 способ. Поделитесь собственным впечатлением, опытом

Этот способ часто используется многими блогерами. Он использовался компанией prodvizheniesajtov.com при написании контента. Вы можете описать свое мнение про использование товаров вашего бренда, оценить полученный результат. Вы можете своим примером вдохновлять читателей на приобретение описанного товара. Или возбудить интерес к вашим исследованиям, поэтому читатели будут периодически проверять ресурс на появление продолжения в других блогах.

Блоги, основанные на личной работе, представляют большую полезность и ценность. Для их написания помогают:

1) Фото. Это отличный способ запомнить важные моменты. Многие блогеры часто публикуют фотоотчеты, связанные с контентом блога;

2) Журнал. Введение журнала позволяет записывать важные события;

3) Интересные моменты в разговорах по электронной почте, соцсетях;

4) Путешествия. Достаточно часто вы узнаете новую и полезную информацию, когда отправляетесь путешествовать.

4 способ. Покрытие «горячей» темы, новостного тренда.

Этот способ основан на усилении впечатления от ранее увиденного, услышанного. Вы может писать о том же, что и кто-то другой, добавляя свое. Например, переписывая известный блог  на свой лад, вы получаете не только людей, которым интересно сравнить ваше мнение с первоисточником, но и у самих авторов может возникнуть желание прочитать ваши тексты.

То есть, увидев, что кто-то затронул интересную тему, описав ситуацию правильно или неправильно, вы можете написать свою новость по этой теме, выражая согласие или не согласие с предыдущим автором или добавив нюансы. Вы можете обладать дополнительной информацией по данной теме, поэтому можете сделать написанное ранее более ценным и полезным. Вы можете брать источники идей с:

1) Instagram;

2) Facebook;

3) Форумы;

4) Разнообразные порталы наподобие Pocket, Techmeme или многие другие, где часто появляются интересные блоги, которые могут вдохновить на написание собственных блогов.

Последние два способа основаны на базовых основах, поэтому нет нужды слишком углубляться.

5 способ. Простое исследование ключевых фраз.

Для этого используется инструменты, такие как Google AdWords, tool.io, Mozword Keyword Explorer или многие другие, предоставляющие часто используемые фразы в строке поиска по выбранной тематике. Анализируя результаты, можно определить, какие темы интересны потенциальным посетителям ваших страниц.

6 способ. Уточнение полных интересов читателей. Вы пытаетесь понять, что интересует ваших потенциальных читателей, что они еще ищут, связанное с вашей тематикой.

Рассмотренных способов достаточно для генерации хороших идей для написания блогов. Вы можете пользоваться одним или всеми для поиска подходящей тематики.

Как Google обрабатывает «Скрытый» текст в CSS + Javascript ?

Как Google обрабатывает «Скрытый» текст в CSS + Javascript ?

Оценивает ли поисковик Google скрытые ссылки, скрытый текст? 

В этой статье будет рассказано про скрытые тексты и его разновидности. Под скрытым текстом понимается не спам или раскрутка ключевых слов, что делалось в 90-х - 2000 годах. Здесь будет рассказываться про использование CSS и JavaScript для открытия полного контента.

На сегодняшний день CSS и Javascript часто используются при создании дизайна сайта, разработчики предпочитают использовать эти инструменты для загрузки текста после совершения определенных действий посетителем ресурса. Это может быть кнопка «прочитать далее» для того, чтобы увидеть остальной текст, или отдельное меню на странице, после нажатия на которое открывается дополнительная информация о товаре или услуге. Из-за этого могут возникать трудности с SEO-оптимизацией, хоть поисковики могут сканировать и делать анализ скрытого текста. Трудность заключается в том, что поисковики по-разному оценивают скрытый и обычный текст.

Рассмотрим пример. Есть текст про качественную мебель из кокосового дерева, он будет продвигаться в поисковом поиске. Допустим, что весь текст разбит на несколько страниц, например, на странице А показан первый абзац текста, в конце есть ссылка читать дальше, которая перенаправляет на страницу В с остальным текстом.

Подобное часто встречается на разных сайтах, люди преследуют разные цели, используя скрытые тексты. Одни хотят получить информацию, насколько статья интересна, сколько пользователей хочет узнать продолжение (число нажатий на ссылку читать дальше) или отслеживают другие статистические данные. Другие подобным образом вставляют рекламу с целью заработка. Очень часто скрытые тексты помогают представить статью в удобном формате.

Но как реагирует поисковик при оценке текста, открывающегося после нажатия кнопки «читать далее»?

Есть несколько параметров, влияющих на оценку:

1) У страниц должны совпадать домены, профили ссылок;

2) Совпадение тематики текстов. Если страница А была про мебель из кокосового дерева, то и страница В должна иметь отношение к данному ключевику, при этом она должна содержать больше информации, чем страница А;

3) Влияние страниц, которые открываются после нажатия ссылки CSS или JavaScript, минимальное. Поисковик будет считать такой текст малозначимым и неважным.

4) Разные поисковики по-разному оценивают скрытые тексты. Например, Bing и Yahoo оценивают скрытые одинаково с обычными текстами.

Лучшие методы оптимизации скрытого текста.

Итак, что нужно сделать для максимальной оценки скрытого текста поисковиками:

1) Следует быть готовыми к тому, что скрытые тексты при помощи CSS и JavaScript будут иметь меньшее влияние на поисковый рейтинг, чем обычный контент. Он будет учитываться при показе результатов поиска заданной ключевой фразы, но не займет первые позиции. Другими словами, поисковик знает про существование вашего текста, но отдает предпочтение контенту, доступного полностью по умолчанию, без осуществления дополнительных переходов по ссылкам. Поэтому стоит подумать, стоит ли терять поисковый рейтинг, а значит и дополнительных посетителей, создавая страницы со скрытым текстом для достижения других целей.

2) Следует предоставить альтернативный вариант для просмотра содержания скрытого текста. Можно сделать текст открытым по умолчанию, например, разрешив краткий предпросмотр содержимого, максимально близкого к оригиналу. Подобное решение поможет получать ту же самую статистику просмотров и других действий читателей, ведь на практике 95% читателей закрывают скрытый текст, не дочитывая до конца. Также можно пользоваться разнообразными программами, позволяющими получить статистику, например, GitHub. Это позволит открыть весь текст, не используя скрытие текста при помощи CSS и JavaScript.

3) Если вам нужно скрывать часть текста при помощи CSS и JavaScript, то следует важные ключевые фразы, главную информацию указывать в той части, что останется открытой по умолчанию. Другими словами, все, что оказывает положительное влияние на продвижение в поисковиках, не стоит прятать в скрытой части. Используя важное для ранжирования в открытой части контента, вы сможете минимизировать потери поискового рейтинга.

Ранее часто спорили по поводу оценки Гуглом скрытого текста. Многие считали, что он оценивается одинаково с открытым. Но после исследования в этой области, проведенного А. Шайем, было доказано, что скрытый текст оказывает меньшее влияние на продвижение.

Настройка ускоренной индексации сайта

Настройка ускоренной индексации сайта

Настройка ускоренной индексации сайта

Настройка ускоренной индексации сайта

Первоначальным и главным аспектом для успешного продвижения сайта выступает настройка индексированных основ для его развития. Точное индексирование веб-сайта обеспечивает:

  • максимальную скоростную индексацию страниц ботами поиска;
  • полное отображение числа страниц в главном индексе;
  • выделение системами поиска сайта с несколькими страницами;
  • занятие лидирующего расположения ресурсом со своим наполнением;
  • мощный интернет-трафик.

Для ограждения страницы от проникновения в индекс систем поиска как не значащихся или мусор, для экономии временных затрат краулеров поиска на бессмысленные интернет-страницы, необходимо определить попавшие конкретные страницы сайта в индексе. Также это проделывается и с ресурсом в целом с помощью ввода запроса site:http://site.ru/ или запросы продажи site:http://site.ru/ «запрос».

Сайтам с активной структуризацией позиций и интернет-магазинам рекомендуется периодически проводить процедуру индексирования с первоначальным обновлением карты.

Необходимо проконтролировать, по какому числовому запросу система поиска показывает ваши страницы. Часто происходит так, что в индексе при вводе ключевого вопроса высвечивается огромное количество страниц, а не одна. Вследствие чего продвижение страницы по требуемому запросу отсутствует.

Некорректная настройка индекса для вашего проекта влечет за собой такие последствия:

  • страницы, имеющие большое значение не индексируются;
  • отображение в индексе различных веб-продуктов с идентичными URL;
  • в индексе отображаются страницы с похожим контентом и отличающимися URL;
  • разделы технического характера индексируются;
  • замусоренные выпадают при выдаче и индексируются;
  • административные страницы отображаются в индексе;
  • авторитет главных страниц снижается;
  • лишняя трата времени краулерами на индексацию разделов малой важности.

Для хорошей индексации необходимо обязательное использование таких мета-тегов:

  1. Noindex, Follow применяется для скрывания страниц от индексирования, при этом бот поиска перемещается по необходимым ссылкам, заносится в тег. Негативным моментом будет потеря времени на индексацию, хотя краулеры легко перемещаются по ссылкам разных ранговых и текстовых назначений.
  2. Nofollow, Noindex препятствует индексации страниц, перемещению по ссылкам, временных затрат краулером нет, степень внутреннего и внешнего веса ссылок отсутствует.
  3. Index, Nofollow. Тег способствует индексу страниц, а ссылочное перемещение в боте поиска отсутствует. Рекомендуется его применять для обхода индекса страниц, посылающихся на внутренние ссылки.
  4. Cannonical+Next/Prey. Значение Cannonical предназначен для указания повторяющихся и применяется на дублирующих страницах только комплексно с rel=«next» and rel=«prev» для связи с URL при нумерации страниц.
  5. txt используется только в качестве рекомендуемого элемента и предназначен для регламентации в ПС индексе с учетом не обязательного обозначения в Robots.txt необходимых моментов для индексации. В Яндексе выделять отдельное место установки с правильным хостом без http:// или https://, для закрытия места установки указывайте Disallow: /dir/
  6. Для ресурсов с множеством контента, интернет-магазинов рекомендуем применять Sitemap.xml. Для разработки карты сайта необходимо учесть файловый размер до 10 МБ, обозначение этого тега с файлом Robots.txt, создание не одного файла Sitemap.xml, а нескольких и объединение их в общий Sitemap, применение тегов priority и lastmod.
  7. AJAX/JavaScrip предназначен для создания внутренней и внешней структуры. Уменьшает временные затраты на отклик при использовании JavaScrip при серверном обращении без перезагрузки страниц. Легкость просмотра и процессов контроля продуктов при производстве единичного URL. AJAX помогает создавать фильтры, кнопки, меню, сортировку, формы, серверный обмен сведений, структуру комментариев и т.д.

Применяя данный тег, можно столкнуться с такими сложностями, как трудоемкий процесс разработки, трудности с системами поиска при индексировании, не корректные ЧПУ страничные адреса, приблизительные данные статистики. Переход на AJAX осуществляется по этапам, чтобы сайт не утратил уровень значимости.

При хорошем организационном подходе с AJAX можно увеличить юзабилити и скорость. Если не учитывать правила поисковиков AJAX, можно получить снижение трафика и хорошее позиционное место.

Для разработки сайтов с AJAX с 2015 года Google предлагает придерживаться «Progressive Enhancement», помогающее роботам поиска изучать страницы с динамическими характеристиками. Google разъясняет .js и .css, распознавая на AJAX страницы в самостоятельном режиме и не требует вспомогательных настроек.

В реальности решение проблем на сайтах только одним методом еще не придумали. К каждому сайту приходится использовать разные способы для настройки индексации с учетом особенностей и требований.

При создании функциональной структуры различных ресурсов и процессов индексирования можно применять базовые правила, а для сайтов интернет- магазинов необходимо придерживаться таких основ:

  • Разрабатывается протокольный сайт https со склеенными «зеркалами». Дублированные URL закрываются от индексации с применением тега Noindex, Nofollow.
  • Основа URL заключается в создании статических и ЧПУ с короткими адресами страниц для продвижения. Ключи URL (посадочные элементы) для домена в целом невозможны.
  • Меню навигации структурируется по максимуму и располагается сверху.
  • Оформление цепочки навигации и «назад» осуществляется разметкой микроданных и просто в визуальном просмотре.
  • Перелинковка внутренняя обязательно (блочные части «похожая продукция», «с продукцией покупают», «рекомендуемая продукция», применяется модуль MegaIndex.com с целью легкого создания перелинковки).

Используются эффективные фильтры для продвижения интернет-страниц в комплексе с известными комбинациями фильтров с открытой для процессов индекса, но скрыты от ссылочного серфинга с применением тега Index, Nofollow. Другие фильтры с комбинационными элементами скрываются. Сортировка не должна подпадать под индексацию и закрывается при помощи тега Noindex, Nofollow.

Пагинация  формируется на основе canonical и next/prev для связывания нескольких URL при нумерации страниц.

Увеличение трафика за счет оптимизации навигации сайта

Увеличение трафика за счет оптимизации навигации сайта

Увеличение трафика за счет оптимизации навигации сайта

Увеличение трафика за счет оптимизации навигации сайта

Процесс максимизации навигации сайта способствует привлечению большего количества заинтересованных пользователей, повышению качества распределения и лояльности систем поиска. Также он способствует увеличению рейтинга веб-сайта при выдаче из чего следует рост интернет-трафика и обменных процессов.

Проводя процедуру оптимизации необходимо обратить особое внимание на такие разделы:

  • URL – адресные данные страницы;
  • Menu – меню навигации (главное, дополнительное);
  • Breadcrumbs – подпункты навигационной цепочки и назад;
  • Internal links – внутренние ссылки;
  • Tags – теги, облачные теги;
  • Sitemap – карта сайта с учетом потребностей посетителей.

Рассмотрим подробно каждый из разделов, позволяющих увеличить трафик.

Усовершенствование URL

Регламентация всех используемых URL сможет улучшить структурные показатели веб-сайта. Для ознакомления структуры URL можно воспользоваться сервисом Яндекс.Вебмастер>> Индексирование сайта>> Структура сайта. Структурный вид не должен содержать сложную и беспорядочную для человеческого глаза ЧПУ. Придерживайтесь 8 логических и простых правил:

  • при создании URL используйте дефисы, исключите нижнее подчеркивание;
  • за именем домена ставьте слеш, что приводит к уменьшению влияния на сервер;
  • устанавливайте склейку 301 редиректом на сервере или файле htaccess, в Google Webmasters и Яндекс.Вебмастере выделите главное зеркало с директивой Host в robots.txt;
  • при наличии доменных имен-синонимов осуществите их склейку;
  • защищенный протокол https используйте для сайтов с финансовыми интернет операциями;
  • позаботьтесь о переходе посетителей на высшие уровни дирестории;
  • избегайте повторяющихся URL даже при разном содержании разное.;
  • на основе мета-тега «noindex, nofollow» скрывайте от индексирования динамические

Улучшение навигационного меню

Есть несколько особенностей, которые необходимо соблюдать для оптимизационных результатов:

  1. Главное меню и дополнительное должно содержать около 7 положений, так как человеческая память акцентирует внимание только на 7 объектах одновременно.
  2. Не зависимо от места нахождения на странице доступ к главному меню должен быть быстрым и при прокрутке оставаться видимым.
  3. В верхнем левом углу располагайте первый важный пункт меню (каталог предоставляемых товаров или сервисов, прочее). Заключающим пунктом лучше делать «контакты».

Оптимизация цепочек навигации и назад

Для активной работы навигационных систем и перелинковки внутри сайта рекомендуется применять цепочку навигации. Навигационная цепь организовывается такими методами:

  • Воспроизведения истории просмотра установить в виде «назад на предыдущую страничку», что сохраняет работающие фильтры и сортировку используемых пользователей при возврате на просмотренную недавно страницу сайта.
  • Воспроизведения структуры сайта в виде главная>> Категория>> Подкатегория>> Продукция. В центральном месте пользовательского внимания устанавливается под главным меню Breadcrumbs. Важно избежать размещения на основной странице и конечном звене активных ссылок, за исключением посылания на саму себя страницы

Важно! Навигационная цепь должна содержать микроданные.

Регламентация ссылок внутри страницы

Размещаются на текстовых страничках как внутренние ссылки контекста. Применяются с целью оптимизации навигационных систем и формулировки структуры сайта системами поиска. Также обозначают распределение внутренних страниц ресурсов.

При перенасыщении внутренними ссылками возникает обратный результат, поэтому используйте их в меру. Если часто вносить ссылки контекста прямого вхождения при запросах поиска возникнет снижающий эффект. Создавая новые алгоритмы внедрения системы поиска рекомендуют разработчикам создавать страницы для пользовательской аудитории, а не для роботов. Если возникает потребность в размещении большого количества ссылок для смыслового контента и пользователей, то это не наказуемо, главное не переусердствовать.

Теговое улучшение

Для вспомагательных навигационных основ по изложенному материалу на веб-сайте(реклама, статьи и прочее) применяется технология тегирования. Вводятся слова или фразы ключевого значения в виде ссылок. Переходя по ним заинтересованные посетители перемещаются на страницы с тематическим наполнением, указанным в теге.

Применение тегов на ресурсах больших объемов (статьи, продукция) необходимо контролировать, чтобы не сбиться в основных формулировках.

Результативная карта сайта с учетом потребностей посетителей- Sitemap XML

Для удобного пользования сайта разрабатывается карта двух видов: графическая, текстовая. Данный вид оптимизации используется чаще всего ресурсами с информационным наполнением со значительным числом контента. Для эффективного функционирования карт необходимо придерживаться:

  1. Для сайтов с форматом HTML карта должно отвечать требованиям структуры ресурсов.
  2. Карта должна делиться пунктами и подпунктами на требуемые разделы.
  3. Оформления текста осуществляется в стиле CSS.
  4. Наполнение карт разбавляется мини-обзорами.

Используя при разработке или обновлении веб-сайта вышеизложенные способы создания внешнего структурирования, можно поднять рейтинги пользовательских показателей, заинтересованность посетителей. А результатом будет значительное наращивание трафика системами поиска.

Оптимизация сайта под мобильные устройства в 2017 году

Оптимизация сайта под мобильные устройства в 2017 году

Оптимизация сайта под мобильные устройства в 2017 году

Оптимизация сайта под мобильные устройства

Для мобильности любого сайта важна простота и комфортность пользователя при просмотре. Результаты поиска зачастую адаптированы и привязаны к месту, где находится сам пользователь. Из-за этого мобильный трафик называют региональным. Стоит отметить, что поиск обычный от мобильного отличается частотой запросов. При мобильном варианте запросы собираются отдельно. Отсюда следует, что и семантическое ядро также отличается от стандартного вида поиска информации. Проверить мобильную версию можно при помощи: Яндекс.Вебмастер, Google Webmaster Tools

Как проверяется скорость загрузки мобильного сайта?

Для проверки скорости сайта необходимо воспользоваться такими инструментами:

Page Speed Insights – это основной метод, проверяющий не только корректность требований по отношению к пользователю, но и предоставляющий всю необходимую информацию для преобразования обычного варианта в мобильный.

pingdom.com - дает оценку скорости загрузки страниц из разных мест и регионов, дает подсказки и рекомендации по оптимизации ресурса.

Другие способы проверки мобильности сайта:

Fetch and Render. (он же Google-бот) помогает просмотреть сайт с помощью робота и увидеть результат мобильности ресурса со стороны системы поиска Google.
Google Mobile-Friendly Tools – сервис, позволяющий проверить мобильную пригодность вашей страницы. Также, используя его, можно увидеть и проанализировать дизайнерское оформление сайта, скорость загрузки и отображения информации.
W3 mobile checker – специальный инструмент, созданный в помощь разработчикам при усовершенствовании ресурса по требованиям мобильного типа.
Resizer – инструмент, который помогает проанализировать и проверить контент на любых устройствах.
Quirktools – это сервис, с помощью которого просматривается сайт на всех устройствах.

Методы и способы мобильной оптимизации

1. Мобильная версия сайта. Мобильная версия дает возможность изменять как код, так и URL в отдельности для оборудования. Изначально сервис определяет вид устройства, а после направляет на специальную страницу, которая работает с данным оборудованием. Преимущество в такой версии заключаются в том, что можно с лёгкостью внести правки, при этом, не изменяя основной сайт. Любая информация на мобильном сайте быстро загружается. Разобраться  пользователю всегда просто, а работать одно удовольствие. Отрицательной стороной является момент ограничения контента из-за возможности дублирования.
2. Динамический показ (RESS — Responsive Design + Server Side). Имеет в наличии один URL, но разные коды. Поисковый робот сканирует HTML и CSS, чтобы выбрать лучший вариант для отправки на запрошенный URL сервис. Преимущества такой характеристики заключаются в том, что можно самостоятельно выбрать приложение и настроить для необходимого устройства. Отрицательная сторона заключается в сложности разработки.
3. Адаптивный дизайн. Используется только тогда, когда URL и код изменить нельзя. На всевозможные оборудования отправляется единый HTML-код, адаптирующийся по размерам экрана. Преимущества – лёгкий в использовании, не имеет необходимости изменять URL. Минус заключается в медленной работе во время загрузки.

Выводы поисковых систем по отношению работы мобильности сайта:

GOOGLE не выбирает системы с адаптацией, хотя и рекомендует адаптированный дизайн.
ЯНДЕКС положительно относится ко всем типам оптимизации и адаптирования. Предоставляет возможность веб-мастерам самостоятельно оптимизировать сайт. Для выбора наилучшего метода стоит определиться с заданиями пользователя на странице.

Оптимизация сайта под определённое мобильное устройство

1. Скорость загрузки должна быть до трёх секунд. Сервис Page Speed Insights поможет в данном случае сжать данные сайта, облегчить работу в нем и оптимизировать сайт под мобильный вариант. Здесь пользователь может использовать асинхронную загрузку скриптов, при этом оставаясь на сайте.
2. Запрещено блокировать JavaScript и CSS. Используя программу Google Search Console, можно проверить блокировку, чтобы в дальнейшем избежать низкого уровня и позиций в целом.
3. Отсутствие 404 ошибки. Программы Xenu, ScreamingFrog или Google Search Console помогут определить проблемы ошибки при сканировании. Для отсутствия дублирования мобильной версии и ведущего контента необходимо произвести правильную настройку индексации. В случае попадания мобильной версии в простой поисковик нужно воспользоваться кодом <link rel="canonical" href="http://www.site.com/page-1"/>, используя адрес m.site.com/page1. На главном сайте вводится код <link rel="alternate" media="handheld" href="http://m.site.com/page-1" />., используя адрес m.site.com/page1. На главном сайте вводится код . После введения система сама подбирает лучший URL вариант.
4. Правильно настроенный редирект на мобильном сайте позволяет выполнять переадресацию без ошибок при поиске. На одной странице должно содержаться до 5 редиректов, больше вариантов не выполняют поисковой системой индексацию.
5. Анимацию формата Flash и видео с проприетарным проигрывателем необходимо применять на теги HTML5. Благодаря этому в дальнейшей работе во всех браузерах не будет никаких проблем.

Accelerated Mobile Page. Что это?

AMP – это разработанный проект системы Google, имеющий доступный исходный код. Данная программа позволяет ускорить и улучшить работу мобильного поиска. Такая технология позволяет сделать проще мобильную страницу, устранить недостатки, сделать больше конверсию и монетизацию сайта. АМР известна благодаря облегченности и лучшей работе загрузки данных на мобильном оборудовании. Вся информация хранится в кеше поисковой системы и базируется на следующих компонентах:

  1.  AMP HTML. Считается основой HTML, имеющей расширенные пользовательские теги.
  2.  AMP JS. Она же основная библиотека JS, управляющая загрузкой ресурсов и отвечающая за раздачу пользовательских тегов.
  3.  AMP Cache. Другими словами это прокси-сервер, извлекающий MP HTML, производящий кэширование и повышающий скорость загрузки страниц.

Преимущества:

  • не требует индивидуальной конфигурации сервера;
  • контент доступен для сканирования.
  • Отрицательные стороны:
  • ограниченность;
  • использование одного JavaScriptа;
  • вероятность отклонений, ошибочных данных по отрицательным показателям посетителей;
  • индивидуально разработанная специфика в работе.

Для правильности отображения АМР необходимо на обычную страницу ввести:<link rel="amphtml" href="https://www.site.com/url/to/amp-version.html" />.

Как проверяется разметка страниц АМР?

Проверяется и создаётся правильность страниц с помощью Search Console Google. Она необходима для устранения всевозможных ошибок.

Выводы:

Обычная оптимизация сайта считается намного проще мобильной. Чтобы можно было работать на мобильном гаджете, сайт необходимо упростить, сделав его понятным и доступным. Но выполнить это трудно, так как вся информация обязана быть яркой, но быстрой в работе.
Если учитывать все вышеуказанные положительные и отрицательные стороны для оптимизации работы сайтов на мобильных устройствах, тогда есть возможность одновременно получить трафик и увеличить конверсию сайта, монетизируя его при этом. Это приведет к увеличению отдачи в данном бизнесе.

JavaScript и SEO: проверка доступности содержимого страниц
для поисковых ботов

JavaScript-и-SEO

Любой грамотный сео-оптимизатор должен знать, как использование JavaScript может повлиять на поисковое продвижение. Это достаточно важно, ведь если поисковые боты не смогут распознавать контент, не смогут провести его анализ, то страницы, где он содержится, не проиндексируются, они не появится в списке результатов, отвечающих на запросы пользователей.

Одними из основных вопросов, которые часто задаются при оптимизации, являются: «Виден ли контент для поисковых роботов?» или «Как исправить проблемы, связанные с недоступностью контента для поисковиков?».

Базовая информация

Что представляет собой JavaScript?

Для создания страницы сайта могут использоваться такие элементы:

1) HTML. Этот язык программирования стал основным, большая часть страницы (структура, статистический контент и многое другое) написана на нем;

2) CSS. Этот язык используется для создания стиля вебстраницы, его можно считать «презентационной частью» сайта;

3) JavaScript. Данный язык служит для интерактивности ресурса и создания динамических элементов вебстраницы.

Что представляет собой JavaScript?

JavaScript прописывается в основной код, написанный на HTML, при помощи специальных тегов. На сегодняшний день разработано множество библиотек и фреймворков с JavaScript, это jQuery, AngularJS, ReactJS, EmberJS и многие другие.

Библиотеки и фреймворки JavaScript

фреймворки JavaScript

1) AJAX.

Многие слышали про AJAX, но мало знают о нем. AJAX — это набор методов для создания страниц, представляющих собой объединение асинхронного JavaScript и XML. При этом созданные вебприложения работают с сервером в фоновом режиме, не нагружая загружаемую страницу. Другими словами, запуск сценария async позволяет другим функциям и строкам кода работать без прерывания.

AJAX используется для неполного обновления контента или общего макета вебстраницы. Дело в том, что при загрузке страницы сервер получает запрос на извлечение с последующим отображением. Если использовать AJAX, то не нужно каждый раз загружать все активы, подгружаются только те, что изменились или добавились.

AJAX можно представить в виде небольшого сервера. Одним из ярких примеров является Google Maps, где происходит обновление вебстраниц без полной перезагрузки.

AJAX

2) Объектный макет документ (DOM).

Для того, что заниматься сео-оптимизацией, нужно обязательно иметь представление о DOM, ведь поисковые системы используют это для анализа и распознавания контента.

Это то, что вы видите после нажатия на «Проверка элемента», другими словами это алгоритм получения и преобразование HTML кода браузером в отображаемую страницу, которую мы видим после загрузки.

Алгоритм достаточно прост:

2.1) Браузер получает контент в HTML-коде;

2.2) Проводится сканирование и анализ содержимого;

2.3) Извлечение элементов CSS, JavaScript, изображений.

DOM представляет собой результат анализа, имеющий вид структурированной, организованной версией кода страницы ресурса.

Главным отличием DOM от исходного HTML кода является способность изменять содержимое страницы, опираясь на введенные запросы пользователя, время суток и других параметров благодаря использованию HTML, CSS и JavaScript. Его еще часто называют динамическим HTML.

Источник HTML DOM
 html  DOM

 

3) Безгласный просмотр.

Под безгласным просмотром понимается просмотр содержимого без загрузки пользовательского интерфейса. Поисковые системы, такие как Google, пользуются этой функцией для оценки полезности и качества контента страницы.

На сегодняшний день есть специальные инструменты, например, PhantomJS и Zombie.js, позволяющие делать безгласный предпросмотр для тестирования результата оптимизации, совершения предварительного рендеринга.

Почему использование JavaScript может затруднить продвижение в поисковиках, как исправить это?

Существует три основных фактора, при которых должны быть выполнены при использование JavaScript:

1) Возможность проведение скана — поисковые роботы могут сканировать и распознать страницы ресурса;

2) Доступность контента — для поисковых роботов открыт доступ к контенту, они способны его проанализировать;

3) Воспринимаемость ресурса — оценка визуализации (латентность)

 

Сканирование поисковыми роботами.

При этом поднимается важный вопрос, способны ли поисковые роботы отыскать URL-адреса страниц, распознать структуру проекта? Здесь могут появиться две проблемы:

1) Некоторые элементы страницы оказались заблокированными (случайно или неслучайно) для поисковых роботов из-за использования JavaScript;

2) Нарушение структурных связей из-за замены тегов HTML на события JavaScript.

Почему блокировка сканирования из-за JavaScript оказывает негативное влияние на продвижение?

Если определенные элементы страницы недоступны для скана из-за JavaScript, значит поисковик не сможет полностью проверить и оценить все содержимое, а посетитель этой страницы не сможет увидеть заблокированные элементы. Поисковая система старается предоставить наиболее полезный и качественный результат по поисковым запросам, они по умолчанию считают страницы с заблокированными элементами менее привлекательными для посетителей. Также наличие заблокированных элементов может быть расценено как умышленно-вредоносное, такая страница может не пройти индексацию.

Есть множество программ-инструментов, позволяющих проверить на доступность сканирования страниц поисковиками, например, это могут быть Fetch и Render, или инструменты с Google, robots.txt , которые покажут элементы, заблокированные для поисковой системы.

Трудность с блокировкой элементов достаточно легко решить, достаточно открыть доступ ко всем нужным элементам страницы.

Обратите внимание на важный момент, надо действительно разбираться в этой области. Принимать решение про открытие/блокировку доступа для поисковиков к определенным элементам страниц следует вместе с опытными специалистами-разработчиками.

Структурирование ссайтов (внутренние связи).

Разработка внутренней связи страниц — важный этап работы. Для этого следует использовать обычные теги-команды HTML или DOM (при этом все равно используется тег вида hrefs = «www.example.com») с использованием JavaScript-функций для перемещения посетителя по всем страницам ресурса.

Не стоит применять JavaScript onclick events для внутренней связи, хоть вполне возможно, что поисковики смогут отыскать страницы и проанализировать их (в элементах кода JavaScript или XML-файлах Sitemap). Проблема в том, робот не свяжет те страницы с общей структурой ресурса.

Внутренняя связь служит для поисковых роботов для оценки важности и полезности вебстраниц, в некоторых случах они могут оказывать очень сильное влияние и переопределять «подсказки SEO», такие как канонические теги.

Структура URL.

Исторически веб-сайты на основе JavaScript (например, «сайты AJAX») использовали идентификаторы фрагментов (#) в URL-адресах.

Есть несколько советов, которых следует придерживаться:

1) Старайтесь избегать использовать одиночный хэш #, потому что этот знак не сканируется поисковыми роботами. Он нужен для созданий ссылки перехода, то есть таких ссылок, которые перенаправляют к определенной части содержимого на странице. Все, что находится после этого символа в адресной ссылки не отправляется на сервер, вебстраница будет прокручиваться до первого элемента, совпадающего с указанным идентификатором. Поэтому поисковик Гугл советует не использовать данный символ в URL-адресах.;

2) Не стоит также прописывать URL-адреса Hashbang (#!), их распознает только поисковая система Бинг, Гугл отказались от поддержки данного формата из-за попыток манипуляций с похожим escaped_fragment HTML. Рассмотрим на двух примерах:

2.1) В оригинале должно содержатся #! (hashbang) в URL-адресе как свидетельство существования определенного фрагмента или метаданных <meta name = «fragment» content = «!»>;

2.2) На практике символ #! (hashbang) заменяется на «_escaped_fragment_», делая адрес длинным, похожим на взломанный.

Гугл советует:

1) Использовать API истории PushState, что базируется на истории просмотра вебстраниц. Другими словами, при загрузке страницы повторно обновляются лишь те элементы, что изменились с прошлого посещения. Гугл одобряет это, поддерживая браузерную навигацию для визуализации. Особенно хорошо применять этот метод для «бесконечной прокрутки», то есть для ситуаций, когда пользователь часто нажимает на разные части вебстраницы, при этом происходит обновление URL-адресса. Считается хорошим, если после прокрутки страницы вниз, происходит загрузка контента без обновления всей страницы.

2) Можно сделать бесконечную прокрутку без постоянной перезагрузки при помощи replaceState ().

Возможность взаимодействия ресурса с поисковыми роботами.

Выше обсуждалось, что поисковики применяют режим безгласного просмотра для оценки содержимого контента на соответствие поисковым фразам. При этом поисковик может распознавать некоторые элементы сайта, сделанные при помощи JavaScript, пользуясь при этом DOM.

Но достаточно часто поисковые роботы не способны распознать фрагменты кода на JavaScript, что негативно влияет на продвижение. Поэтому нужно знать, способны ли поисковые роботы анализировать и сканировать весь контент. Нет смысла строить догадки, нужно проверять доступность содержимого ресурса.

Поведение поискового робота, обнаружившего JavaScript, имеет ряд особенностей:

1) Поисковые боты не выполняют какие-то действия, предусмотренные на получение дополнительной информации. Например, если вы разместите статьи, прочитать которые можно только после регистрации, то они не пройдут индексацию, так как боты не смогут получить доступ к этому контенту. Поэтому стоит позаботится, чтобы поисковики могли получить доступ к этому контенту.

2) Поисковые боты могут пропустить страницу, если происходит долгая загрузка. Важно убедится что после срабатывания событий загрузки JavaScript страница открывается менее, чем за 5 секунд. Если длительность загрузки будет более, есть большая вероятность, что поисковики не видят загружаемый контент.

Нет конкретного значения задержки загрузки, но стоит придерживаться 5 сек. Есть специальные инструменты тестирования, например, GoogleSpeed ​​Insights, Mobile Friendliness Tool и Fetch, можно проверить таймер Max Prin.;

3) Обнаружение ошибок в срабатывании JavaScript может повлечь пропуск отдельных страниц ресурса.

Как проверить, способны ли роботы сканировать и распознавать содержимое?

1) Тестирование.

Поисковые алгоритмы постоянно развиваются, получая новые методики оценки и распознавания содержимого. В 2015 поисковые роботы научились анализировать JavaScript, применяя DOM. Отсюда следует вывод, если вы можете просмотреть содержимое ваших страниц в DOM, то скорее всего и боты способны его проанализировать.

Б.Горавлеч решил протестировать комбинацию разных библиотек и фреймворков JavaScript, чтобы узнать, как поисковые боты реагируют на их наличие (например, проведение индексации страниц и их содержимого). В результате выяснилось, чтоб большинство библиотек и фреймворков Гугл способен просканировать и распознать, иногда создавая достаточно сложные структуры.

Этот тест показал, что использование JavaScript допустимо, но нужно проверять совместимость выбранных библиотек и фреймворков с поисковыми ботами.

Это можно сравнить с высказыванием Д. Коллина про пули и пушки:

«Пулю можно сравнить с эмпирическим экспериментом, используемым для определения работоспособности объекта. Пуля должна обладать тремя параметрами: недорогой стоимостью, низким уровнем риска при использовании и низкой отдачей. Опираясь на эмпирический эксперимент, происходит концентрация ресурсов, чтобы стреляя из пушки, получить максимальную выгоду.»

Можно пользоваться следующим алгоритмом проверки доступности контента для поисковых роботов:

1) Проверить доступность контента в DOM;

2) Проверить структуру ресурса на наличие внутренних связей;

3) Вручную проверить некоторые элементы вебстраниц;

4) Используйте инструменты для проверки видимости контента поисковой системой;

5) Оцените скорость загрузки после срабатывания события JavaScript при помощи Fetch с Google. Это способно отобразить возможные проблемы, связанные с блокировкой отдельных элементов, это можно увидеть в файле robots.txt.

Примечание. Если у вас нет возможности проверить ресурс через GSC, можно воспользоваться «Any Bot Tool» Technicalseo.com

Вы провели проверку и обнаружили, что есть неисправности? Или используемые вами метаданные предназначены для поисковых ботов соцсетей (Фейсбук, твитер и т.д)? Для решения этих и других проблем следует сделать HTML SNAPSHOTS.

2) HTML SNAPSHOTS.

HTML SNAPSHOTS — это отображение страницы, которую видят поисковые боты (статическая версия DOM).

Впервые они появились в 2009, в 2015 Гугл решил отказаться от этого метода. Тем не менее они помогают разобраться с выявленными трудностями.

Например, если вы обнаружили, что поисковые боты не распознают ваши элементы JavaScript, то вы можете предоставить HTML SNAPSHOT страницы, чтобы бот смог проиндексировать и оценить содержимое.

Стоит учитывать, что поисковики стремятся получать те же данные, что и посетитель вашего ресурса, поэтому пользоваться HTML SNAPSHOT стоит лишь в тех случаях, когда нет возможности исправить трудности из-за использования JavaScript.

Примечание.

Гугл продолжает поддерживать работу с HTML SNAPSHOT, но рекомендует избегать его использование, аргументируя это тем, что:

1) Они ориентируются на получение страниц в том же виде, что и пользователи ресурса;

2) Попытки обмана в виде предоставления отличного содержания снимка от оригинальной страницы. При этом содержание снимка и оригинала не должны отличаться. При обнаружении попыток обмана возможно наложение штрафа.

Несмотря на эти недостатки, есть ряд преимуществ:

1) Поисковый бот Гугл получает представление о контенте страницы, даже если не способен распознать некоторые элементы JavaScript;

2) Поисковые боты других систем способны распознавать содержимое страниц, ведь далеко не все существующие поисковики работают с JavaScript.

Локализация сайта

Когда браузер получает страницу от сервера, он создает DOM образ, при этом большая часть элементов подгружается в зависимости от места расположения на вебстранице. Если вы разместите крупный объект в начале, то он будет загружаться первым.

Гугл нацеливает на загрузку данных таким образом, чтобы первыми отображались самые важные и полезные для посетителей.

Путь рендеринга — оптимизация загрузки по важности. При этом использование JavaScript, без которого можно обойтись, может замедлить скорость загрузки страницы, блокируя потенциал (воспринимаемая латентность).

Способы решения Render-blocking JavaScript.

Есть множество инструментов, позволяющих проверить скорость загрузки вебстраницы, например, Speed SpeedWare, WebPageTest.org, CatchPoint, способных оценить влияние элементов JavaScript на скорость. При выявлении проблем можно:

1) Inline — добавить JavaScript в HTML-документ;

2) Async — асинхронизировать JavaScript, добавив атрибут async к HTML-тегу;

JavaScript асинхронным

3) Отложить — расположить элемент JavaScript в нижней части страницы.

Поместив JavaScript ниже в HTML

Стоит отметить, что вызываемые сценарии следует расставить по приоритетности. Вы не должны менять очередность исполнения сценариев, или запускать сценарий до завершения предыдущего действия (например, до открытия другого файла, на который есть ссылка в сценарии). Работать над этим должен грамотный специалист.

Подробнее: Документация по скорости разработки Google Developer

Итоги.

Поисковые системы стараются создать возможности для скана, анализа и распознавания JavaScript, но все еще есть проблемы с этим. Обязательно проверьте, что содержание ваших страниц проверяется поисковыми ботами. При выявлении проблем ищите способы их преодоления.

Мораль истории

Как очистить сайт от вирусов

Как очистить сайт от вирусов

Как очистить сайт от вирусов

Защита сайта от вирусов
Зараженный сайт, будет не только рассылать спам, но и приносить вред персональным компьютерам клиентов, портить выдачу информации в поисковой системе. Если вы не хотите потерять клиентов и хорошую репутацию, то обязательно необходимо следить за безопасностью сайта.

Ниже будут описаны основные причины заражения вирусами, диагностика и профилактика сайтов.

Какие факты указывают на то, что произошло заражение ресурса?

На сегодня существует несколько известных маркеров, которые позволяют определить, что идет не так:

  1. При входе сайт блокируется антивирусом или браузером.
  2. В статистических параметрах или при индексации поисковой системы происходят резкие изменения.
  3. Ресурс добавляется в черный список поисковой системы Гугл.
  4. При работе сайт выдает предупреждения или ошибки.
  5. В коде ресурса появляется подозрительная информация.

Если при проверке сайта вы не обнаружили ничего из вышеперечисленных пунктов, то его все равно необходимо проверить на наличие возможных ошибок. Успокоиться можно только тогда, когда подозрение на наличие вирусов не подтвердится. Также здесь необходимо принять меры защиты для обеспечения безопасности.

Основные причины заражения сайта

На сегодня существует немного причин и факторов, которые могут влиять на появление и распространение вируса по всей сети. К ним относятся:

  1. Применение вирусного программного обеспечения, которое используется для кражи личных данных или хостинга.
  2. В известных CMS-платформах могут быть уязвимые компоненты. К примеру, WordPress, Joomla, Bitrix.
  3. Взлом пароля с помощью перебора вариантов (брутфорс).

Данные причины указывают на то, что заражение может произойти как по вашей вине, так и по вине недоброжелателей. Далее рассмотрим основные проблемы и способы их устранения.

Как проверять и как осуществлять лечение?

Существует несколько вариантов выявления причин возникновения вирусов и несколько способов их устранения. Но, не дается 100 процентной гарантии, на то, что одна проверка поможет полностью исправить ситуацию. Для высокого уровня надежности специалисты рекомендуют использовать следующие методы:

  1. С помощью хостинга автоматически проводить проверку на вирусы. В большинстве случаев такой способ позволяет определить наличие вредоносного кода и укажет на проблемные файлы.
  2. Проведение тестирования с помощью специальных программ. Они позволяют быстро и качественно вычислить большинство проблем. После их обнаружения можно самостоятельно выбрать метод лечения.
  3. Если в коде ресурса обнаружена посторонняя информация, то здесь необходимо использовать PHP-скрипты. С их помощью находятся те файлы, которые имеют маску. После их вычисления проводится чистка файлов от мусора. Данный способ требует профессиональных знаний и умений в сфере программирования.
  4. На персональный компьютер можно загрузить копию ресурса и проверить его на наличие вирусов. На сегодня антивирусы имеют функцию эвристического модуля, с помощью которого быстро выявляются наличие вредоносных кодов.
  5. Проверка сайта также может осуществляться с помощью вебмастера Гугл, Яндекс или Майл. Если в ресурсе будет обнаружена какая-либо проблема, то в панели появится сообщение с информацией и рекомендациями по исправлению ошибок.
  6. В индексе поисковой системы периодически необходимо проверять страницы ресурса. Для большого сайта используется сниппет. Здесь нужно обращать внимание на содержание. Если сайт имеет меньше 50-ти страниц, то с каждой из них можно будет ознакомиться отдельно в сохраненной копии. Файл .htaccess также необходимо своевременно проверять на наличие ненужных кодов. Если в файле будет такая информация, то пользователи будут отправляться на другие виды контента. По такой же схеме работают некоторые дорвеи. Но в данном случае пользователь будет видеть тот же контент или перенаправляться на сайт злоумышленников. В такой ситуации необходимо проверить правильный ли ответ дает сервер страницы. Если проблема обнаружена, то ее обязательно нужно исправить. Если взлом все-таки произошел, то здесь в файл robots.txt добавляются правила, которые отвечают за индексацию закрытия ненужных страниц.
  7. Периодически нужно проверять информацию о пользователях, которые зарегистрировались на ресурсе. Сначала нужно рассмотреть всех, имеющих доступ к редактированию сайта. Если таковы есть, то их обязательно нужно удалить и отключить данные права. После этого осуществляем поиск уязвимостей, чтобы выяснить, как они попали на ресурс и получили такой доступ.
  8. Мы так же рекомендуем воспользоваться сервисом онлайн проверки: antivirus-alarm.ru

После проверки сайта и устранения проблем, нужно изменить пароли ко всем существующим аккаунтам.

Как обеспечить защиту ресурса?

Каждый специалист знает, что лучше заранее провести профилактику сайта, нежели потом исправлять проблемы и ошибки. По этой причине рекомендуется соблюдать следующие правила безопасности:

  1. Нужно делать резервное копирование ресурса. Период копирования не должен превышать шесть месяцев. Если стадия заражения была запущена, файлы, которые не были затронуты вирусом, находятся в ранних версиях.
  2. Применяйте криптостойкие пароли. Каждый месяц их нужно обновлять.
  3. Скачивать и устанавливать нужно только то программное обеспечение, которое на сегодняшний день является актуальным. Также его нужно постоянно обновлять. Снизить уровень атаки можно с помощью установки необходимых патчей.
  4. Специалисты рекомендуют устанавливать компоненты и плагины, которые имеют защитные функции. С их помощью вы сможете защитить сайт, от пользователей, занимающихся подбором паролей. Также стоит внести авторизацию двойного типа. Она позволяет выключить стандартный модуль, используемый для восстановления доступа и пароля.
  5. Проверка ресурсов в автоматическом режиме должна осуществляться с помощью хостинга.
  6. На всех ПК, работающих с сайтом, должна быть установлена обновленная антивирусная программа.
  7. Ни в коем случае нельзя пересылать пароли. Также поставьте категорический запрет на проведения действий такого плана для сотрудников, которые занимаются работой ресурса. Пароль от почты, связанный с сайтом, нужно периодически менять.
  8. В htaccess файле создаются специальные правила. К примеру, это может быть запрет в папках php, которые пользователи загружают через сайт.
  9. Дополнительной работой для безопасности будет ограничение показа ресурса в других странах. На сегодняшний день многие пользователи сидят в интернет сети с помощью специальных программ, которые скрывают их местоположение.
  10. Если в работе ресурса не применяется SSH, то лучшим вариантом будет его отключение.

Вывод

Даже в мире современных технологий невозможно найти ту самую таблетку, которая сможет исключить возможность заражения сайта. С каждым разом злоумышленники придумывают все больше способов взлома сайта. Они смогли создать новые вирусы и новые способы проникновения. Но вы можете повысить уровень надежности ресурса. Для этого необходимо следовать всем правилам безопасности, поддерживать чистоту персонального компьютера и самого ресурса.