Позиционирование является самым дешевым с точки зрения времени и наиболее эффективным каналом для получения трафика. Мы обращаемся к пользователям на каждом этапе их жизненного цикла: от ответов на вопросы и решения проблемы до поиска продукта или услуги и их поставщиков до мнения. В этой статье вы узнаете, что влияет на позиционирование и что вам нужно для достижения высоких результатов в результатах поиска.
Первая мифическая позиция похожа на Золотой Граль, золотой город или Атлантиду (ведь она существовала!) Все стремятся к ней, но не каждый сможет ее увидеть. Почему высокие должности важны? Потому что они обеспечивают трафик, а это, в свою очередь, предоставляет пользователям, которые становятся клиентами. Первая страница результатов в 1998 году выглядела так:
И поэтому домашняя страница Google изменилась за последние 20 лет.
Теперь объем представленной информации в несколько раз больше.
В контексте позиционирования в поиске Google нас интересует присутствие в органических результатах (текстовые ссылки, карты, изображения). Конечно, внешний вид первой страницы из года в год все больше меняется, и за эти 20 лет он сильно развивался, обогащая себя такими функциональными возможностями, как:
Чем больше мы можем использовать функциональные возможности, которые предоставляет нам Google, тем больше трафика мы можем доставлять на наш сайт.
Существует не единственный правильный ответ на этот вопрос. Мы выделяем сотни факторов, влияющих на рейтинг (рейтинг от Google) страницы, что выражается в появлении страницы в результатах поиска. Наиболее важным будет:
Вкратце, мы можем сказать, что если мы хотим, чтобы наш сайт был хорошо оценен Google, он должен иметь хороший HTML-код , контент и быть популярным (другие сайты должны ссылаться на него).
Мы вводим концепцию рейтинга кликов CTR (Click Through Rate) , которая позволяет указать, как часто пользователи нажимают на ссылку. Чем больше мы ищем фразу в результатах поиска, тем меньше людей нажимают на ссылку на наш сайт, что приводит к уменьшению трафика.
Давайте проанализируем график рейтинга кликов CTR с позиции домена в результатах поиска:
Данные собраны advancedwebranking.com на основе 1 599 260 фраз из 30 720 доменов.
Анализируя эти данные, вы можете легко сделать вывод, что:
Лучшее место, чтобы спрятать труп - это другая сторона результатов.
Конечно, наиболее важным фактором является позиция, на которой будет отображаться страница. Однако в 2018 году, когда порядок результатов в значительной степени зависит от физического местоположения пользователя, его предыдущей истории поисков, а также сигналов социальных сетей, положение данной страницы может значительно отличаться в зависимости от вышеуказанных факторов. Если указанный домен отображается на первой странице результатов, влияние на CTR имеет:
Позиционирование - это длительный процесс. Я часто говорю, что если вы один раз начинаете заниматься SEO, вы должны делать это постоянно. Органический трафик по-прежнему является самым дешевым (с точки зрения конверсий) и наиболее эффективным видом трафика.
Вся маркетинговая деятельность должна начинаться с этого. В каждой отрасли есть доминирующие компании. Если вы посмотрите на них хорошо, вы определенно сможете получить некоторые их движения. Если вы посвятите достаточно времени и денег этому этапу, вы, безусловно, сэкономите намного позже, избегая ошибок, которые вы могли бы совершить, не проверив действия конкурентов. Однако никогда не сдавайтесь на собственном опыте и на том, что говорит вам интуиция.
Используйте бесплатный планировщик ключевых слов от Google - вы сразу же выучите сотни фраз вместе со статистикой трафика, которая может привлечь трафик на ваш сайт. Кроме того, обратите внимание на внешние инструменты, такие как Ahrefs, Majestic или Polish Senuto, которые эффективно облегчают позиционирование страниц, ускоряя, среди прочего, анализ внутренних ссылок и внутренних ссылок.
Анализируя описания подзаголовков мета-заголовков на сайтах ваших конкурентов, вы узнаете, какие фразы они хотят видеть, что означает, что они могут дать им конверсии в форме покупок или запросов. Есть также такие сайты, как Similarweb.com, где помимо источников трафика мы будем знать оценку (прогнозируемый размер) трафика. Данные не точны, но они дают общую картину домена. Благодаря информации, содержащейся на сайте, можно будет лучше подготовить стратегию получения трафика на сайте.
Никто не будет точно знать, какие услуги вы предлагаете и какие продукты вы продаете. Используйте свои знания и опыт для определения базы данных ключевых слов - думайте как ваш клиент. Подумайте о том, что люди спрашивают о вашей компании или пишут запросы. Если вы все еще не уверены как выбрать ключевые слова для позиционирования посмотри в нашу SEO база знаний ,
Часто эта часть полностью игнорируется дизайнерами сайтов и более поздними программистами. Структура сайта должна отражать хорошую газету, в которой у нас есть разделение на разделы, категории, статьи, разделы. В случае с веб-сайтом мы должны перейти от самой общей информации к самой подробной информации, предоставляя при этом быструю возможность перейти к подробным разделам общей части страницы.
При разработке информационной структуры одной из наших целей должно быть создание навигации по сайту, чтобы вы могли добраться до любого места на сайте в соответствии с правилом трех кликов, что означает очень быстро.
Конечно, для вас наиболее важными страницами на сайте будут те, через которые пользователь сможет связаться с вами, прочитать о вашей компании или посмотреть фотогалерею. С точки зрения SEO, эти сайты бесполезны. Если при анализе сайта мы докажем, что из-за плохого дизайна сайта (его структуры) наиболее важными являются страницы, перечисленные выше (или, как это часто бывает, политика конфиденциальности), мы узнаем, что часть силы сайта потрачена впустую.
Представьте, что вам нужно отдать 100 баллов, чтобы определить эффективность вашего сайта и одновременно повлиять на рейтинг сайта и его позицию в Google. Если некоторые из этих пунктов будут потрачены впустую, например, из-за плохо спроектированной структуры, вместо того, чтобы использовать весь потенциал сайта, вы используете только 80%. Во время SEO-аудита мы находим такие ошибки и исправляем их.
Нарисуйте структуру страницы на основе ранее разработанного списка ключевых слов, сгруппировав их по общности и объему поиска. Например, при разработке веб-сайта для строительной компании, которая строит как по заказу клиента, так и мы выполняем собственные проекты, предоставляя услуги по ремонту, структура может выглядеть следующим образом:
- строительные услуги
- строительство домов на одну семью
- строительство складских помещений
- дизайн складских залов
- утепление складских залов
- строительство многоквартирных домов
- ремонтные услуги
- покраска стен
- ремонт крыши
- ремонт фасада
- строительный надзор
- недвижимость для продажи и аренды
- дома на продажу
- квартиры на продажу
- аренда зданий
- аренда офисов
- блог
- база знаний
Эта структура отражает нашу SEO-стратегию на сайте, о которой думает поисковая система. К этой структуре было бы необходимо добавить страницы, которые будут важны для пользователя, но они будут бесполезными с точки зрения поисковой системы, такими как контакты, правила, информация для клиентов, - и легко достигать этих подстраниц.
UX или User Experience - это очень короткая идея создания такого продукта (UX применяется не только к веб-сайтам), так что человек, использующий его, делает это интуитивно, в соответствии с намерениями и ожиданиями дизайнера и в то же время, что продукт соответствует ожиданиям. пользователь. В случае веб-сайтов, хорошие стандарты UX включают, среди прочего:
Послушайте это в нашей программе #uxbezzargonu
Проектирование с осторожностью относительно UX влияет на SEO прямо и косвенно. Хороший поток пользователей на сайте - это низкий показатель отказов и, следовательно, более высокая вероятность конверсии.
Некоторые подстраницы на сайте будут автоматически связаны с правильно разработанной навигацией. Однако стоит помочь роботам добраться до определенных подстраниц, например, из сообщений в блоге. Из статьи: «5 вещей, которых нужно избегать при покупке дома», мы можем сослаться на ранее упомянутую подстраницу: ссылки на дома для продажи, используя фразу «продажа дешевых домов». Благодаря этому мы можем варьировать базу данных ключевых слов и ключевых фраз во внутренних ссылках сайта.
Вы должны помнить правило « Количество первых ссылок», то есть если мы будем использовать несколько ссылок на другую подстраницу на одной странице, Google будет рассматривать только первую фразу, а оставшиеся ссылки будут игнорироваться.
Есть способы обойти этот принцип, но напишите об этом в статье о том, как я следил за Google Bot в течение трех месяцев ,
Файл robots.txt является точкой пересечения границы для поисковых систем и других ботов. Прежде чем бот посетит данную подстраницу, он должен проверить в этом файле, есть ли у него возможность посетить данную страницу (если она не заблокирована). В файле robots.txt вы также можете заблокировать доступ для выбранных ботов, а также для выбранных подкаталогов или URL-адресов, соответствующих определенному шаблону.
У нас есть стратегия, у нас есть структура, но нам все еще нужно убедиться, что код сайта избалован, благодаря чему сайт, среди прочего, сможет быстро загружаться. Как и у каждого SEO-евангелиста, у меня есть свои теории позиционирования. То, что я повторяю больше всего, объясняя суть оптимизации другим, - это перевод ранжирования домена в затраты на энергию. Чем меньше энергоресурсов серверы Google используют для сканирования страницы, тем лучше рейтинг этой страницы. Другими словами - чем меньше купертино-гигант будет платить за электричество, связанное с движением роботов на вашей стороне, тем лучше для вас. В двух словах, мы добьемся этого:
Знаете ли вы, что, согласно данным Google, более 53% мобильных пользователей покидают сайт, если он не загружается в течение 3 секунд? Обязательно стоит позаботиться о скорости отображения и последующей загрузке всей страницы. Google помогает нам в этом, предоставляя инструмент Google Insight Speed, который позволит нам анализировать критически важные элементы веб-сайта, и мы сможем их улучшить. Кроме того, в Cyrek Digital в процессе позиционирования страниц мы используем GTmetrix, Yslow и консоль браузера Google Chrome для определения элементов, влияющих на скорость загрузки.
Я долго думал, что Google предоставляет так много бесплатных инструментов для сугубо социальных целей. Чтобы мир стал лучше. Ничто не может быть более неправильным. Если пользователь покидает страницу перед ее загрузкой, то в случае рекламы AdSense, установленной на сайте, Google не заработает.
В некоторых ситуациях перенаправления необходимы, а в других это не рекомендуется. Почему? Одним из худших сценариев является случай, когда мы сможем получить переход на сайт из поисковой системы (что удивительно - SEO работает), но пользователь перейдет на страницу ошибки 404 (без целевой страницы) и покинет наш сервис. Чаще всего это происходит после миграции страниц на новый движок, ввода хороших URL-адресов, изменения структуры адресов подстраниц или простого удаления контента с сайта. В этом случае мы должны убедиться, что пользователь находится на новой подстранице, что соответствует намерениям его поиска. Мы добьемся этого, используя 301 перенаправление (постоянное перенаправление). О чем следует помнить:
Однако бывают случаи, когда перенаправления не указываются. Если внутри сайта есть внутренние ссылки на страницы, которые перенаправлены на другие адреса, то обязательно обновите эти ссылки до адресов назначения.
Старая школа SEO на уроке перенаправления сказала:
Новая школа говорит:
Наш опыт показывает, что еще в 2018 году изменение 302 перенаправлений на 301 приводит к значительному увеличению видимости страниц. То же самое верно при устранении внутренних перенаправлений.
Если вы уже знаете, что ищут ваши потенциальные клиенты, убедитесь, что они нашли ответ на ваши (для) вопросы на вашем сайте. Процесс от создания необходимости покупать долго. Чем больше времени пользователь встречает ваш сайт на пути, тем больше вероятность того, что он станет клиентом. Вот почему они так важны на странице контента в таких отделах, как статьи, блоги, новости или базы знаний. Там мы можем ответить пользователю с помощью таких вопросов, как «Как?» И «Почему», а затем перенаправить его на коммерческую часть веб-сайта, например, описание товара, услуги или контактную страницу. Имея контент на сайте, мы должны убедиться, что они максимально уникальны как внутри (внутри сайта), так и снаружи (не копируются из других доменов). Самая большая проблема с этой проблемой - это интернет-магазины, где описания продуктов скопированы с баз данных поставщиков и производителей. Конечно, мы попробовали и протестировали способы, чтобы гарантировать, что контент на странице продукта более уникален, чем то, что делают конкуренты в данной отрасли.
Подробная информация об ошибках кода сайта приносит SEO аудит . Именно в нем во время работы над позиционированием страницы мы записываем все проблемы, которые затем исправляются для программиста.
Технический анализ сайта позволяет провести углубленную подготовку к процессу позиционирования. Мы начинаем этот процесс с сайта для сканирования или с его взгляда глазами бота Google . Crawler посещает все подстраницы веб-сайта и собирает информацию о метаописаниях, длине текста, информацию о кананических указаниях, перенаправлениях, 404 ошибках, ошибках сервера и о том, что является наиболее важными ссылками между подстраницами. Мы создаем карту структуры сайта и, благодаря данным, собранным сканером, мы знаем, какие страницы являются, а какие должны быть самыми сильными (наиболее связанными) во всем домене. Часто оказывается, что эти веб-сайты являются правилами, политикой конфиденциальности или контактами, то есть страницами, которые в процессе позиционирования не имеют значения для пользователя и не влияют на увеличение органического трафика.
В ходе SEO-аудита мы также проверяем правильность HTML-кода с учетом принципа подсчета первых ссылок. Мы улучшаем такие элементы кода, которые вызывают дублирование контента, например, сортировку или фильтрацию, которые, очевидно, необходимы пользователю, но плохо реализованные, негативно влияют на расположение страниц в результатах поиска.
Желая увидеть, что влияет на позиционирование, мы иногда заглядываем в прошлое. При проверке видимости сайта, мы часто сталкиваемся с ситуациями, когда сайт был очень хорошо позиционирован в прошлом, но однажды внезапно потерял позиции и, следовательно, трафик. Это часто происходит, когда на сайт налагается штраф. Ранее ссылки со ссылкой ( фильтр Пингвина ) или некачественными страницами ( фильтр Панды ) были довольно популярны. Однако обычно видимость уменьшается из-за перехода на новый механизм CMS, ошибок программирования, ошибок сервера или, в экстремальных условиях, не расширения домена, что может свести на нет даже самые лучшие эффекты позиционирования.
Одним из важных элементов в ходе аудита SEO является анализ журналов сервера для меня. Исходя из этого, я могу воспроизвести то, как Google Bot работает на стороне, и определить, где он теряется и на что он теряет больше времени, чем должен, и как это влияет на позиционирование сайта. Благодаря такому углубленному анализу мы можем видеть, что Google посещает URL-адрес, который возник в результате ошибки в коде HTML и попадает в бесконечные динамические циклы созданных веб-адресов, что особенно характерно для таких элементов, как навигация или страницы с параметрами.
С появлением рекомендаций для Google Quality Raters о том, как они должны оценивать сайты, мир SEO загорелся. Тысячи сайтов о здоровье, красоте и деньгах были вырезаны из результатов поиска. О чем все это шумиха? ЕСТЬ - это Экспертиза (экспертное мнение), Авторитетность (авторитетная), Надежность (достоверность).
Экспертиза - как создатель контента на сайте, вы должны быть экспертом в своей области. Авторы контента должны быть упомянуты на сайте с их именем и фамилией, и должна быть реальная возможность проверить свои научные достижения. Эта функция имеет решающее значение для сайтов с медицинским, финансовым или юридическим содержанием. Хорошей новостью является то, что любой сайт может показаться экспертом в своей области, если контент правдив и полезен для пользователей.
Авторитаризм - Вы должны показать, что можете быть авторитетом в своей области, а другие должны полагаться на контент, который вы размещаете на сайте. Стоит нанимать людей, которые уже имеют репутацию в той области, о которой вы пишете.
Достоверность - убедитесь, что отзывы о вашем сайте хорошие, и что никто не обвиняет вас во лжи или введении вас в заблуждение. Проверьте контактную информацию вашей компании, полную и полную информацию. Позаботьтесь о мнениях как на сайте, так и во внешних источниках. Сравните структурные данные на странице и фактические данные - они должны перекрываться.
В процессе создания вашей репутации, особенно в сфере здравоохранения, красоты, денег и юриспруденции, убедитесь, что ваш бренд может быть просто связан с:
После EAT позиционирование перешло на совершенно другой уровень. Это не просто немного контента, насыщенного ключевыми фразами, мета-заголовком и входящими ссылками, но акцент на качестве, измерение которого не является ни простым, ни очевидным.
Лично для меня это самая трудоемкая часть процесса позиционирования, но в то же время она приносит ощутимые результаты. Что такое хорошая ссылка? Я буду использовать один пример. Предположим, что для лучших страниц выбраны те, которые были вручную выбраны в качестве источника наилучшей информации. К ним относятся правительственные сайты, сайты университетов и страницы научных издательств. Получить ссылку на коммерческий проект с этого типа сайта чрезвычайно сложно (почти невозможно), поэтому мы предполагаем, что ссылка из такого места должна быть наиболее ценной. Если не с домашней страницы университета, может быть, с факультета? Скорее всего, но тоже не легко (у нас мало успехов в этой области). Далее давайте займемся подстраницей исследователя на выбранном факультете. Что он описывает на нем и как это зависит только от него и не подлежит внешней проверке. Получение ссылки с такой подстраницы может быть проще, но в то же время она будет иметь меньшее значение.
Мы могли бы описать ту же иерархию в случае средства формирования мнения - общенационального информационного портала. Ссылка, полученная в статье, появляющейся на первой странице, будет иметь большее значение, чем статья в поддомене с авторитетными блогами , Веб-сайт может также предоставить возможность ведения блога любому, где мы получаем свой собственный адрес домена. Ссылка из такого блога будет иметь наименьшее значение.
Проще говоря, вы думаете, что сайты с наибольшим количеством входящих ссылок должны быть наиболее ценными (популярными). Вероятно, это было бы, если бы не спам в ссылках, системы обмена ссылками, автоматизированные инструменты для получения ссылок на веб-сайты. Алгоритмы Google успешно фильтруют спам и не включают такие ссылки в подсчет рейтинга домена.
Кроме того, в Google работают более 10 000 человек, которые проводят оценку качества ручной страницы. Недавно Google рекламировал это в прошлом месяце советы по оценке страниц - документ с более чем 200 страницами подробное описание хороших и плохих факторов, влияющих на рейтинг страницы.
Так качество. Снова качество и качество, но в то же время необходима диверсификация, то есть диверсификация. Ежедневно мы получаем ссылки из различных источников, которые мы можем в первую очередь ранжировать в порядке наименьшего к наиболее эффективному:
Хорошая статья о конкретной отрасли и о том, что она затрагивает темы определенной целевой группы сама по себе через распространение в социальных сетях, создаст большой трафик на сайте. Если тема имеет отношение и содержит, например, исследования, инфографику, статистику, тогда другие СМИ, стоящие выше в иерархии, готовы ссылаться на информацию, представленную в статье, цитируя и одновременно публикуя ссылку на статью при предоставлении источника.
Поисковые системы в Интернете являются источником почти половины мирового интернет-трафика, поэтому, если вы все еще считаете, что SEO не является необходимым, подумайте еще раз.
Copyleft © 2017 . www.info-center.od.ua Информационный центр - Всегда в центре событий