8 продвинутых SEO-советов на странице, которые нужно знать

  1. 1. Внутренняя структура ссылок не рассказывает историю
  2. 2. Запутанная корневая папка
  3. 3. Дублированный контент прямо под вашим носом
  4. 4. Скорость загрузки сайта
  5. 5. Полная прозрачность и раскрытие вредоносных функций
  6. 6. Неработающие ссылки и переработка потерянных URL
  7. 7. Исправление ошибок и удаление лишнего кода
  8. 8. Скрытый семантический индекс и необходимые ключевые слова
  9. Еда на вынос

После более чем десяти лет отмены штрафов Google стал причиной появления и упадка манипулятивных методов SEO. Многие профессионалы почти забыли о широком пространстве для манипулирования, которое дает SEO на странице, и действуют на самом базовом уровне, будь то в результате дополнительной осторожности или, возможно, привычки.

Нет, это не другая статья об оптимизации заголовка, оптимизации ключевых слов и важности тегов. Ниже я намерен представить список проблем и решений, которые помогут вам повысить рейтинг в поисковых системах с помощью элементов на странице из менее обсуждаемых, но все же значимых точек зрения.

Чтобы провести параллель, представьте свой сайт как магазин кирпичей и растворов. Ваш офф-страничка SEO было бы эквивалентно управлению репутацией и пиар-кампаниям, в то время как на странице больше о том, что содержит ваш магазин: полки, кассовый аппарат и т. д. Каждый элемент имеет разную важность, но все они имеют решающее значение для успеха магазина.

Зачастую владельцы бизнеса настаивают на получении предложений только для работы вне страницы, обычно на основе контента, без внесения каких-либо изменений на странице. Они могут быть чрезвычайно уверены в своей убежденности в том, что они сделали все, что могли, но реальность часто сильно отличается. Быстрый анализ обычно приводит к непрофессиональному и / или не-SEO-совместимому кодированию и вставке, что может повредить рейтингам. Продвинутое внедрение методов SEO на странице Укрепляет сайт и может оказать быстрое, почти немедленное влияние на рейтинг, в отличие от постраничных усилий, которые обычно приносят плоды дольше и зависят от многих факторов, которые мы не можем контролировать.

После почти 10-летнего опыта работы в этой области я наткнулся на множество странных ситуаций и интересных фактов. В этой статье я соберу несколько ключевых советов для эффективной оптимизации на странице. Как вы можете догадаться из названия, эта часть предназначена для опытных SEO специалистов, поэтому я сделал определенные предположения о базовых знаниях и технических возможностях. Если что-то неясно, не стесняйтесь задавать мне вопросы в разделе комментариев.

Следующий список методов на странице упорядочен случайным образом, а не в соответствии со значением. Сделайте глубокий вдох, и давайте погрузимся.

Примечание редактора: автор не претендует на принадлежность к упомянутым инструментам в этом посте.

1. Внутренняя структура ссылок не рассказывает историю

Общее объяснение: задумывались ли вы когда-нибудь, почему такие подстраницы, как «О нас» и «Свяжитесь с нами», обычно имеют хорошие оценки PR и DA? Во многих случаях они даже не имеют внешних ссылок. Причиной этого являются внутренние ссылки: эти подстраницы обычно появляются в межсайтовых меню. Связывая эти страницы с более высокой частотой, мы фактически объявляем их важными. Однако они могут быть не такими сильными, как могли бы.

У ползающих роботов нет предпочтений или желаний; Их миссия проста и рассчитана. По этой причине, если мы точно знаем, что они ищут, мы сможем оптимизировать наш сайт. При сканировании сайта перемещение с одной страницы на другую осуществляется путем ввода этих внутренних ссылок. Информация собирается до тех пор, пока сканирование не будет завершено или не достигнуто уведомление об истечении времени ожидания. В большинстве случаев сайты смотрят на большие упущенные возможности.

Улучшение структуры внутренних ссылок - один из наиболее эффективных способов оптимизации элементов на странице. Почти каждый раз, когда это делается, мы видим улучшение рейтинга после следующего сканирования Google. Метод оптимизации этой структуры широко известен: якоря рассказывают истории. Если мы возьмем все якоря на данном сайте и выпишем их только для последовательного чтения, мы должны надеяться получить представление о теме сайта.

Проблема: без четкой структуры внутренних ссылок алгоритм Google назначает менее релевантные поисковые фразы наиболее важным целевым страницам сайта. Основным признаком этого является то, что домашняя страница относится к большинству фраз, по которым мы хотим получить высокий рейтинг, но лишь немногие из них попадают в топ поисковой выдачи.

Решение: если на вашем сайте есть блог, начните со ссылки 20-30 сообщений (не переусердствуйте) с соответствующими важными целевыми страницами. Напишите дополнительно 15-20 новых сообщений в месяц, углубляясь в основную тему, рассматриваемую на целевой странице, и связывайте эти новые сообщения со старыми сообщениями и наоборот. Эта внутренняя система ссылок должна выделять основные перекрестки на вашем сайте, используя как старые, проиндексированные страницы, так и новые.

Эта внутренняя система ссылок должна выделять основные перекрестки на вашем сайте, используя как старые, проиндексированные страницы, так и новые

Убедитесь, что ваш контент интересный и качественный. В противном случае ваши внутренние ссылки не будут обрезаны. Обратите внимание, что я не упомянул, какие якоря предпочтительнее использовать, поскольку это менее важно, поскольку релевантна страница, на которую они ссылаются. Естественно, желательно использовать якоря, которые описывают целевую страницу. «Нажмите здесь» также является популярным якорем и даже рекомендуется время от времени, когда это уместно.

Теперь пришло время найти самые сильные страницы на вашем сайте и связать эти страницы с вашими самыми важными целевыми страницами (если это возможно). Делая это, вы будете использовать имеющиеся силы, чтобы помочь важнейшим активам. Для этого мы будем использовать ScrapeBox введите URL сайта под сайтом: и нажмите «Начать сбор урожая». Смотрите пример ниже:

В результате должны быть представлены все страницы сайта. Теперь мы проверим силу и популярность в два простых шага.

  1. Нажмите «Проверить PageRank» и экспортируйте данные, используя правое меню (файл CSV);

Правда, PR - не самый надежный или точный показатель для оценки силы, но он все еще служит хорошим индикатором. Естественно, тестирование PA (авторитет страницы) будет более точным, но для этого потребуется создать учетную запись в Moz и зарегистрировать код API.

Примечание. Те из вас, кто использовал код Moz в прошлом, знают, что он иногда может быть неточным, а иногда не дает абсолютно никаких результатов. Обращайте внимание и проверяйте каждый подозрительный результат вручную. Важно помнить, что эти метрики не обязательно назначают ту же важность, которую им назначает алгоритм, но их достаточно для общего указания.

  1. Проверьте популярность в социальных сетях, нажав «ScrapeBox Social Checker», экспортируйте данные и объедините результаты с результатами первого шага:

Теперь вы можете объединить две таблицы и отсортировать данные в любом случае, чтобы определить, какие страницы являются наиболее сильными, а затем связать их с важными целевыми страницами. Вот как выглядит шаблон, который я использую:

Если у вас есть сайт WordPress, лучше всего ознакомиться со следующими плагинами, которые могут помочь в создании и поддержании внутренней структуры ссылок:

No Sweat WP Внутренние ссылки Lite

SEO Smart Links

2. Запутанная корневая папка

Общее объяснение: Это, вероятно, один из самых игнорируемых элементов на вашем сайте. Метафорически, это темный чердак, о котором никто не думает во время их обычной рутины. Однако, если учесть, что Google сканирует ваш веб-сайт всего за несколько секунд - максимальное увеличение времени сканирования может быть значительным.

В чем проблема? Создатели сайтов, оптимизаторы и владельцы сайтов, как правило, постоянно выбрасывают файлы в корневую папку и подпапки. Пока в этом нет ничего визуального, они не считают это проблемой - но каждый отдельный файл является влиятельным. Основная проблема заключается в разбавлении соответствующей информации в этих «ненужных файлах», таких как:

  • Разные версии файлов
  • Пробные файлы
  • Неиспользуемые файлы DOC / PDF
  • Резервное копирование каталогов
  • Изображения / видео / музыка (файлы мультимедиа должны быть помещены в назначенные каталоги)
  • Временные файлы

Хотя эти файлы больше не используются, они учитываются при каждом сканировании вашего сайта, что может помешать вам максимизировать выделенные вам ресурсы или еще хуже: разбавить важную информацию, найденную на сайте.

Решение: Время убирать чердак! Откройте каталог и назовите его «old-files», затем поместите в него все неиспользуемые файлы. Кроме того, сортируйте ваши медиа-файлы и подкаталоги, и не забудьте обновить все адреса в коде до самых обновленных, где бы они ни использовались. Не пытайтесь найти каждую ссылку, которая указывает на них - просто внесите изменения, а затем запустите программу проверки неработающих ссылок, чтобы найти, какие ссылки нужно изменить. Для этого шага я использую Xenu Link Sleuth , Наконец, обновите файл robot.txt с помощью следующей команды:

Disallow: / old-files /

3. Дублированный контент прямо под вашим носом

Общее описание: Начисляются ли штрафы за дублированный контент? Вряд ли, кроме как в крайних случаях. Вообще говоря, дублированный контент сам по себе не является достаточным основанием для штрафа, за исключением случаев, когда Google признает мошенническое намерение за дублированным контентом, направленное на «обман» поисковой системы. Обычно дублированный контент ведет к девальвации, и большую часть времени мы даже не осознаем этого.

Каждый результат поиска содержит тысячи проиндексированных результатов; Google дает нам доступ к первым 1000, то есть 100 страницам результатов поиска. Почти никто не интересуется тем, что может предложить страница 10+, из-за того простого факта, что мы привыкли считать, что все, что находится на первой странице результатов поиска, является более актуальным и, следовательно, более надежным. Это почти вторая натура - доверять алгоритму Google, и они в свою очередь делают все, чтобы не разочаровывать нас. В этом отношении дублирующийся или похожий контент представляет собой серьезную проблему для Google, и поэтому Google полон решимости встретиться с ним лицом к лицу, чтобы не подвергать риску взаимодействие с пользователем.

Опять же, эти первые 1000 результатов по сути представляют собой длинный хронологический список, отсортированный по релевантности и авторитету. Однако этот список также подвергается фильтрам, предназначенным для поддержания высокого качества. Как вы уже догадались, один из этих фильтров настроен на распознавание дублированного и похожего содержимого.

В чем проблема? Подобно мячу и цепочке, дублированный или похожий контент утяжеляет ваш сайт и усложняет всю работу на сайте. Теоретически, дублированная страница может в конечном итоге попасть на первую страницу результатов поиска, если другие факторы ранжирования используют ее преимущество над конкурентами, несмотря на дублированный контент. Это усилие, однако, будет намного больше с точки зрения времени и денег.

Решение: я затрону каждую отдельную проблему и опишу ее решение после этого.

  • У вас есть: Написать основной URL сайта несколькими способами. Например: с префиксом www или без него, с суффиксом index.php и без него и т. Д. Все эти версии ведут на одну и ту же страницу - вашу домашнюю страницу - и все они могут быть проиндексированы Google.

Решение: во- первых, введите следующие строки в файлы htaccess (замените «домен» именем вашего сайта; замените «html» на «php», если необходимо):

RewriteEngine On

RewriteCond% {THE_REQUEST} ^ [AZ] {3,9} \ /index\.php

RewriteRule ^ index \ .php $ / [L, R = 301]

RewriteCond% {HTTP_HOST} ^ www \ .domain \ .com $ [NC]

RewriteRule ^ (. *) $ Http://domain.com/$1 [L, R = 301]

Затем определите предпочтения для типа адреса в Google Webmaster Tools (с префиксом www или без него)

  • У вас есть: безопасная версия и обычная версия: http / https

Решение. При переходе от обычного отображения сайта (http) к безопасному отображению (https) введите следующий код в файл htaccess (замените «домен» именем вашего сайта):

ПереписатьEngine на

RewriteCond% {SERVER_PORT}! ^ 443 $

RewriteRule ^ (. *) $ Http://www.domain.com/$1 [NC, R = 301, L]

  • У вас есть: дубликаты заголовков и описания страниц. Google предоставляет вам эти данные на серебряном блюде и поэтому ожидает, что вы что-то с этим сделаете.

Решение. Получите доступ к Инструментам Google для веб-мастеров, избавьтесь от дубликатов и во время повторного изучения оставшихся рекомендаций.

У вас есть: Внутренние страницы с параметрами. Многие сайты используют разные версии URL для отслеживания и анализа. Кроме того, существуют разные причины, по которым страницы могут получать разные URL-адреса, в то время как все ведут на одну и ту же страницу. В этих случаях Google встречает нас на полпути и предлагает простой в использовании инструмент под инструментами для веб-мастеров.

Определите параметры, которые Google будет использовать для заблаговременного определения наличия дублированного контента, и соответствующим образом обработайте указанные адреса. Вы можете найти больше на эту тему в этот пост от Google , Лучше всего заранее определить параметры, поскольку после их индексации потребуется некоторое время, прежде чем Google полностью избавится от них.

  • Поиск дублированного контента с помощью CopyScape и обращаться соответственно.
  • Сократите похожий контент, объединив похожие страницы. По возможности выбирайте более длинные, подробные страницы, которые охватывают всю тему, а не отдельные страницы для подтем. Если вы решили сделать это, используя существующие страницы контента, не забудьте установить постоянное перенаправление с отмененной страницы на обновленную страницу, которая теперь должна включать более полную информацию по теме.
  • Используйте rel = ”canonical”, когда вам нужно определить внутреннюю страницу как идентичную другой странице. Смотрите пример кода ниже:

<link href = ”http://www.example.com/canonical-version-of-page/” rel = ”canonical” />

Подробнее об этом читайте здесь ,

4. Скорость загрузки сайта

Общее описание: В глазах Google предоставление отличного пользовательского опыта является синонимом расширения доступа к информации, помогая пользователям найти именно то, что им нужно, как можно быстрее. Чем меньше времени вы проводите в каждой поисковой сессии, тем лучше. Когда дело доходит до вашего сайта, верно обратное: вам нужно как можно дольше удерживать посетителей (исключая ключевые фразы, связанные с адресами, телефонными номерами и другой краткой информацией). Скорость загрузки сайта - одна из самых важных метрик взаимодействия с пользователем. Если скорость загрузки вашего сайта средняя или медленная, вы, вероятно, платите за это более высокими показателями отказов. Google замечает это, отслеживает вас и «наказывает» вас в рейтинге.

В чем проблема? Существуют различные способы измерения пользовательского опыта, одним из которых является скорость загрузки сайта на ПК и мобильные устройства. Медленная загрузка сайта будет облагаться штрафом. Еще в 2011 году Мэтт Каттс заявил, что скорость загрузки сайта является одним из факторов, влияющих на рейтинг, и со временем мы склонны полагать, что важность этого фактора возросла. Через три года после этого заявления я могу с уверенностью сказать, что повышение скорости загрузки сайта почти всегда улучшает рейтинг.

Решение: прежде всего, оцените текущее состояние вашего сайта. Я всегда предпочитаю использовать инструменты, предоставляемые Google, поскольку они адаптированы к фактическим мерам, которые они изучают. В следующем примере используются два инструмента, чтобы получить общую оценку проблемы и решить ее.

  • PageSpeed ​​Insights Оценка сайтов в зависимости от скорости загрузки, от 0 (самый медленный) до 100 (самый быстрый). Google оценивает себя в 99, и я рекомендую стремиться к скорости загрузки сайта 70 и выше. Каждому диапазону баллов присваивается свой цвет; попытаться нацелиться на желтую область, по крайней мере.

После проведения теста вы также получите рекомендации по изменениям, которые вы можете внести на свой сайт, чтобы улучшить свой счет.

  • GTmetrix даст вам более полный обзор. Причина, по которой я использую другой инструмент в дополнение к инструменту, предоставленному Google, заключается в том, что PageSpeed ​​Insight не перечисляет все факторы, влияющие на скорость сайта, и мне нравится быть внимательным. Сосредоточьтесь на вкладке Yslow. Проведите анализ на вкладке «Хронология»:

Для расширенного анализа в реальном времени установите в своем браузере следующий плагин: http://yslow.org

Для быстрого исправления, которое меньше касается кода, начните со следующих четырех рекомендаций, а затем перегруппируйте в соответствии с результатами, полученными двумя инструментами, рекомендованными выше.

  • Оптимизируйте все изображения на вашем сайте (доступ из основного каталога изображений). Самый простой инструмент, который вы можете использовать для этого, это Yahoo! Smush.it ,
  • Включите сжатие, используя GZIP. Просто введите следующий код в ваш файл htaccess:

AddOutputFilterByType DEFLATE text / plain

AddOutputFilterByType DEFLATE text / html

AddOutputFilterByType DEFLATE text / xml

AddOutputFilterByType DEFLATE text / css

AddOutputFilterByType DEFLATE application / xml

AddOutputFilterByType DEFLATE application / xhtml + xml

AddOutputFilterByType DEFLATE application / rss + xml

AddOutputFilterByType DEFLATE application / javascript

AddOutputFilterByType DEFLATE application / x-javascript

  • Присвойте файлам даты истечения срока действия, введя следующий код в файл htaccess:

<IfModule mod_expires.c>

ExpiresActive On

ExpiresDefault «доступ плюс 1 месяц»

ExpiresByType image / x-icon «доступ плюс 1 год»

ExpiresByType image / gif «доступ плюс 1 месяц»

ExpiresByType image / png «доступ плюс 1 месяц»

ExpiresByType image / jpg «Доступ плюс 1 месяц»

ExpiresByType image / jpeg «Доступ плюс 1 месяц»

ExpiresByType text / css «Доступ 1 месяц»

Приложение ExpiresByType / javascript «доступ плюс 1 год»

</ IfModule>

Использовать CDN (контент-сеть). Эта услуга обычно предоставляется поставщиком услуг хранения вашего сайта.

5. Полная прозрачность и раскрытие вредоносных функций

Общее объяснение: Блокировка определенных файлов и элементов кода может заставить Google предположить, что нам больно. Google не может знать все о вашем сайте и не может проверять все вручную. Поэтому важно быть осторожным и не создавать искусственных предупреждающих знаков.

В чем проблема? Наличие заблокированных файлов на сайте заставляет Google ошибаться и считает наш сайт вредоносным, даже если это не было доказано манипуляцией.

Решение. Перейдите к контрольному списку, указанному ниже, и убедитесь, что вы случайно не предупреждаете.

  • Не блокируйте JS и CSS файлы на robot.txt. Google уделяет этому большое внимание. Неясно, является ли это предосторожностью, так как спаммеры используют эти файлы для различных манипуляций с контентом, или это происходит потому, что роботы-обходчики видят сломанную / отсутствующую страницу, поскольку код для них недоступен:

    Будьте осторожны, чтобы не блокировать файлы шаблонов (которые, кстати, также блокируют JS и CSS). Многие считают, что это распространенная ошибка, которая помогает Google переходить к файлам контента, а не к файлам кода, но это просто неправильно. Владельцы сайтов WordPress могут и должны блокировать каталог плагинов.

  • Хотя Google может только расшифровать («читать») текст, присутствие изображений также важно. Не избавляйте Google от сканирования вашего каталога изображений. Блокировка этого каталога сделает все ваши файлы изображений неиндексированными, что, в свою очередь, уменьшит объем контента, классифицируемого на вашем сайте. Нет прямых доказательств, указывающих на это влияющее на рейтинг, но это должно привести к увеличению входящего трафика благодаря результатам поиска изображений Google. Если нет никаких оснований для блокировки медиафайлов, я настоятельно рекомендую это сделать.
  • Избегайте блокировки вашего RSS-канала. Это важный источник информации для Google (и для вас, в зависимости от того, как вы на это смотрите), даже больше, чем карта вашего сайта.
  • Раз в месяц я рекомендую проверять список поисковых запросов в Инструментах Google для веб-мастеров. Там вы сможете увидеть трафик, который ваш сайт получает по ключевым словам, которые не имеют никакого отношения к вашему сайту. Убедитесь, что ваш сайт получает трафик только из поисковых запросов, связанных с вашей сферой деятельности. Слова, которые должны поднять красный флаг, относятся к контенту для взрослых, медикаментам и кредитам (при условии, что ваш сайт не имеет отношения к этим темам). Проверяя это, вы сможете с большей уверенностью определить, был ли ваш сайт взломан и вставлен ли страницами, использующими его преимущества в целях SEO.
  • Проверьте Инструменты Google для веб-мастеров на вкладке Вопросы безопасности.
  • Используйте сканирующий инструмент, по крайней мере, один раз в месяц. Подпишитесь на эти платные услуги, если вы хотите проверять ежедневно:

Sucuri SiteCheck

SiteLock

  • Проверьте свой код! Поиск подозрительных, автоматически сгенерированных кодов с помощью вышеуказанных инструментов. Я рекомендую выполнить следующие ручные поиски:

Функция <script>, за которой следует длинное число

текстовый отступ: за ним следует число больше 300 или меньше -300

hxxp: // сопровождаемый URL

hxxp: // сопровождаемый URL

Выполнение межсайтового поиска можно проводить с помощью DreamWeaver или аналогичного программного обеспечения. Перед этим не забудьте создать резервную копию всего сайта в локальном каталоге, что в идеале следует выполнять каждые несколько недель (в дополнение к услугам резервного копирования, предоставляемым хранилищем вашего сайта). ПРИМЕЧАНИЕ. Относитесь серьезно к каждому подозрительному результату, но не спешите с выводом, что вы имеете дело с вредоносным кодом.

Проверьте ваши ссылки и куда они ведут. Используйте следующий инструмент на всех наиболее важных страницах вашего сайта: Снимите маску с паразитов

6. Неработающие ссылки и переработка потерянных URL

Общее объяснение: Текущее обслуживание включает в себя периодическое сканирование, чтобы обеспечить оптимальное взаимодействие с пользователем. Google понимает динамику интернета и хорошо знает о незавершенности, которая характерна почти для каждого сайта. Следовательно, нет опасности получить штраф из-за нескольких неработающих ссылок, но вы обязательно должны что-то с ними сделать, если они настолько распространены, что отправляют сообщение о пренебрежении. Точного числа нет, но если вы имеете дело с сотнями неработающих ссылок, появляющихся в Инструментах Google для веб-мастеров, или если вы постоянно сталкиваетесь с проблемами сканирования, а не с уменьшением, это вызывает беспокойство. Опять же, я рекомендую использовать данные, предоставленные Google, чтобы попытаться восстановить естественный баланс.

В чем проблема: Неработающие ссылки портят пользовательский опыт, а в крайних случаях могут указывать на пренебрежение сайтом. При наличии неработающих ссылок мы теряем накопленную силу и в результате общая прочность сайта нарушается. Как правило, когда мы видим, что сила ослаблена, это происходит из-за потерянных адресов.

Решение: Есть два этапа решения этой проблемы.

  1. Запустите тест Xenu Link Sleuth и исправьте все неработающие ссылки, которые вы найдете.
  2. Обработайте потерянные адреса, найдя неверный список адресов в Инструментах Google для веб-мастеров и экспортировав данные в файл CSV.

Сохраните только столбец URL и удалите все остальные. Важно знать, что, несмотря на неправильные адреса, некоторые из них все еще могут иметь ценность, которую вы должны стремиться сохранить. Если вы никогда не выполняли этот процесс раньше, возможно, что количество URL-адресов в файле достигает сотен и даже тысяч. Это может показаться пугающим и разочаровывающим, но если вы стараетесь поддерживать это периодически, это не должно занимать более нескольких минут на постоянной основе.

Теперь найдите ценные URL-адреса в списке. Удалите URL-адреса, которые были исправлены на первом этапе. Теперь выделите все URL-адреса, которые, как вы знаете, являются ценными из опыта (возможно, популярные старые посты / страницы, которые вы решили удалить по какой-то причине), и проверьте пиар и социальную силу, как показано в шаге 2. Обозначьте все результаты, у которых PR составляет 1 и и те, у кого высокий социальный сигнал (определите минимум на основе данных).

Теперь найдите замену для каждой неработающей ссылки и напишите код перенаправления в соответствии со следующим шаблоном:

Redirect 301 / old -url.php http://www.website-name.com/ new -url.php

Теперь у вас есть список всех ценных потерянных адресов вместе с постоянным перенаправлением на новый URL. Скопируйте этот список и вставьте его в htaccess.

7. Исправление ошибок и удаление лишнего кода

Общее объяснение: ошибки в коде, а также лишний код могут задерживать сканирование и означать, что сайт не поддерживается. Как и неработающие ссылки, ошибки в коде являются до некоторой степени обычными и естественными. В большинстве случаев количество ошибок отражает не уровень обслуживания, а типы ошибок и глубину их воздействия. Вполне возможно, что в вашем коде 100 ошибок, которые не требуют особого внимания, хотя одна критическая ошибка может иметь разрушительные последствия.

В чем проблема? Любой сайт, который существует уже несколько лет, обычно страдает от завышенного кода, заполненного лишними строками и ошибками. Это может привести к нестабильности и неэффективности, и сигнализировать Google о том, что сайт не поддерживается регулярно.

Решение: опять же, необходимо двухфазное решение.

  1. Исправьте ошибки в коде, используя либо http://validator.w3.org/ или же http://jigsaw.w3.org/css-validator
  2. Удалите лишний код (сделайте резервную копию кода перед началом работы):
  • Удалите неиспользуемые коды отслеживания, например дубликаты кодов Google Analytics / WMT.
  • Удалите все коды, которые не используются (закомментировано)
  • Удалите все положительные коды, которые вы не используете.
  • Удалите тэг мета-ключевых слов
  • Удалите неиспользуемые комментарии (не удаляйте комментарии, которые помогают понять изменения в коде)

8. Скрытый семантический индекс и необходимые ключевые слова

Общее объяснение: Мы не можем не обсуждать ключевые слова, но на этот раз я хотел бы подойти к предмету под другим углом зрения, а именно, расположение ключевых слов в ключевых местах, а также использование LSI (скрытого семантического индекса) являются важными меры, чтобы гарантировать, что вы получаете полный кредит для вашего контента.

LSI: профессионалы SEO, авторы контента и веб-дизайнеры часто используют LSI при написании контента, чтобы обогатить свой контент словами и фразами, которые имеют отношение к предмету, например, используя синонимы и связанный контент. Например:

Синонимы для « экономичный » = недорогой, дешевый, экономичный

Связанный с предметом « Собака » = порода, фунт, имена, усыновление, охотник за головами

У большинства из нас нет психологических знаний, но Google вкладывает огромные ресурсы в расшифровку поведения пользователей, чтобы получить лучшие результаты поиска. Понимая, как пользователи естественным образом сканируют и дешифруют страницу, Google может еще больше улучшить свой алгоритм. Зная об этом процессе, мы можем оптимизировать наш контент, чтобы соответствовать этому естественному поведению пользователей и алгоритму Google.

В чем проблема? Целевые страницы с плохим содержанием или страницы с неправильно структурированным контентом обычно имеют низкий рейтинг.

Решение: Наша цель - естественное обогащение предлагаемого контента и польза для пользователя. Для этого нам нужно обратиться к содержанию на самой странице. После того, как вы выбрали страницу для фокусировки, запишите ключевые слова, на которые вы хотите настроить таргетинг:

Для каждого выбранного вами ключевого слова или фразы запишите синонимы и связанные ключевые слова . Синонимы доступны в любом тезаурусе; связанные ключевые слова можно найти через Google. Введите слово, нажмите пробел, а затем рассмотрите предложенные Google поисковые запросы.

Это отличный инструмент для использования , Если после этого вы все еще не нашли то, что искали, нажмите «Поиск» и прокрутите весь путь вниз до первой страницы, где вы найдете раздел, показывающий связанные поиски.

Как только файл Excel будет готов, внесите изменения в текст и убедитесь, что столько слов из вашего списка появится на целевой странице, естественно . Будьте внимательны, чтобы не выходить за границы здесь, так как неестественный контент был в центре внимания Google в последние годы. Цель состоит в том, чтобы улучшить уровень и качество освещения этой конкретной темы. Избегайте наполнения ключевыми словами, которое почти всегда подвергает сайт риску наказания.

Еда на вынос

Приведенные выше советы помогут вам лучше оптимизировать аспекты вашего сайта, после того как вы позаботитесь об основных факторах на странице, с которыми вы все должны быть относительно знакомы. Тем не менее, обратите внимание, что ни один сайт не был «закончен» - обслуживание должно быть постоянным и частым. Исходя из опыта, мы должны стремиться расставлять приоритеты на страницах задач и сосредоточиться на тех, которые дают лучшие результаты. Удачи, и приступай к работе!

Есть еще советы экспертов? Отключить звук в комментариях!

Кредиты изображений

Популярное изображение: Креативные изображения через Shutterstock
Изображение № 1: Алиса-фото через Shutterstock