Распространенные ошибки при продвижении сайтов

Привет! При создании нового проекта, мы, безусловно, рассчитываем на то, что его будут посещать люди. Однако сколько бы мануалов по продвижению мы не прочитали, сколько курсов не пересмотрели, ошибки все равно преследуют нас. Поисковое продвижение – очень нестабильная штука. С каждым годом поисковые системы совершенствуют свои алгоритмы, выпускают новые фильтры и все жестче прижимают оптимизаторов.

Многая информация написанная на сео-блогах уже потеряла актуальность, поэтому ошибок в продвижении избежать не получиться. В сегодняшней статье я хотел бы предостеречь Вас от самых распространенных ошибок в продвижении сайтов, которые допускают многие начинающие блоггеры и оптимизаторы.

Неправильное семантическое ядро

Многие люди при создании сайта вообще игнорируют этот пункт! Поймите, от того как правильно Вы составите семантическое ядро, будет зависеть дальнейшее продвижение проекта. Семантическое ядро – это подбор ключевых слов, которые максимально соответствуют Вашему сайту. Если слова подобраны неправильно, то Вы рискуете остаться без целевой аудитории, а для коммерческих проектов такая оплошность грозит сливом рекламного бюджета в трубу. Поэтому, сразу после создания сайта советую отложить в сторону свои контакты, игрушки, фильмы и уделить пару часов на это дело. Новичкам очень поможет мой мануал – составление семантического ядра.

Некачественный контент сайта

От того как Вы пишите статьи зависит очень многое. Во-первых, при создании качественного ПОЛЕЗНОГО материала посетители начнут доверять Вам, а доверие залог успеха в любом начинании. Во-вторых, при частом обновлении контента, поисковые роботы будут чаще заходить на сайт, а значит ускориться индексация и будут повышаться позиции в поиске. На блогах Рунета часто можно встретить некую классификацию контента – для людей и для поисковиков, и зачастую на этих же блогах твердят: “пишите для людей”, “просто пишите, а посетители сами придут” и т.д. Как они сами придут? С неба что ли сваляться? Я считаю, что нужно давать людям качественный интересный материал, но в тоже время его нужно оптимизировать под нужные ключевые слова, только так можно достичь какого-то результата. Кстати, вот статья о том, как оптимизировать статьи. Не бойтесь проводить оптимизацию, главное делайте так, чтобы и посетителю было приятно читать, и поисковые роботы обращали на текст внимание.

Отдельная тема – воровство контента. Во-первых, в последнее время поисковики направляют свои алгоритмы на борьбу с копипастом, поэтому продвигаться с ворованным материалом будет ой как не просто, скорее всего, на сайт будет наложен фильтр. Во-вторых, воров в Рунете не любят, и в лучшем случае Вы потеряете доверие посетителей, а в худшем – сайт, достаточно одного письма хостеру. Если не можете писать самостоятельно, делайте рерайт (переписывайте своими словами), также, если позволяет бюджет, можно заказывать статьи на специальных биржах (Адвего, Texsale) или переводить заграничные посты. Главное не воруйте!

Из всего вышесказанного можно составить следующую формулу: уникальность + качество и полезность материала + оптимизация под ключевые слова = классный контент, доверие посетителей, рост позиций.

Неправильная работа с мета тегами

Начать стоит с тега title. Title – это заголовок страницы Вашего сайта, которому поисковики уделяют очень большое внимание. Самой главной ошибкой при его составлении является поисковый спам, когда используется большое количество ключевых слов. Вот, например, как выглядит спам в title по ключевому запросу “купить телевизоры”:

Купить телевизоры, купить телевизоры в Москве, купить телевизоры дешево

Такие заголовки выглядят неестественно и уже давно перестали работать, кроме того, спам в title может стать одной из причин попадания под АГС, поэтому аккуратней!

Правильный тайтл должен включать в себя одно два ключевых слов и при этом оставаться читабельным и естественным, ведь вероятность того что человек перейдет на сайт, заголовок которого состоит из необъяснимого набора букв очень мала. Кроме всего прочего, заголовок должен соответствовать содержимому страницы, ведь если человек зайдя на сайт не увидит того что искал, он сразу покинет страницу, а это будет считаться показателем отказов, что несомненно скажется на продвижении.

Далее идут теги «h1» — «h6». Они нужны для того, чтобы разбивать текст на заголовки. При использовании этих тегов, важно не нарушать их логическую цепочку, т.е. сначала на странице должен размещаться тег H1, затем H2, H3 и т.д. Тег H1 является самым важным в этой цепочке, словам, которые заключены в нем, поисковики придают наибольший вес. В идеале этот тег должен встречаться на странице только один раз.

Стоит уделить внимание тегу H2, я его использую для составления подзаголовков. Словам, которые заключены в этом теге, поисковики также уделяют внимание, поэтому советую перед написанием статьи, продумать какие ключи будете вставлять в заголовок. Но на этом моменте многие новички спотыкаются, выделяя h2 все что ни попадя. Запомните, чем больше h2 использовано на странице, тем меньше его значимость для поиска, так что не злоупотребляем!

Дубли страниц

Дубли – это одна из причин, почему не растут позиции в поиске. Возникают дубли в основном из-за структуры CMS, на которой базируется Ваш сайт. Также одной из причин возникновения дублей может быть неправильно составленный файл robots.txt, но этот момент мы затронем чуть позже. Кстати, большое количество дублированных страниц является одной из причин низкого трафика по Google, так как эта поисковая система относится к этому недочету более критично.

Для проверки дублей мы будем использовать сервис Google Webmaster.  Зайдите в свой аккаунт на webmaster’е, выберите свой сайт, откройте раздел “оптимизация”, пункт “оптимизация html”:

Здесь Вы увидите количество одинаковых title, развернув строчку “повторяющийся описания” можно увидеть дублированные страницы.

После нахождения дублей, удаляем их, проставив тег rel=”canonical”, для этого достаточно отметить галочкой соответствующий пункт в плагине All in One Seo Pack.

Советую прямо сейчас взяться за выявление данной проблемы, и после ее устранения, я уверен, что трафик из Google резко увеличиться.

Ранняя закупка ссылок

Массовая ошибка начинающих блоггеров и оптимизаторов! В погоне за посещаемостью люди сразу после создания сайта начинают закупать огромное количество ссылок, делая ставку на быструю раскрутку проекта. Поймите, что такой метод продвижения не работает уже больше года! Когда на молодой сайт начинают резко закупать огромное количество ссылок, возрастает риск “ссылочного взрыва”, за что следует попадание в бан.

Ссылки нужно закупать постепенно, анкоры делать как можно естественнее и для покупки отбирать только площадки схожей тематики. Рекомендую прочесть статью — правильная закупка ссылок.

Неправильная настройка системных файлов

В этом разделе я бы хотел выделить два момента, в которых новички допускают серьезные ошибки: неверная настройка файла robots.txt, сайт доступен с www и без www.

Robots

После создания сайта многие новички забывают про настройку файла robots.txt. Этот файл говорит поисковому роботу что нужно индексировать, а что нет. Дело в том, что на индексацию сайта отводиться определенное количество времени, и будет нехорошо, если это время будет тратиться на индексацию системных папок (которые впоследствии все равно выпадут из индекса) а не контента. Кроме индексации, настройка robots позволит Вам избавиться от дублей страниц, о которых шла речь несколькими пунктами ранее.

Вот какой robots использую я на этом блоге, меня все устраивает:

User-agent: *
Disallow: /wp-admin
Disallow: /navigator
Disallow: /navigator/
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /xmlrpc.php
Disallow: /wp-content/uploads
Disallow: /wp-content/themes
Disallow: /trackback/
Disallow: /tag/
Disallow: /feed/
Disallow: */*/feed/*/
Disallow: */feed
Disallow: */*/feed
Disallow: /*?*
Disallow: /?feed=
Disallow: /?s=
 
User-agent: Yandex
Disallow: /wp-admin
Disallow: /navigator
Disallow: /navigator/
Disallow: /wp-includes
Disallow: /xmlrpc.php
Disallow: /wp-content/uploads
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback/
Disallow: /tag/
Disallow: /feed/
Disallow: */*/feed/*/
Disallow: */feed
Disallow: */*/feed
Disallow: /?feed=
Disallow: /*?*
Disallow: /?s=
Host: life-webmaster.ru
Sitemap: http://life-webmaster.ru/sitemap.xml
Sitemap: http://life-webmaster.ru/sitemap.xml.gz

Давайте разберемся с некоторыми моментами. Директива Disallow – она запрещает индексацию файлов, страниц, папок и т.д. Директива User Agent – указывает обращение к какой либо поисковой системе. Например, если мы хотим обратиться к Яндексу, то в файле нужно прописать  User Agent:  Yandex. Также существует директива Allow – она в отличие от disallow, разрешает индексацию. Host – указывает по какому адресу доступен сайт. Sitemap – указывает на xml карту для поиска.

При составлении robots, можно проанализировать файлы других сайтов, прописав в адресной строке sayt.ru/robots.txt

Доступ с www и без www

Очень распространенная ошибка, которая существенно мешает продвижению. Проблема заключается в том, что поисковики считают сайты www.sayt.ru и sayt.ru совершенно разными и это приводит к самым разным неприятностям: дубли страниц, разделение ссылочной массы, показателей и т.д. Для того чтобы настроить перенаправление с www на без www в файле .htaccess пропишите следующую команду:

Options +FollowSymLinks
 RewriteEngine On
 RewriteCond %{HTTP_HOST} ^www.domain\.com$ [NC]
 RewriteRule ^(.*)$ http://domain.com/$1 [R=301,L]

Для перенаправления с без www на с www, в том же файле пропишите следующее:

Options +FollowSymLinks
 RewriteEngine On
 RewriteCond %{HTTP_HOST} ^domain\.com$ [NC]
 RewriteRule ^(.*)$ http://www.domain.com/$1 [R=301,L]

Медленный сайт

Даже если на Вашем сайте собрано много полезной информации, но его страницы грузятся медленно, половину посетителей  Вы будете терять точно. Ведь в нашей стране еще не у всех есть скоростной интернет, и не каждому захочется ждать пока страница подгрузится. Кроме того,  при прочих равных условиях, выше в поисковой выдаче будет тот сайт, чьи страницы грузятся быстрее.

Способов ускорения сайта существует много, и я вскоре напишу об этом на своем блоге, подписывайтесь на обновления!

Использование черных методов продвижения

Как известно конкуренция в Рунете становиться все жестче, продвигать сайты становиться все сложнее, и как ни странно некоторые оптимизаторы изобрели собственные, черные методы продвижения, благодаря которым можно достичь результатов в несколько раз быстрее разрешенных. Однако поисковые системы серьезно борются с такими сайтами и при выявлении черного SEO сразу исключают сайт из индекса.  Если Вы хотите достичь хороших, а главное стабильных результатов в продвижении, то использовать необходимо только разрешенные методы раскрутки. К черным методам относятся:

  • Невидимый текст. Текст, который сливается с цветом фона
  • Клоакинг. Тот случай, когда пользователю и поисковику подается разная информация. Как правило, поисковой машине дается текст напичканный нужными ключевыми словами, а пользователю нормальная читабельная статья.
  • Ссылочный спам. Обмен или покупка ссылок с сайтами не по тематике.
  • Свопинг. Сайт раскручивается по нужным ключевым словам, а после достижения высоких позиций происходит резкая смена его содержимого.
  • Дорвеи. Страницы, которые собирают поисковый трафик и перенаправляют его на нужный сайт.

Вот все основные ошибки, которым я хотел уделить внимание. Помните, не ошибается тот, кто ничего не делает!

Подписывайтесь на обновления блога, чтобы не пропустить выход новых статей. Буду крайне признателен за нажатие на соц. Кнопки.

Звёзд: 1Звёзд: 2Звёзд: 3Звёзд: 4Звёзд: 5 (2 оценок, среднее: 5,00 из 5)
Загрузка...
Ваш комментарий

  1. Петр Балашов:

    Какая интересная статья. Я не понимаю, почему люди занимаются кинотеатрами, а не учатся в первую очередь правильной работе над сайтом. Для меня важным является именно устранение страниц с одинаковыми title. Никак не могу найти ответ на этот вопрос.

    • Александр Василенко:

      Мой первый сайт тоже был с мультиками советских времен, почти ничего не делал а посещаемость была около тысячи. Просто кино сайт продвигать очень просто, поэтому, все начинают с них. Также не нужно большого количества контента, одна картинка, два абзаца текста и видео — все, статья готова.

  2. Антон:

    Коли пошел разговор об одинаковых тайтлах… У меня музыкальный сайт. Лично я решаю эту проблему следующим образом: я подставляю в них ID песни или номер текущей страницы. Правильно я делаю, или так нельзя?
    Спасибо!)

  3. Baby-Center:

    Добрый вечер! Я нашел ваш портал при помощи
    msn… Я добавил его в избранное, чтобы вернуться, и увидеть еще больше качественного материала…
    С благодарностью)