Archive for Январь, 2007

Стоит ли использовать МЕТА-теги в поисковой оптимизации?

Мне приходится иметь дело со многими вопросами от любознательных владельцев веб-сайтой практически каждый день. Но только на один вопрос “Стоит ли использовать МЕТА-теги на своем сайте при его оптимизации?” я имею новый ответ. Старый ответ: “Хуже от этого не будет, но стоит о них волноваться, так как поисковые серверы в основном игнорируют их”. Но где же новый ответ? Читаем дальше… Действительно ли стоит использовать МЕТА-теги? Правда?

Новый ответ - да, вы должны использовать МЕТА-теги на вашем сайте. МЕТА-тег keywords все еще не используется поисковыми серверами, но при регистрации сайта в каталогах, между прочим, полезное использование времени, мета ключевые слова используется в большинстве случаев для автоматического заполнения ключевых слов для вашего сайта в том каталоге.

Еще более удивительно, МЕТА-тег description описания воспарил по важности. Как так, спросите вы? Google решил показывать мета-описание сайта в его результатах поиска, когда соблюдены определенные критерии.

Используемые критерии, кажется, очень простые, в отличие от многих из других вещей, которые делает Google. Когда ключевое слово или искомый термин появляются в мета-описании, то это описание используется вместо отрывка текста (снипет, пр. переводчика), содержащего ключевое слово на вашей странице.

Например, если вы ищете “Big Oak SEO”, то увидите наш сайт в ТОП 10, а используемое описание - наш МЕТА-тэг description. Все три слова, которые вы искали, также находятся в нашем мета-описании.

Если же вы будете искать “client of Big Oak”, то в первом списке результатов поиска вы увидите снипет, который будет “вытянут” из самой страница. Так как слово “клиент” не находится в нашем мета-описании, то используется снипет с текстом страницы, где все эти три слова могут быть найдены.

Read the rest of this entry »

Как избежать повторяющегося контента с помощью файла robots.txt и META-тегов

Повторяющееся содержание одна из проблем с который мы постоянно сталкиваемся, предлагая услуги по поисковой оптимизации. Если поисковые системы определяют, что ваш сайт содержит похожий контент, то это может стать причиной его пенализации или даже исключения из индекса. К счастью, это проблема легко решаема.

Ваше самое главное оружие против повторяющегося контента может быть найдено в “протоколе исключений для поисковых роботов”, который в данный момент адаптирован для всех основных поисковиков.

Существует два пути контролирования поисковых роботов, индексирующих ваш сайт.

1. Файл исключения роботов или robots.txt и
2. Robots

<META>

тэг

Файл исключения роботов (robots.txt)

Это самый обычный текстовый файл, созданный в Notepad. Созданный файл вы должны выгрузить в корневую директорию вашего сайта, т.е. www.yourwebsite.com/robots.txt. Перед тем, как поисковые боты индексируют ваш сайт они ищут этот файл, который сообщает им как именно индексировать содержимое сайта.

Использование файла robots.txt наиболее подходит для статических сайтов или для исключения каких-то определенных страниц динамических сайтов. Если страницы вашего сайта в большинстве своем создаются динамически, то рассмотрите использование <META>-тега robots.

Создание вашего файла robots.txt

1-й сценарий

Если вы хотите создать один файл для роботов всех поисковых систем, чтобы они полностью индексировали ваш сайт, то файл robots.txt должен содержать следующие инструкции:

User-agent: *
Disallow:

Read the rest of this entry »

Карты сайтов Google Sitemaps для поисковой оптимизации

Небольшое введение: карты сайтов Google в конечном счете полезный инструмент. Когда Google запустил свои карты сайтов (sitemaps, прим. переводчика) в июле 2005-го, было предположение, что это либо колоссальный успех, либа большая ошибка. До настоящего момента карты сайтов выглядели как колоссальный провал. Просто данная система не давала должной выгоды владельцам веб-сайтов, соизмеримой с количество труда, потраченного на встраивание и поддержку XML-карт сайтов.

Но как оказалось эти самые карты сайтов Google собираются обрести новую жизнь. Google проапгрейдил свои карты и они стали мощнее, чем были раньше. Sitemaps - это уже не просто инструмент, который используется для индексации ваших веб-сайтов. Теперь это полезный инструмент для быстрого нахождения проблем на вашем сайте, которые могут оказывать вредное влияние на позицию сайта в выдаче или индексацию.

Что такое карты сайтов Google

Если вы уже знаете, что такое карты сайтов, то прошу меня извинить за быстрое объяснение тем, кто еще не знаком с это системой.

Карты сайтов - это инструмент, предоставляемый Google, для полной индексации веб-сайтов, а также для поддержки обновления этих сайтов, что облегчило бы работу для поисковых машин. Помещая список всех страниц на самом сайте наряду с теми страницами, которые были недавно обновлены, в отдельный XML-файл дает возможность проиндексировать их в базе Google быстрее и эффективнее.

Read the rest of this entry »