Архив рубрики: SEO

поисковая оптимизация и продвижение сайтов

Позиции магазина ДомСпорт в Яндекс

Прошло уже полгода с момента открытия интернет-магазина детских спортивных комплексов ДомСпорт и интересно какие позиции в Яндексе он стал занимать.

Сделал сегодня проверку в Яндексе по основному семантическому ядру магазина. В итоге около полусотни запросов уже вижу в топ3 (на первых строчках) результатов поиска.

domsport_top3_14102014В принципе неплохо, учитывая что бюджета на рекламу и серьезное продвижение не было, и продвигал сайт я без помощников.

Теперь пора подключать партнёрки и можно совсем убирать контекст в Пензе.

Поведенческие факторы

Ну что ж, вот уже и можно сделать определенные выводы о важности и влиянии поведенческих факторов. По своим экспериментам, а также из общения с коллегами, я сделал вывод что эти факторы работают, но пока не являются приоритетными при ранжировании сайтов в выдаче. Отсюда вывод: стараемся делать сайты как можно удобнее для пользователей, причем во всех отношениях — структура, дизайн, сервисы на сайте.

Еще один вопрос, который возник наверное не только у меня — можно ли накручивать поведенческие факторы?

На этот вопрос ответили сотрудники Яндекса в своем блоге:

«В последнее время мы видим попытки повлиять на
поисковую систему путем эмуляции действий пользователей. Чаще всего это происходит с помощью программ,
которые задают запросы в поисковую систему и потом переходят на определенные сайты, но известны и другие
способы. Все они — обман, не имеющий ничего общего с настоящей оптимизацией сайта. Кроме того, создание
подобных систем накрутки способствует развитию бот-сетей, которые могут быть использованы для DDoS-атак,
распространения вредоносного ПО, рассылки спама. Яндекс настоятельно рекомендует владельцам сайтов, веб-мастерам и компаниям, предоставляющим услуги в области SEO, воздержаться от использования этого и других методов псевдооптимизации. Они бесперспективны и могут привести к потере вашим сайтом репутации и позиций в результатах поиска».

Но Яндекс не ограничился предупреждением. На сайты ряда SEO-компаний и продвигаемых ими клиентов был наложен
фильтр, из-за которого эти сайты практически невозможно было найти в поисковой выдаче.

И это только начало! Полагаю что и дальше будет усложняться быстрыми темпами алгоритм Яндекса, в том числе в области оценки поведенческих факторов.

Вывод: накручивать ПФ можно (не зря же появилась целая коллекция соотвествующих программ и сервисов, типа юзераторов и пр.), но категорически НЕ НУЖНО!

Яндекс начинает учитывать юзабилити сайтов

5 октября на блоге команды Яндекса появился пост о том что теперь поисковые алгоритмы Яндекса будут учитывать факторы юзабилити сайтов, что повлияет на их ранжирование в результатах поиска:

Качество сайта во многом зависит от его удобства в использовании, называемом также «юзабилити» (от англ. usability). Чем удобнее сайт, тем быстрее и проще посетитель может достичь своей цели — например, найти нужную ему информацию или сделать заказ. Неудобный сайт пользователи быстро покидают в поисках более качественных ресурсов с аналогичным содержанием.

Основные проблемы юзабилити сайтов — это отсутствие хорошей навигации, сложная или запутанная структура, неудачное расположение элементов сайта, неуместное использование рекламы. Чтобы пользователи поиска могли легко получить ответ на свой вопрос, мы начинаем учитывать при ранжировании сайтов их удобство.

В качестве первого шага мы научили поиск определять, мешает ли пользователям реклама на сайте или, наоборот, дополняет его содержание. Формула ранжирования пополнилась ещё несколькими факторами. Теперь она учитывает, например, затрудняет ли реклама доступ к основному контенту, перекрывает ли она текст, остаётся ли сайт с такой рекламой популярным. И ресурсы, на которых реклама используется уместно, оказываются в результатах поиска выше, чем сайты, на которых реклама мешает пользователям.

Чтобы вашим сайтом было удобно пользоваться, нужно обратить внимание на несколько важных моментов. Прежде всего, у сайта должна быть логичная структура, понятная система навигации и интерфейс. Основное место на сайте нужно отвести той информации, ради которой он и был создан. Реклама не должна мешать воспринимать содержание сайта, её роль – дополнять основной контент. Лучше отказаться от всплывающих окон или использовать их так, чтобы посетитель мог быстро их закрыть. Если ваш сайт будет удобным, пользователи оценят его по достоинству и будут возвращаться на него снова и снова.

С одной стороны, конечно это стимул для вебмастеров делать более качественные и продуманные сайты с понятной структурой и удобной навигацией.

С другой стороны, не совсем понятно как будут определяться «более удобные» сайты. Например, цитата: «Чем удобнее сайт, тем быстрее и проще посетитель может достичь своей цели — например, найти нужную ему информацию или сделать заказ» и «Неудобный сайт пользователи быстро покидают в поисках более качественных ресурсов с аналогичным содержанием»

Пользователи могут и в том и в другом случае быстро покинуть сайт — в первом потому что сразу нашли что им нужно, во втором — потому что сразу поняли что сайт некачественный и не вызывает доверия.

Причем, далеко не всегда нахождение нужной информации приводит к каким то действиям на сайте — пользователь может воспользоваться информацией в оффлайне.

Пока же можно только порекомендовать вебмастерам и владельцам сайтов аккуратнее размещать рекламу на сайтах, делая ее менее навязчивой, особенно это касается рич-медиа рекламы. И будем продолжать следить за новостями о влиянии юзабилити — факторов ранжирования. В любом случае, пока рано делать выводы и какие либо резкие изменения в работе над SEO.

Трастовость сайта: что это такое и с чем ее едят

Трастовость, траст, Trust Rank, TrustRank, показатель доверия – это один из факторов ранжирования поисковых систем. Он есть, он работает, он важен, но представители поисковиков предпочитают говорить, что в качестве количественного значения для каждого отдельного сайта Trust Rank не высчитывается. Но это неважно: раз эксперименты показывают, что траст – вещь реальная, то его необходимо учитывать и использовать в поисковом продвижении.

Что такое TrustRank?

Впервые термин прозвучал в 2004 году в работе Золтана Gyöngyi (остережемся от попыток транскрибировать фамилию), Гектора Гарсии-Молина и Яна Педерсена «Борьба с веб-спамом с помощью TrustRank». Это совместный труд сотрудников Yahoo! и Стэнфордского университета. Суть очень проста:

1. PageRank и аналогичные методы расчета авторитетности, «веса» веб-страниц основываются на расчете ссылочных связей между документами с изначально нулевой авторитетностью. Это порождает глобальный недостаток – легкий способ манипулирования авторитетностью: достаточно создать и грамотно перелинковать множество бесполезных, «нулевых» сайтов с псевдоуникальным контентом (так называемых сателлитов), как конечные реципиенты «веса» по волшебству станут весьма авторитетными ресурсами.

2. TrustRank призван победить взаимную накрутку. Специфический «вес» (его обычно как раз и называют «трастом») передается точно так же, как и обычный PageRank и аналоги – через ссылки. Но его источником могут быть только реально известные, популярные, серьезные, проверенные вручную сайты. Если в ранжировании принимает участие TrustRank, оптимизаторам придется создавать интересный контент и делать сайты для людей, чтобы получать траст с изначально трастовых сайтов. Существует также гипотеза о том, что Trust Rank бывает и отрицательным: то есть купленная ссылка с очень плохого сайта может и навредить, принести «вычитание» траста. Однако эксперименты пока не дают статистически достоверного подтверждения этой теории.

Конечно, это лишь несколько усложняет, но никоим образом не упраздняет продвижение сайта путем влияния на ссылочное ранжирование. Дело в том, что траст является, скорее, ограничивающим фактором – без наличия некоторой степени трастовости в ТОП по высококонкурентным запросам выйти нельзя. Но совсем не нужно добиваться траста, сравнимого с таковым у Wikipedia. Понятно, что если бы это было необходимо, то выдача поисковиков быстро бы опустела – точнее, наполнилась ниже 2-4 позиции случайными и нерелевантными результатами (так как траста на всех точно не хватило бы).

Итак, вот формула успеха современного поискового продвижения: хороший уникальный контент, качественная внутренняя оптимизация, приближенная к естественной (разнородная, стабильная, тематическая) входящая ссылочная масса и немного траста для запуска всего этого алхимического процесса.

Обратите внимание, что траст сайтов определяется не только вручную (для этого в поисковиках есть отделы специальных модераторов-асессоров), но и автоматически – на основании факторов качественности ресурса. Их мы перечислим ниже. Таким образом, существует либо два типа траста («супертраст» отобранных асессорами Яндекса ресурсов типа Wikipedia, которым вообще не нужна ссылочная масса – достаточно статьи с одним-двумя упоминаниями ключевого слова для попадания по нему в ТОП; и обычный, назначаемый автоматически траст качественных сайтов). Либо просто автоматически может быть назначен совсем невысокий траст, а поставленное вручную значение может быть на порядки большим.

Как и показатель тИЦ, Trust Rank рассчитывается для домена в целом.

Как увеличить траст?

Один из главнейших вопросов SEO в России звучит так: «Как увеличить тИЦ?» В последние годы к нему добавился не менее животрепещущий, но уже по поводу траста. И это действительно возможно! Процесс получения определенного (пусть и невысокого, но достаточного для продвижения по любым запросам уровня траста) делится на два этапа:

1. Внутренняя оптимизация сайта и контента – возможно, позволяет получить некоторый уровень траста автоматически и закрывает «дырки», через которые может «утечь» внешний траст.

2. Покупка ссылок с трастовых сайтов – позволяет довести траст до уровня, при котором наращивание объема обычной покупной ссылочной массы будет приносить максимальный эффект.

Работа с сайтом

Не существует полного перечня факторов, влияющих на «мнение» поисковика по поводу уровня доверия к сайту. Также следует понимать, что алгоритм расчета траста меняется постоянно: сегодня более важны один параметры, а завтра – другие (особенно процесс изменений ускорился с введением в алгоритмы Яндекса системы машинного обучения МатриксНет). Однако наиболее важные все же были выявлены в ходе экспериментов – обратите внимание, что многие пересекаются с критериями расчета PR, тИЦ и вИЦ. А это подтверждает, что в современных алгоритмах ранжирования все показатели в какой-то степени взаимосвязаны. Вывод прост – качественный сайт сможет легко получить «высокую оценку» поисковика, а некачественный вывести в ТОП всегда сложнее (да и незачем). Итак, самые важные факторы:

1. Уникальность контента и его тематическое единство – очень важные факторы для определения траста. Сайту с заимствованным контентом никогда не будет присвоен высокий уровень доверия. Также важно, чтобы сайт содержал сквозной семантический кластер, то есть чтобы все тексты были объединены тематикой. Если сайт содержит статьи о микроэлектронике и выращивании брюквы, высокий траст ему могут присвоить только вручную, но это вряд ли произойдет (исключения – энциклопедические ресурсы типа той же Wikipedia). Кстати, очень важно иметь страницу с подробной контактной информацией, страницу с данными о компании и прочие сведения, повышающие «прозрачность» для посетителей. Поисковые системы (и особенно живые асессоры) умеют отличать «шифрующийся» ресурс несуществующей конторы «Рога и копыта» от качественного сайта реальной организации с настоящим адресом офиса, телефонами и так далее.

2. Возраст домена и возраст сайта – очень важные факторы. Свежезарегистрированный домен в выдачу по высококонкурентным запросам не попадет – это издержки борьбы поисковых систем с сателлитами и дорвеями. Более того, дата регистрации не имеет решающего значения: датой появления сайта считается время индексации первых ссылок на этот домен и появления его в индексе поисковика.

3. Качество хостинга – сюда входит и отсутствие каких-либо ошибок сервера, и правильная его настройка, и скорость загрузки страниц (зависит от CMS, мощности сервера и каналов хостинг-провайдера), и история IP. Про последний фактор часто забывают, но известно, что траст может понизиться, если на IP продвигаемого сайта ранее располагался спамовый или вредоносный ресурс.

4. Качество дизайна – сайты, рассчитывающие на присвоение высокого Trust Rank, не должны использовать шаблонный дизайн. Во-первых, его может распознать асессор, а во-вторых, шаблоны содержат одинаковые участки кода, которые поисковик может распознать как дублированный контент.

5. Отсутствие вредоносных кодов – трастовый сайт ни при каких условиях не должен быть заражен вирусами, он не должен содержать вредоносных кодов.

6. Отсутствие спама в комментариях к материалам сайта, на форуме и так далее – фактор, про который многие забывают. Недостаточно создать хороший сайт: о нем нужно заботиться, развивать его, «выпалывать сорняки».

7. Количество посетителей – трафик должен быть достаточным и постепенно расти. Резкий скачок популярности должен быть обусловлен какими-либо адекватными факторами. Если посещаемость сайта падает или «ходит волнами», траст будет понижаться.

8. Кликабельность сниппетов сайта в выдаче – если она высокая, то сайт релевантен и интересен пользователям. И, следовательно, имеет право на траст.

9. Время, которое посетители в среднем проводят на сайте – важный показатель. Если оно слишком мало, траст не будет высоким (так как велика вероятность, что сайт не самый качественный). Время определяется, если на сайте установлена Яндекс.Метрика.

10. Присутствие в самых авторитетных каталогах – если сайт есть в Яндекс.Каталоге и DMOZ, то Яндекс и Google соответственно будут считать его более трастовым.

11. Ключевые слова в названии домена. Домену типа vodka.ru с большей вероятностью будет присвоен достаточно высокий траст, чем домену 5352buhlo-22.ru. Однако не стоит увлекаться: домен vodka-best-buy-online.ru – типичное название для спамерских площадок, поэтому против такого нагромождения псевдопродающих ключевых слов в названии домена у поисковиков есть защита (в том числе и понижение траста).

12. Количество страниц в индексе – чем крупнее сайт, чем больше на нем страниц с уникальным тематическим контентом, чем большее их количество попало в активный индекс, тем лучше. В Яндексе есть даже фильтры, препятствующие попаданию в ТОП10 – преимущественно по средне- и высокочастотным запросам – «маленьких» сайтов, состоящих всего из нескольких страниц. Хотя это несправедливо (иногда больше 1-2 страниц и не нужно), но учитывать это правило необходимо.

13. Частота обновления сайта – чем чаще, тем лучше. Чем сайт «живее», тем больше его «уважают» поисковые системы. Особенно если обновления ведутся за счет уникального тематического контента и транслируются с помощью RSS и XML-sitemap.

Внешние факторы: ссылочная масса для увеличения траста

1. Исходящие ссылки. Сначала необходимо отметить один важный момент: если сайт продает много ссылок и ссылается на некачественные ресурсы с отрицательным трастом, а также на ресурсы, на которые наложены санкции, этот самый «отрицательный траст» может «придти» в обратном направлении по исходящим ссылкам. Следите за качеством сайтов, на которые ссылается Ваш ресурс. Также важно не перебарщивать с количеством исходящих ссылок. Тут все просто: чем меньше ссылок с продвигаемого сайта на другие ресурсы, тем лучше.

2. Входящие ссылки. Хотя манипуляции с трастом менее изучены и алгоритмизированы, чем с тИЦ и PR, «накачать» его с помощью покупки ссылок все-таки можно. Самое общее правило – покупать сравнительно дорогие ссылки только с качественных СДЛ (сайтов для людей), которые обладают всеми перечисленными выше признаками трастового сайта. Это можно делать вручную, осматривая каждую площадку-донор визуально, или довериться фильтрам (собственным скриптам, или используя соотвествующие сервисы и фильтры различных ссылочных и статейных бирж).
Чтобы ссылки казались поисковой системе более естественными, сделайте несколько анкоров без ключевых слов. Также можно посоветовать ставить некоторое количество ссылок на страницы, которые непосредственно не продвигаются в ТОП.

3. Входящие естественные ссылки. Поисковики с достаточно высокой степенью точности умеют отличать покупные ссылки от естественных. Поэтому при желании быстро и гарантированно увеличить траст, необходимо сделать сайт насколько качественным и интересным, чтобы ссылки на него и его материалы ставились бесплатно: блоггерами, авторитетными сайтами и так далее. Многие средне- и высокочастотные запросы за счет одних внешних факторов поднять в ТОП10 уже почти невозможно: нужна серьезная работа с сайтом. Однако именно такая стратегия является самой правильной и эффективной в долгосрочной перспективе. Делитесь знаниями, публикуйте интересные статьи и обзоры, делайте свой сайт экспертным центром в Вашей тематике. Результат не заставит себя ждать. Сайты с высоким трастом не только лучше продвигаются, но и намного стабильнее стоят на достигнутых позициях при любых изменениях алгоритмов ранжирования.

Небольшой совет по увеличению траста: найдите популярные и качественные сайты своей тематики (так называемые «лидеры мнений») и предложите им свои оригинальные статьи с размещенными в них ссылками на Ваш сайт. Многие такие ресурсы с удовольствием разместят хорошую статью, за которую им придется заплатить только исходящей ссылкой из нее. По данным экспериментов, такие ссылки заметно повышают траст.

Выводы:

В современных алгоритмах ранжирования поисковых систем участвуют тысячи параметров, но, что интересно, все они призваны выявлять очень простую и интуитивно понятную живому человеку вещь: качество сайта. Можно сколько угодно пытаться вычислить волшебную формулу и схему продвижения (подобно тому, как герой фильма Даррена Аранофски «Пи» пытался найти число, выражающее Бога), но самая выигрышная и стратегически верная очень проста. Сделайте качественный, удобный, полезный людям сайт, развивайте его, продвигайте «белыми» методами, и никакие ухищрения не понадобятся!

Пути Яндекса неисповедимы

Видимо чтоб меньше на него ругались по поводу разных результатов поиска в регионах, в Яндекс придумали вот какую фишку: http://webmaster.yandex.ru/wmconsole/compare_regions.xml

Вот что пишут в Яндекс на этот счет:
«Так как с запуском «Арзамаса» Яндекс начал учитывать в поиске регион пользователя, мы сделали инструмент для веб-мастеров, упрощающий сравнение результатов поиска в разных регионах:

* введите запрос, выберите один или два региона, нажмите «Найти». Готово! Регион доступен для выбора в выпадающем списке, если для него используется отдельная формула ранжирования;
* ссылка «Отправить отзыв» позволяет прямо из этого инструмента указать на недоработки или достоинства ранжирования по текущему запросу и региону.

Конечно, поиск по-прежнему понимает указание региона в настройках, после чего на www.yandex.ru результаты поиска показываются локальные для выбранной географической точки.»

Почему бы им сразу не сделать поиск таким для всех, только не с 2 -мя окошками поиска, а по числу разных вариантов выдачи? И будем выбирать где больше результаты понравятся!

 

Запись опубликована автором в рубрике SEO.

Рассмотрим «Арзамас» поближе

Логотип ЯндексИтак, прошла первая неделя с момента запуска новых алгоритмов поиска Яндекс, под названием «Арзамас», и что мы о них знаем? Вот Комментарии самих представителей Яндекс:
«Теперь поиск Яндекса учитывает регион пользователя. Начиная с «Арзамаса», результаты поиска по одному и тому же запросу могут быть разными в разных регионах.

Пользователи часто спрашивают Яндекс о людях и компаниях из их региона, локальных событиях и местах, сайтах и услугах. Например, среди самых часто задаваемых запросов в Челябинске и Ростове-на-Дону 14% «локальных», в Уфе — 24%, а во Владивостоке — 29%. Ранжирование с учетом региона поможет поиску дать более точный ответ на вопрос пользователя.

Движение в эту сторону поиск начал давно — с 2006 года в Яндексе работает автоматическая геоклассификация сайтов, еще раньше появилась возможность ограничить поиск сайтами из своего региона (в расширенном поиске или взведя галочку под поисковой строкой). Но теперь Яндекс пытается сам определить, важен ли регион в каждом конкретном случае. И, конечно, у нас были и будут колдунщики, дающие локальные для пользователя ответы из Карт, Адресов, Афиши, Погоды и Новостей.

Как «Арзамас» понимает, что какие-то результаты должны быть локальными? Регион пользователя определяется по IP-адресу. При желании пользователь может указать свой регион вручную. В ранжировании стали учитываться факторы, позволяющие понять, что данная страница важна пользователям именно «своего» региона. Причем мы попытались сделать это решение максимально общим, не зависящим ни от какого региона конкретно.

Для ряда регионов — и список их будет расти — мы используем специально настроенную формулу ранжирования. Сейчас индивидуальная формула есть для Москвы, Санкт-Петербурга и российского регионального поиска, а также для некоторых стран СНГ.

С выходом «Арзамаса» мы начали учитывать в подсказке об опечатках настройку языка браузера при определении языка запроса в сложных случаях.»

Денис Расковалов и команда поиска
Источник: webmaster.ya.ru

Эт всё понятно, но непонятно пока — как мониторить позиции сайтов, если продвигаешь сразу в нескольких регионах или во всех сразу? Мои тесты показали что, например, семонитор — показывает совсем не ту выдачу, которую я вижу со своего браузера. А ежели еще и Заказчик из другого региона? …а если он еще и через неместный прокси смотрит? Вощем вопросов появилось много…

Запись опубликована автором в рубрике SEO.

На Yandex.ru обновлена поисковая программа

На прошлой неделе Яндекс обновил в очередной раз свои поисковые алгоритмы (уже в третий раз за год), и вот дословно что пишет Яндекс:
«На www.yandex.ru обновлена поисковая программа — теперь там работает «Арзамас» (ранее известный как «Анадырь»). В серии постингов мы расскажем, что сделано за это время.
Снятие омонимии. Яндекс научился еще лучше понимать русский язык, разрешая неоднозначности слов в запросах.

Как известно, знание русской морфологии позволяет поиску Яндекса находить больше полезных ответов. Если вы спросили [реконструкция Маяковской], мы покажем также страницу со словами [станция Маяковская открылась после реконструкции]. Но русский язык — тонкий, сложный и неоднозначный. Тем, кто ищет [фото львов], могут быть нужны как фотографии животных, так и фотографии города Львова. Человек может уточнить свое высказывание, добавив к нему одно или несколько слов: [фото африканских львов]  или [фото город львов]. Теперь эти уточнения наш поиск научился понимать.

Мы реализовали алгоритм снятия омонимии, позволяющий во многих случаях определить, какое слово имеется в виду, и предлагаем в ответ только документы с формами нужного слова. По запросу [фото африканских львов] пользователь получит в ответ документы со словами  «лев», «льва», «льву», но не получит документы, где встречаются лишь слова «Львова» или «Львову».

Как мы научили машину отличать, когда речь идет о животных, а когда — о городах? Алгоритм снятия омонимии основан на анализе данных запросов наших пользователей, учитывает частоту слов в Интернете и их сочетаемость, а также опирается на лексическую статистику слов из Национального корпуса русского языка — академического проекта, разрабатываемого при поддержке Яндекса. При анализе неоднозначного запроса мы выбираем наиболее частотную модель. Выбор в  пользу наиболее вероятной  конструкции помогает понять, что «день рыбака» — это не призыв, а праздник, а «платья придворных дам» — не обещание поделиться одеждой.»

Что ж… это все конечно замечательно… в теории, но факты говорят о другом: выдача в Яндексе стала настолько непонятной и мягко скажем неожиданной, что все оптимизаторские форумы буквально заполнились негодованием и матом!

Судите сами: набираешь, к примеру, «типовые сайты под ключ» — в топе все что угодно кроме веб студий (какие то дома и квартиры под ключ, монтаж аппаратуры, какие то внутренние странички на «народных» сайтах, не имеющих никакого отношения к сайтам… и т.п.! Вощем — бред! Что ж — будем посмотреть в ближайшие недели что и как будет дальше и в каком русле двигаться. Одно понятно — нужно тщательно работать с контентом и юзабилити, это всегда будет актуально, а в свете последних событий — возможно приобретет еще больший вес.  Что касается фокусов Яндекса — не впервой, пробьемся!

Запись опубликована автором в рубрике SEO.

С добрым утром!

Что то последние дни (буквально последнюю неделю) посыпались заявки на продвижение сайтов со всех сторон! Как будто народ разом проснулся после очень затяжных праздников, и теперь всем срочно потребовалось продвигать сайты, причем все надо срочно и результаты нужны «уже вчера»! Если ко мне столько обращаются, то сколько же в наиболее крупные веб студии? Видимо я даже немного ошибся с прогнозами рынка SEO на 2009 г., ожидая некоторого замедления темпов роста, похоже он будет расти не меньше чем рос в 2008 и 2007 гг.

Запись опубликована автором в рубрике SEO.

SEO продвижение в 2009 году

Рынок Интернет рекламы, и в т.ч. SEO — рос последние 3 года по 60-70% в год. Причем основная доля роста приходилась именно на SEO и контекстную рекламу (в основном: Яндекс.Директ, Бегун, Google AdWords). Что ждет нас в году наступившем?
Понятно что такой рост как в 2008 мы вряд ли увидим, но.. .

В ноябре-декабре, в связи с кризисом, многие компании стали сущетсвенно сокращать рекламные бюджеты, но при этом терять клиентов и снижать уровень продаж никому неохота, и большинство компаний, включая и крупные холдинги, обратили свои пристальные взоры на Интернет рекламу — увеличив бюджет на которую, можно сохранить прежний поток клиентов, серьезно сэкономив на наружной и тв рекламе.

В большей степени это коснулось контекстной рекламы, но и на SEO — стало больше заявок именно в ноябре-декабре.

Отсюда следует: рост рынка SEO (как и контекста) будет в 2009 году, и вопрос только — насколько большой рост? Думаю — поменьше чем в предыдущий год, и мой субъективный прогноз: 30-35% по сравнению с предыдущим годом, притом что все остальные рекламные каналы и площадки будут нести потери.  Лидерами роста, безусловно, останутся контекстная реклама и SEO, в то время как баннерная реклама немного сдаст позиции.

И снова будни!

Ну вот и закончились длинные Новогодние праздники, наступили суровые будни Нового года! Хотя по большому счету праздники не повлияли на продвижение моих проектов — так же докупались ссылки, так же удерживались (и даже подрастали) позиции в поисковиках по нужным ключевикам… вощем процесс не останавливался ни на секунду!

Хорошо перед НГ была достаточная сумма на электронных кошельках на оплату ссылок… а то банк объявил 31 декабря, что до 11 января не будет возможности пополнять кошельки WebMoney и Яндекс деньги через Интернет банк!  А бегать искать платежные терминалы которые принимают, да еще переплачивать им проценты — совсем не улыбалось.