Архивы автора: skop

Готовый интернет-магазин

Сколько раз себе говорил что не нужно работать без предоплат… Но тут заказчик уговорил на партнерские условия — делаю сайт, а он в дальнейшем делиться % с прибыли своего бизнеса (написание курсовых, контрольных, лабораторных и т.д.).

Договорились — сделал ему интернет-магазин. Жду обещанных процентов, а их все нет и нет, а потом и заказчик исчез.

Теперь этот сайт мне без надобности — придется или полностью продавать или домен выставить на аукцион. Если кому нужен забирайте:

examen_skrinДомен: examenation.ru

Убираем лишнее в шаблоне s5 construction для joomla 2.5

Заходим в настройки шаблона:

konstr1Видим панель настроек:

konstr2Кнопки соц сетей и номер телефона в шапке редактируем в Template Specific настроек стиля шаблона, тут:

skrin1Если одна (или несколько) кнопка не нужна — просто стереть из поля напротив нее все содержимое — она исчезнет на сайте. Телефон правится или удаляется аналогично, как видно на картинке.

Кнопки авторизации на сайте (Login, Register), по аналогичному принципу в настройках General:

skrin2

 

 

Автоматический постинг в твиттер и фэйсбук

Сегодня хочу рассказать об одном интересном и бесплатном сервисе, который позволяет настроить бот для автопостинга ваших статей в аккаунты твиттер и фэйсбук: twitterfeed.com

Как работает? Очень просто — пишите, как обычно, статью в своем блоге (сайте, портале, интернет магазине), а анонс статьи автоматически публикуется в вашем (ваших) аккаунте твиттер и фэйсбук.

Для чего может понадобиться? Да много для чего, но самый простой вариант — просто экономия времени на быстрое анонсирование новых записей вашего блога + доп трафик разумеется.

Как воспользоваться? Тут все проще простого: заходим на сервис (адрес написан в начале поста), регистрируемся (придет подтверждение на емейл), и нажимаем «create new feed», после чего вписываем название фида и адрес rss-ленты вашего блога. Затем жмем «Continue to Step 2», где активируем авторизацию в твиттер и фэйсбук, жмем «All Done», и собственно всё! Теперь ваши записи в блоге будут автоматически транслироваться в ваших аккаунтах в твиттер и фэйсбук.

Автопостинг в Твиттер и Фейсбук

Поведенческие факторы

Ну что ж, вот уже и можно сделать определенные выводы о важности и влиянии поведенческих факторов. По своим экспериментам, а также из общения с коллегами, я сделал вывод что эти факторы работают, но пока не являются приоритетными при ранжировании сайтов в выдаче. Отсюда вывод: стараемся делать сайты как можно удобнее для пользователей, причем во всех отношениях — структура, дизайн, сервисы на сайте.

Еще один вопрос, который возник наверное не только у меня — можно ли накручивать поведенческие факторы?

На этот вопрос ответили сотрудники Яндекса в своем блоге:

«В последнее время мы видим попытки повлиять на
поисковую систему путем эмуляции действий пользователей. Чаще всего это происходит с помощью программ,
которые задают запросы в поисковую систему и потом переходят на определенные сайты, но известны и другие
способы. Все они — обман, не имеющий ничего общего с настоящей оптимизацией сайта. Кроме того, создание
подобных систем накрутки способствует развитию бот-сетей, которые могут быть использованы для DDoS-атак,
распространения вредоносного ПО, рассылки спама. Яндекс настоятельно рекомендует владельцам сайтов, веб-мастерам и компаниям, предоставляющим услуги в области SEO, воздержаться от использования этого и других методов псевдооптимизации. Они бесперспективны и могут привести к потере вашим сайтом репутации и позиций в результатах поиска».

Но Яндекс не ограничился предупреждением. На сайты ряда SEO-компаний и продвигаемых ими клиентов был наложен
фильтр, из-за которого эти сайты практически невозможно было найти в поисковой выдаче.

И это только начало! Полагаю что и дальше будет усложняться быстрыми темпами алгоритм Яндекса, в том числе в области оценки поведенческих факторов.

Вывод: накручивать ПФ можно (не зря же появилась целая коллекция соотвествующих программ и сервисов, типа юзераторов и пр.), но категорически НЕ НУЖНО!

Яндекс начинает учитывать юзабилити сайтов

5 октября на блоге команды Яндекса появился пост о том что теперь поисковые алгоритмы Яндекса будут учитывать факторы юзабилити сайтов, что повлияет на их ранжирование в результатах поиска:

Качество сайта во многом зависит от его удобства в использовании, называемом также «юзабилити» (от англ. usability). Чем удобнее сайт, тем быстрее и проще посетитель может достичь своей цели — например, найти нужную ему информацию или сделать заказ. Неудобный сайт пользователи быстро покидают в поисках более качественных ресурсов с аналогичным содержанием.

Основные проблемы юзабилити сайтов — это отсутствие хорошей навигации, сложная или запутанная структура, неудачное расположение элементов сайта, неуместное использование рекламы. Чтобы пользователи поиска могли легко получить ответ на свой вопрос, мы начинаем учитывать при ранжировании сайтов их удобство.

В качестве первого шага мы научили поиск определять, мешает ли пользователям реклама на сайте или, наоборот, дополняет его содержание. Формула ранжирования пополнилась ещё несколькими факторами. Теперь она учитывает, например, затрудняет ли реклама доступ к основному контенту, перекрывает ли она текст, остаётся ли сайт с такой рекламой популярным. И ресурсы, на которых реклама используется уместно, оказываются в результатах поиска выше, чем сайты, на которых реклама мешает пользователям.

Чтобы вашим сайтом было удобно пользоваться, нужно обратить внимание на несколько важных моментов. Прежде всего, у сайта должна быть логичная структура, понятная система навигации и интерфейс. Основное место на сайте нужно отвести той информации, ради которой он и был создан. Реклама не должна мешать воспринимать содержание сайта, её роль – дополнять основной контент. Лучше отказаться от всплывающих окон или использовать их так, чтобы посетитель мог быстро их закрыть. Если ваш сайт будет удобным, пользователи оценят его по достоинству и будут возвращаться на него снова и снова.

С одной стороны, конечно это стимул для вебмастеров делать более качественные и продуманные сайты с понятной структурой и удобной навигацией.

С другой стороны, не совсем понятно как будут определяться «более удобные» сайты. Например, цитата: «Чем удобнее сайт, тем быстрее и проще посетитель может достичь своей цели — например, найти нужную ему информацию или сделать заказ» и «Неудобный сайт пользователи быстро покидают в поисках более качественных ресурсов с аналогичным содержанием»

Пользователи могут и в том и в другом случае быстро покинуть сайт — в первом потому что сразу нашли что им нужно, во втором — потому что сразу поняли что сайт некачественный и не вызывает доверия.

Причем, далеко не всегда нахождение нужной информации приводит к каким то действиям на сайте — пользователь может воспользоваться информацией в оффлайне.

Пока же можно только порекомендовать вебмастерам и владельцам сайтов аккуратнее размещать рекламу на сайтах, делая ее менее навязчивой, особенно это касается рич-медиа рекламы. И будем продолжать следить за новостями о влиянии юзабилити — факторов ранжирования. В любом случае, пока рано делать выводы и какие либо резкие изменения в работе над SEO.

Трастовость сайта: что это такое и с чем ее едят

Трастовость, траст, Trust Rank, TrustRank, показатель доверия – это один из факторов ранжирования поисковых систем. Он есть, он работает, он важен, но представители поисковиков предпочитают говорить, что в качестве количественного значения для каждого отдельного сайта Trust Rank не высчитывается. Но это неважно: раз эксперименты показывают, что траст – вещь реальная, то его необходимо учитывать и использовать в поисковом продвижении.

Что такое TrustRank?

Впервые термин прозвучал в 2004 году в работе Золтана Gyöngyi (остережемся от попыток транскрибировать фамилию), Гектора Гарсии-Молина и Яна Педерсена «Борьба с веб-спамом с помощью TrustRank». Это совместный труд сотрудников Yahoo! и Стэнфордского университета. Суть очень проста:

1. PageRank и аналогичные методы расчета авторитетности, «веса» веб-страниц основываются на расчете ссылочных связей между документами с изначально нулевой авторитетностью. Это порождает глобальный недостаток – легкий способ манипулирования авторитетностью: достаточно создать и грамотно перелинковать множество бесполезных, «нулевых» сайтов с псевдоуникальным контентом (так называемых сателлитов), как конечные реципиенты «веса» по волшебству станут весьма авторитетными ресурсами.

2. TrustRank призван победить взаимную накрутку. Специфический «вес» (его обычно как раз и называют «трастом») передается точно так же, как и обычный PageRank и аналоги – через ссылки. Но его источником могут быть только реально известные, популярные, серьезные, проверенные вручную сайты. Если в ранжировании принимает участие TrustRank, оптимизаторам придется создавать интересный контент и делать сайты для людей, чтобы получать траст с изначально трастовых сайтов. Существует также гипотеза о том, что Trust Rank бывает и отрицательным: то есть купленная ссылка с очень плохого сайта может и навредить, принести «вычитание» траста. Однако эксперименты пока не дают статистически достоверного подтверждения этой теории.

Конечно, это лишь несколько усложняет, но никоим образом не упраздняет продвижение сайта путем влияния на ссылочное ранжирование. Дело в том, что траст является, скорее, ограничивающим фактором – без наличия некоторой степени трастовости в ТОП по высококонкурентным запросам выйти нельзя. Но совсем не нужно добиваться траста, сравнимого с таковым у Wikipedia. Понятно, что если бы это было необходимо, то выдача поисковиков быстро бы опустела – точнее, наполнилась ниже 2-4 позиции случайными и нерелевантными результатами (так как траста на всех точно не хватило бы).

Итак, вот формула успеха современного поискового продвижения: хороший уникальный контент, качественная внутренняя оптимизация, приближенная к естественной (разнородная, стабильная, тематическая) входящая ссылочная масса и немного траста для запуска всего этого алхимического процесса.

Обратите внимание, что траст сайтов определяется не только вручную (для этого в поисковиках есть отделы специальных модераторов-асессоров), но и автоматически – на основании факторов качественности ресурса. Их мы перечислим ниже. Таким образом, существует либо два типа траста («супертраст» отобранных асессорами Яндекса ресурсов типа Wikipedia, которым вообще не нужна ссылочная масса – достаточно статьи с одним-двумя упоминаниями ключевого слова для попадания по нему в ТОП; и обычный, назначаемый автоматически траст качественных сайтов). Либо просто автоматически может быть назначен совсем невысокий траст, а поставленное вручную значение может быть на порядки большим.

Как и показатель тИЦ, Trust Rank рассчитывается для домена в целом.

Как увеличить траст?

Один из главнейших вопросов SEO в России звучит так: «Как увеличить тИЦ?» В последние годы к нему добавился не менее животрепещущий, но уже по поводу траста. И это действительно возможно! Процесс получения определенного (пусть и невысокого, но достаточного для продвижения по любым запросам уровня траста) делится на два этапа:

1. Внутренняя оптимизация сайта и контента – возможно, позволяет получить некоторый уровень траста автоматически и закрывает «дырки», через которые может «утечь» внешний траст.

2. Покупка ссылок с трастовых сайтов – позволяет довести траст до уровня, при котором наращивание объема обычной покупной ссылочной массы будет приносить максимальный эффект.

Работа с сайтом

Не существует полного перечня факторов, влияющих на «мнение» поисковика по поводу уровня доверия к сайту. Также следует понимать, что алгоритм расчета траста меняется постоянно: сегодня более важны один параметры, а завтра – другие (особенно процесс изменений ускорился с введением в алгоритмы Яндекса системы машинного обучения МатриксНет). Однако наиболее важные все же были выявлены в ходе экспериментов – обратите внимание, что многие пересекаются с критериями расчета PR, тИЦ и вИЦ. А это подтверждает, что в современных алгоритмах ранжирования все показатели в какой-то степени взаимосвязаны. Вывод прост – качественный сайт сможет легко получить «высокую оценку» поисковика, а некачественный вывести в ТОП всегда сложнее (да и незачем). Итак, самые важные факторы:

1. Уникальность контента и его тематическое единство – очень важные факторы для определения траста. Сайту с заимствованным контентом никогда не будет присвоен высокий уровень доверия. Также важно, чтобы сайт содержал сквозной семантический кластер, то есть чтобы все тексты были объединены тематикой. Если сайт содержит статьи о микроэлектронике и выращивании брюквы, высокий траст ему могут присвоить только вручную, но это вряд ли произойдет (исключения – энциклопедические ресурсы типа той же Wikipedia). Кстати, очень важно иметь страницу с подробной контактной информацией, страницу с данными о компании и прочие сведения, повышающие «прозрачность» для посетителей. Поисковые системы (и особенно живые асессоры) умеют отличать «шифрующийся» ресурс несуществующей конторы «Рога и копыта» от качественного сайта реальной организации с настоящим адресом офиса, телефонами и так далее.

2. Возраст домена и возраст сайта – очень важные факторы. Свежезарегистрированный домен в выдачу по высококонкурентным запросам не попадет – это издержки борьбы поисковых систем с сателлитами и дорвеями. Более того, дата регистрации не имеет решающего значения: датой появления сайта считается время индексации первых ссылок на этот домен и появления его в индексе поисковика.

3. Качество хостинга – сюда входит и отсутствие каких-либо ошибок сервера, и правильная его настройка, и скорость загрузки страниц (зависит от CMS, мощности сервера и каналов хостинг-провайдера), и история IP. Про последний фактор часто забывают, но известно, что траст может понизиться, если на IP продвигаемого сайта ранее располагался спамовый или вредоносный ресурс.

4. Качество дизайна – сайты, рассчитывающие на присвоение высокого Trust Rank, не должны использовать шаблонный дизайн. Во-первых, его может распознать асессор, а во-вторых, шаблоны содержат одинаковые участки кода, которые поисковик может распознать как дублированный контент.

5. Отсутствие вредоносных кодов – трастовый сайт ни при каких условиях не должен быть заражен вирусами, он не должен содержать вредоносных кодов.

6. Отсутствие спама в комментариях к материалам сайта, на форуме и так далее – фактор, про который многие забывают. Недостаточно создать хороший сайт: о нем нужно заботиться, развивать его, «выпалывать сорняки».

7. Количество посетителей – трафик должен быть достаточным и постепенно расти. Резкий скачок популярности должен быть обусловлен какими-либо адекватными факторами. Если посещаемость сайта падает или «ходит волнами», траст будет понижаться.

8. Кликабельность сниппетов сайта в выдаче – если она высокая, то сайт релевантен и интересен пользователям. И, следовательно, имеет право на траст.

9. Время, которое посетители в среднем проводят на сайте – важный показатель. Если оно слишком мало, траст не будет высоким (так как велика вероятность, что сайт не самый качественный). Время определяется, если на сайте установлена Яндекс.Метрика.

10. Присутствие в самых авторитетных каталогах – если сайт есть в Яндекс.Каталоге и DMOZ, то Яндекс и Google соответственно будут считать его более трастовым.

11. Ключевые слова в названии домена. Домену типа vodka.ru с большей вероятностью будет присвоен достаточно высокий траст, чем домену 5352buhlo-22.ru. Однако не стоит увлекаться: домен vodka-best-buy-online.ru – типичное название для спамерских площадок, поэтому против такого нагромождения псевдопродающих ключевых слов в названии домена у поисковиков есть защита (в том числе и понижение траста).

12. Количество страниц в индексе – чем крупнее сайт, чем больше на нем страниц с уникальным тематическим контентом, чем большее их количество попало в активный индекс, тем лучше. В Яндексе есть даже фильтры, препятствующие попаданию в ТОП10 – преимущественно по средне- и высокочастотным запросам – «маленьких» сайтов, состоящих всего из нескольких страниц. Хотя это несправедливо (иногда больше 1-2 страниц и не нужно), но учитывать это правило необходимо.

13. Частота обновления сайта – чем чаще, тем лучше. Чем сайт «живее», тем больше его «уважают» поисковые системы. Особенно если обновления ведутся за счет уникального тематического контента и транслируются с помощью RSS и XML-sitemap.

Внешние факторы: ссылочная масса для увеличения траста

1. Исходящие ссылки. Сначала необходимо отметить один важный момент: если сайт продает много ссылок и ссылается на некачественные ресурсы с отрицательным трастом, а также на ресурсы, на которые наложены санкции, этот самый «отрицательный траст» может «придти» в обратном направлении по исходящим ссылкам. Следите за качеством сайтов, на которые ссылается Ваш ресурс. Также важно не перебарщивать с количеством исходящих ссылок. Тут все просто: чем меньше ссылок с продвигаемого сайта на другие ресурсы, тем лучше.

2. Входящие ссылки. Хотя манипуляции с трастом менее изучены и алгоритмизированы, чем с тИЦ и PR, «накачать» его с помощью покупки ссылок все-таки можно. Самое общее правило – покупать сравнительно дорогие ссылки только с качественных СДЛ (сайтов для людей), которые обладают всеми перечисленными выше признаками трастового сайта. Это можно делать вручную, осматривая каждую площадку-донор визуально, или довериться фильтрам (собственным скриптам, или используя соотвествующие сервисы и фильтры различных ссылочных и статейных бирж).
Чтобы ссылки казались поисковой системе более естественными, сделайте несколько анкоров без ключевых слов. Также можно посоветовать ставить некоторое количество ссылок на страницы, которые непосредственно не продвигаются в ТОП.

3. Входящие естественные ссылки. Поисковики с достаточно высокой степенью точности умеют отличать покупные ссылки от естественных. Поэтому при желании быстро и гарантированно увеличить траст, необходимо сделать сайт насколько качественным и интересным, чтобы ссылки на него и его материалы ставились бесплатно: блоггерами, авторитетными сайтами и так далее. Многие средне- и высокочастотные запросы за счет одних внешних факторов поднять в ТОП10 уже почти невозможно: нужна серьезная работа с сайтом. Однако именно такая стратегия является самой правильной и эффективной в долгосрочной перспективе. Делитесь знаниями, публикуйте интересные статьи и обзоры, делайте свой сайт экспертным центром в Вашей тематике. Результат не заставит себя ждать. Сайты с высоким трастом не только лучше продвигаются, но и намного стабильнее стоят на достигнутых позициях при любых изменениях алгоритмов ранжирования.

Небольшой совет по увеличению траста: найдите популярные и качественные сайты своей тематики (так называемые «лидеры мнений») и предложите им свои оригинальные статьи с размещенными в них ссылками на Ваш сайт. Многие такие ресурсы с удовольствием разместят хорошую статью, за которую им придется заплатить только исходящей ссылкой из нее. По данным экспериментов, такие ссылки заметно повышают траст.

Выводы:

В современных алгоритмах ранжирования поисковых систем участвуют тысячи параметров, но, что интересно, все они призваны выявлять очень простую и интуитивно понятную живому человеку вещь: качество сайта. Можно сколько угодно пытаться вычислить волшебную формулу и схему продвижения (подобно тому, как герой фильма Даррена Аранофски «Пи» пытался найти число, выражающее Бога), но самая выигрышная и стратегически верная очень проста. Сделайте качественный, удобный, полезный людям сайт, развивайте его, продвигайте «белыми» методами, и никакие ухищрения не понадобятся!

SMO — оптимизация под социальные сети

Так как SMO довольно молодое направление – не все четко понимают, что оно из себя представляет. Фактически, SMO – это оптимизация сайтов под соц сети или другими словами — PR в социальных сетях с использованием таких инструментов как: работа с сообществами, работа с вирусным контентом, работа с блогосферой, корпоративный блоггинг.

Появление термина Social Media Optimization принято связывать с публикацией Рохита Баргавы (Rohit Bhargava), в которой автор сформулировал 5 правил SMO:

  1. Повышать ссылочную популярность — делать такие сайты и выкладывать такой контент, на который будут ссылаться.
  2. Упростить добавление контента с сайта в социальные сети, закладки, RSS-агрегаторы и т. п.
  3. Привлекать входящие ссылки, поощрять тех, кто ссылается.
  4. Обеспечить экспорт и распространение контента. Со ссылками на источник.
  5. Поощрять создание сервисов, использующих наш контент — mashup’ов.

Оптимизация для социальных медиа (SMO) — то же самое по сути, что и поисковая оптимизация (SEO), но предназначена не для поисковых машин, а для социальных сетей и блогов, чтобы привлечь оттуда трафик к себе на сайт или сформировать сообщество по интересам внутри социального ресурса.

При этом задача оптимизатора меняется с оптимизации для поисковых систем, на оптимизацию для людей — в том числе, на создание интересного, «вирусного» контента.

Еще одно отличие SEO от SMO — эффективность действий. На видеосервисе YouTube среднее количество просмотров обычного видеоролика на английском языке старше полугода составляет 10-12 тысяч просмотров. Добиться такого же количества средствами SEO гораздо труднее, чем это доступно SMO-специалистам, которые пытаются запустить «сарафанное радио», начиная продвигать видео в блогах и социальных сетях. Часто это делается при помощи специальных сервисов.

Принципы оптимизации (SMO)

  1. Написание читабельного и красочно иллюстрированного контента.
  2. Создание постоянной аудитории проекта: общение с комментаторами, публикация текстов, подразумевающих дискуссии в комментариях.
  3. Публикация ссылок на контент других сайтов по тематике, что дает возможность влиться в круг тематических проектов.
  4. Перелинковка статей между собой.
  5. Устранение ненужных элементов интерфейса сайта: лишних ссылок, редко используемых блоков.
  6. Установка на самые видимые места сайта полезных элементов: подписка на сайт, блок самых популярных статей, ссылка на комментирование с призывом «сделать это поскорее» и т. п.
  7. Параллельная подача информации — рядом с основным блоком контента идет дополнительный блок с анонсами статей, ссылками на рекомендуемые заметки и другим. В случае, если основной контент не вызвал интерес, читатель переходит на анонсируемые статьи.
  8. Установка плагинов и виджетов для взаимодействия сайта с комментаторами и читателями, таких как «голосование», «рекомендация другу», «лучшие комментаторы»
  9. Интеграция с социальными сетями: установка кнопок like(мне нравится), виджетов групп проекта в соцсетях, плагинов комментариев и авторизации через социальную сеть.

В целом SMO — интересное направление для продвижения самых разных товаров и услуг, и в первую очередь в потребительском секторе (в секторе B2B — по прежнему лидирует SEO), как недостаток можно отметить высокую трудозатратность, т.е. если в SEO один специалист может вести параллельно несколько проектов, то в SMO — над одним проектом необходимо трудиться целой команде, и как следствие — высокие расценки на подобное продвижение.

Запись опубликована автором в рубрике SMO с метками , .

Интернет-маркетинг в целом

Сегодня попытаюсь письменно сформулировать само определение Интернет маркетинга и что он из себя на сегодня представляет.

Начнем с определения, и для начала вспомним что такое вообще маркетинг:
Маркетинг (от англ. marketing — продажа, торговля на рынке) — управление созданием товаров и услуг, и механизмами их реализации, как единым комплексным процессом. Не забудем и об основных составляющих, по которым принято сравнивать конкурентов, так называемые 4P (Товар (Product), Цена (Price), Место продаж (Place), Продвижение (Promotion)).

Интернет-маркетинг является составляющей электронной коммерции. Его еще называют online-маркетингом. Собственно, Интернет маркетинг — это по сути тот же маркетинг, с теми же целями и задачами, только использующий исключительно методы, технологии и инструменты сети Интернет. И основная задача Интернет маркетинга — получить максимальный эффект от потенциальной аудитории сайта.

Электронная коммерция стала набирать популярность с расширением доступа к Интернету. Сектор интернет-маркетинга последние годы стабильно растёт как в потребительском секторе, о чем свидетельствует появление с каждым днем все новых интернет-магазинов, так и на рынке B2B. Основными преимуществами интернет-маркетинга считаются интерактивность, возможность максимально точного таргетинга, возможность постклик-анализа, который ведет к максимальному повышению таких показателей как конверсия сайта и ROI интернет-рекламы.

Попробуем перечислить основные составляющие Интернет маркетинга на сегодня:

  • Поисковое продвижение (SEO) и поисковый маркетинг в целом
  • Контекстная реклама (с оплатой за клики или за показы)
  • Медийная реклама
  • Директ-маркетинг (прямой маркетинг) с использованием e-mail рассылок, RSS-каналов, и пр.
  • Маркетинг в социальных сетях: SMO и SMM
  • вирусный маркетинг
  • Внутренняя оптимизация Интернет ресурсов, направленная на повышение конверсии посетителей в потребителей: работа с дизайном сайта, юзабилити, навигация, качество контента.

Возможно я вспомнил не все, но это точно наиболее востребованные и часто используемые направления. Что же касается товаров в сети, то здесь возможностей даже больше чем в офлайн, т.к. помимо традиционных товаров, которые можно продавать посредством интернет маркетинга, можно продавать еще виртуальные товары, например: электронные книги, программы, доступ к информации, доступ к определенному контенту, дополнительные возможности в онлайн играх, получать деньги за размещение ссылок и рекламы на своих сайтах и т.д.

Мой брат — лучший!

Александр КопкинСегодня вернулся с армейских соревнований мой младший брат, который в настоящее время проходит службу по контракту в рядах ВС РФ.

В общероссийском, а затем и международном конкурсе (СНГ) «Мировой парень» он занял первое место!
Вот первые новости о его победах в Интернет-СМИ:

От всей души поздравляю его с заслуженными победами, и желаю дальнейших успехов — как в службе, так и в личной жизни!

Пути Яндекса неисповедимы

Видимо чтоб меньше на него ругались по поводу разных результатов поиска в регионах, в Яндекс придумали вот какую фишку: http://webmaster.yandex.ru/wmconsole/compare_regions.xml

Вот что пишут в Яндекс на этот счет:
«Так как с запуском «Арзамаса» Яндекс начал учитывать в поиске регион пользователя, мы сделали инструмент для веб-мастеров, упрощающий сравнение результатов поиска в разных регионах:

* введите запрос, выберите один или два региона, нажмите «Найти». Готово! Регион доступен для выбора в выпадающем списке, если для него используется отдельная формула ранжирования;
* ссылка «Отправить отзыв» позволяет прямо из этого инструмента указать на недоработки или достоинства ранжирования по текущему запросу и региону.

Конечно, поиск по-прежнему понимает указание региона в настройках, после чего на www.yandex.ru результаты поиска показываются локальные для выбранной географической точки.»

Почему бы им сразу не сделать поиск таким для всех, только не с 2 -мя окошками поиска, а по числу разных вариантов выдачи? И будем выбирать где больше результаты понравятся!

 

Запись опубликована автором в рубрике SEO.