Не блокируйте 301-ые редиректы с помощью Robots.txt
На Google Groups появилась интересная дискуссия по поводу 301-го редиректа. Началось все с того, что во время распродажи доменов владелец одного сайта решил перейти с domain.com на domain.info. Для сохранения своих ссылок на какое-то время он установил 301-ый редирект с .com на .info.
Следующим образом по этому поводу высказался один из гуглеров Джон Му (JohnMu). Он говорит, что не стоит использовать «robots.txt для блокировки индексирования, пока Вы пользуетесь 301-ым редиректом. Ведь тем самым Вы фактически препятствуете правильному распознаванию редиректа поисковыми роботами».
В этом топике также обсуждается вопрос о том, как долго нужно использовать 301-ый редирект, прежде чем передать домен новому владельцу, который после снимет переадресацию. Достаточно ли трех недель, чтобы Google понял, возвращать ли ему старые ссылки на старый домен или же перенаправить их на новый? Некоторые утверждают, что 301-ый редирект действует минимум шесть месяцев.
В обсуждение даются различные подсказки по данному вопросу. Например, предлагается собрать как можно больше ссылок с прежнего домена и заменить их на новые ссылки. Для этого нужно попросить сайты обновить Ваши ссылки на новый домен. Собрать ссылки можно с помощью Yahoo Site Explorer, Google Webmaster Tools или своих скриптов.
Подробности на Google Groups.
Влияет ли срок регистрации доменных имен на SEO?
Вопрос о регистрации доменных имен и их влиянии на SEO по-прежнему не теряет своей актуальности. Что лучше: зарегистрировать домен сразу на 5 лет или продлевать его ежегодно?
В одном из прошлых сообщений на SERoundTable говорилось о том, что сайты с продленной регистрацией доменов обладают особыми привилегиями. По каким-то признакам поисковые системы определяют, что эти сайты не являются спамовыми. Google, вероятно, принимает во внимание этот фактор, придавая ему небольшое, но все-таки значение.
Сроки регистрации доменов также свидетельствуют о Вашем отношении к работе. Если Вы продлеваете регистрацию сразу на несколько лет, это говорит о том, что Вы серьезно настроены заниматься бизнесом. По крайней мере, в это верится больше, нежели при продлении регистрации каждый год.
По мнению других вебмастеров, на SEO влияют не сроки регистрации доменных имен, а их возраст: чем старше, тем лучше.
Подробности на WebmasterWorld.
Загадка о 4-ой изменчивой позиции в Google
Некоторое время назад на форуме WebmasterWorld. участники писали о том, что позиции их сайтов на Google безосновательно менялись. Сначала они поднимались вверх на четвертую позицию, а спустя некоторое время снова опускались на прежнее место. Так повторялось несколько раз.
Выдвигалось множество предположений по этому поводу. Наиболее правдоподобную выдвинул администратор форума Tedster. Он предположил, что на ранжирование сайта в Google, помимо основных факторов, может также влиять и его размер: чем больше и качественнее сайт, тем выше его позиции. Возможно, Google решил ненадолго поощрить маленькие, но качественные сайты, выдвинув их на 4-ую позицию. Интересно, что подобная версия нашла поддержку у многих участников форума.
Подробности на WebmasterWorld.
Обмен и покупка ссылок: стоит ли конкурировать в мире Google?
В своем блоге Мэтт Каттс написал постинг о том, как Google выявляет просьбы о взаимном обмене ссылками. В нем он приводит пример о том, как некий отправитель письма с просьбой об обмене ссылками пытался обмануть фильтры Google. Он вложив в письмо иллюстрацию, чтобы его не «прочли». О подобных действиях Google осведомлен, так как заинтересованные в честной конкуренции вебмастера порой сами сообщают ему об этом.
Что касается покупки ссылок, то возникает вопрос - как можно конкурировать с теми, кто покупает ссылки «оптом»? Некоторые участники форума WebmasterWorld обычно не берутся за раскрутку сайтов в конкурентных областях, если у клиентов нет лишних денег. Другие же ищут только релевантные ссылки для взаимообмена с заинтересованными вебмастерами.
Подробности на Sphinn и WebmasterWorld.
Более глубокий взгляд на санкции Minus X от Google
На SEO Scientist Бранко (Branko) написал постинг «Тщательный анализ фильтра/пенальти Google или как не пользоваться атрибутом nofollow при формировании PR». В этом сообщении он приводит пример пользователя, который получил пенальти Minus X и отобразил это на графике.
Исходя из этого Бранко делает следующие выводы: фильтр не является полным забаниванием сайта, он действует только в США, он восприимчив к ключевым словам и может начать действовать из-за внутренних (“on page”) и внешних (“off page”) факторов. Основываясь на своих наблюдениях, Бранко предлагает несколько советов, о которых можно почитать здесь.
Подробности на Sphinn.
Стоит ли размещать ссылки на сайты одной сети в iFrame?
Дискуссия на форуме WebmasterWorld касается вопроса о том, как нужно обращаться с перелинковкой сайтов одной сети. Да и такое бывает! Например, компания IAC, помимо Ask.com, также владеет TicketMaster.com. Если Вы скроллируете сайт донизу, Вы уведете много других интернет продуктов, которые принадлежат IAC, в том числе Expedia, Lending Tree, Hotels.com, Hotwire и другие.
Использовать такую перелинковку или нет зависит от Ваших целей. Оптимизаторы в основном обеспокоены тем, что их намерения неправильно истолковываются поисковыми системами. Они часто предпринимают меры по сохранению ссылок, но не хотят, чтобы эти ссылки индексировались. Этого можно избежать, добавив атрибут nofollow. Однако некоторые SEO-шники по каким-то своим причинам не хотят этого делать.
Наш друг Tedster, администратор форума WebmasterWorld, говорит, что в таких случаях он использует iFrame.
Я использую iFramовские урлы для блоков с полезными ссылками, например, «Обслуживание клиента». Это помогает формировать PageRank без использования ссылок с атрибутом nofollow.
Я также использую iFrame для больших кусков шаблонных текстов, таких как юридические документы об ограничении ответственности и так далее. Я предпочитаю иметь несколько индексных текстов, чем использовать файлы с иллюстрациями; iFrame замечательно с этим справляется.
Подробности на WebmasterWorld.
Купите ли Вы ссылку с атрибутом nofollow?
На форуме DigitalPoint Forums участников спрашивают, стоит ли покупать ссылку с атрибутом nofollow. Для тех, кто не знает, параметр nofollow – атрибут html-ссылки, чтобы поисковые роботы могли быстро определить стоит ли дальше идти по ней или нет.
Некоторые покупают подобные ссылки, некоторые нет. Конечно, это зависит от различных параметров, таких как трафик сайта или месторасположение ссылки. На этот вопрос нет однозначного ответа, все решается индивидуально.
Подробности на DigitalPoint Forums.
Могут ли ссылки с порно сайтов навредить Вашим поисковым позициям?
Любому вебмастеру важно проверять свои аналитические данные, чтобы сайт хорошо работал. По этим данным Вы можете легко определить для себя что нужно подправить или изменить в сайте для большего количества посетителей. Вы также можете посмотреть откуда идет трафик на Ваш сайт: будь-то поисковый трафик или трафик с порно сайтов.
Когда один из участников форума SERoundTable в очередной раз посмотрел статистику своего сайта, он был немного шокирован: более 3 000 посетителей с одного порно сайта. Может ли это навредить его сайту? И можно ли он за это получить санкции?
Во-первых, владелец сайта говорит о 3 000 посетителях, а не ссылках. Если бы это были ссылки, единственная угроза сайту была бы в том, что Google мог бы предположить, что этот сайт является адалтным (даже если это не так). Безусловно, если только малый процент Ваших входящих ссылок идут с порно сайтов, Вам ни о чем не стоит беспокоиться. Обратите внимание, ключевой момент – малый процент! Однако сколько это точно никто сказать не может. Просто следует помнить о том, что если большинство ваших ссылок идет с адалтных сайтов, Вы можете попасть под действие адалтного фильтра, не владея таковым контентом.
Подробности на DigitalPoint Forums.
Небезопасно ли использовать тэг NoArchive в SEO в 2022 году?
На форуме WebmasterWorld появилась интересная история о мета тэге NoArchive и о возможном его негативном влиянии на поисковые позиции в Google и других поисковиках. По мнению одного из обозревателя SERoundTable, в 2022 году NoArchive тэг никаким образом не повлияет на ранжирование сайта, если, конечно, не спамить в поисковых системах. Если Вы этого не делаете, то Вам не о чем волноваться и смело можете пользоваться NoArchive себе во благо.
Напрашивается вопрос: откуда вообще появилась обеспокоенность по поводу этого тэга? Все началось с того, что еще в 2001 году появлялись сведения о том, что сайты, использующие NoArchive, теряли свои позиции в Google. Вот что по этому поводу говорил основатель и владелец форума WebmasterWorld, Бретт Табке (Brett Tabke):
Я протестировал 12 доменов. Все 12 потеряли свои позиции после того, как стали использовать NoArchive.
Как же с этим делом обстоит сейчас? Опять-таки, по мнению обозревателя SERoundTable, для большинства вебмастеров этой проблемы не существует. Администратор форума WebmasterWorld, Tedster, тоже считает, что в использовании этого тэга нет ничего опасного. Если бы на Ваших страницах были признаки спама, тогда бы NoArchive тэг был бы лишь дополнительным критерием, повлиявшим на снижение ранкинга. На конференциях гуглер Мэтт Каттс неоднократно отмечал этот факт».
Модератор форума WebmasterWorld Receptional Andy полностью согласен с Tedster и добавляет о том, что «только маленький процент сайтов в будущем будут использовать NoArchive». Хорошее сравнение предлагает модератор PageOnResults, соотнося эти малочисленные веб-сайты с низким процентом серферов, просматривающих кэш Ваших страниц.
Какой можно сделать вывод из всего вышесказанного? Если Вы спамите, будьте осторожны и не применяйте тэг NoArchive. Во всех других случаях, пользуйтесь им на здоровье!
Подробности на WebmasterWorld.
Пятилетние планы в поиске
Майк Грехан (Mike Grehan) написал статью о будущем SEO и поделился мыслями на этот счет на Search Engine Watch Forums. Майк говорит о персонализации поиска на различных уровнях и о том, какое сильное воздействие на будущее SEO в следующие пять лет окажут социальные поисковики. Это является важным моментом, поскольку одни люди пользуются Интернетом чаще, чем другие и оказывают влияние на него тоже разное. В связи с этим он задается вопросом:
Должны ли алгоритмы поисковых систем продолжать учитывать только данные тех людей, у которых есть свои сайты, свои страницы и которые ссылаются на другие сайты? Или именно сейчас мнение конечного пользователя становится более четким и ясным?
Подробности на Search Engine Watch Forums.
Так ли необходим тэг Meta Description в Google?
Около месяца назад суд США (!) постановил, что мета тэги не играют никакой роли в поисковых системах, по крайней мере, в Google. В связи с этим участники форумов интересуются насколько важно добавлять Meta Description на страницы сайтов. Есть ли смысл в использовании мета тэгов или Google выбирает лучшие сниппеты, основываясь на запросах пользователей?
Итак, учитывая, что Google является не единственной поисковой системой на сегодняшний день, использование Meta Description в любом случае помогает в других поисковиках, таких как Live, Yahoo, и Ask. Более того, по мнению Tedstera, «Google будет использовать свои сниппеты для некоторых поисковых запросов, если посчитает, что Meta Description сайта не совсем соответствует запросу».
Другой участник форума полагает, что Google вообще не использует Meta Description. Ведь наиболее весомые страницы хорошо ранжируются по широкому спектру запросов. Исключая Meta Description, Вы тем самым позволяете Google подсвечивать поисковый запрос пользователя внутри сниппета, увеличивая воспринимаемую релевантность результата.
Некоторые вебмастера утверждают, что они начали ориентироваться на атрибут Title, поскольку Google перестал учитывать Meta Description.
Подробности на WebmasterWorld.
Размещение на сайте видео с YouTube может увеличить поисковые позиции в Google?
В одном из топиков на WebmasterWorld участник форума выдвинул предположение о том, что высокий рейтинг его страниц как-то связан с размещенным на них видео с YouTube. Он добавил видео с YouTube на десяти выбранных наугад страницах, которые не отличались высоким ранкингом в Google. Результаты были ошеломительными:
Спустя 15 дней среднее количество посетителей в Google увеличилось на 200%, по сравнению с тем же периодом, но без видео.
Честно говоря, не очень-то верится во все это. Может, есть другие факторы, повлиявшие на такие результаты?
Подробности на WebmasterWorld.
Что делает Google со взломанными сайтами?
Мэтт Каттс в своем блоге написал о том, как путем «неиндексирования» взломанных сайтов Google избавляется от мусора на своей индексной странице. Он поясняет, что взломанные сайты могут быть пагубными для поиска, особенно если на них хостятся вредоносные программы. В связи с этим, Google принимает превентивные меры для исключения подобных сайтов с индексной страницы, чтобы посетители нечаянно не подхватили какой-нибудь вирус.
По словам Мэтта, Google также направляет многочисленные уведомления вебмастерам отдельных доменов (contact@, support@, webmaster@ и info@), чтобы проинформировать их о неприятном событии. Заголовок письма обычно выглядит так «Удаление с индексной страницы Google» (”Removal from Google’s Index”). Если же Вы пользуетесь Google’s Webmaster Tools, то подобное уведомление Вы получаете при входе в систему.
Если Вам пришло подобное предупреждение, то у Вас есть несколько дней, чтобы исправить ситуацию. В противном случае Google удалит Ваш сайт с индексной страницы. Как только сайт будет исправлен, Вы можете отправить письмо с просьбой о пересмотре статуса сайта и Вас снова добавят.
В 2020 году на SERoundTable было опубликовано сообщение о том, как сайт Jennifer Convertibles был взломан и убран из индекса Google. В течение двух дней, он снова появился на индексной странице. В этом конкретном случае Google отреагировал быстро в ответ на быстрые действия вебмастеров, которые устранили проблему на своем сайте.
Подробности на Sphinn.
Оправдывает ли себя покупка ссылок?
Один из участников форума WebmasterWorld, не зная как еще улучшить поисковые позиции своего сайта, решил купить ссылки. В итоге, его ранкинг снизился. Существуют ли еще способы получения ссылок?
На самом деле, если Вы решили покупать ссылки, то лучше всего делать это не через брокеров. Лучше сразу пойти к вебмастерам и спросить смогут ли они разместить ссылку в удобном для этого месте. Помимо этого, нужно помнить не о количестве, а о качестве ссылок. Так, например,10 высококачественных ссылок с легкостью дадут фору 100 более простым ссылкам.
Самый лучший способ «ссылкостроительства» это медленное и регулярное их добавление. Нет смысла добавлять сразу большое количество ссылок, так как это может вызывать подозрения у поисковых систем.
На эту же тему рассуждает и Джим Бойкин (Jim Boykin), который предлагает строить ссылки, уделяя внимание правильному тексту и контенту на целевых страницах. Более того, лучше ссылаться не на домашнюю страницу, а на соответствующие внешние страницы.
Подробности на WebmasterWorld и Sphinn .
Google будет наказывать ложные слухи?
В блогсфере активно обсуждают применение ложных слухов для получения обратных ссылок. На этот счет следующим образом высказался гуглер Мэтт Каттс на форуме Sphinn:
С ходу могу сказать, что Google предусматривает подобные случаи:
«Google может негативно реагировать на любые обманные действия, включая (но не ограничивая) регистрацию сайтов популярных брендов, написанных с орфографическими ошибками».
Многочисленные участники форума Sphinn расстроены подобным подходом. Они полагают, что Google поступает нечестно, пытаясь контролировать контент в интернете. С другой же стороны, они прекрасно понимают, что Google хочет ссылаться на наиболее достоверные и релевантные сайты, поэтому подобные меры неминуемы.
Подробности на Sphinn и Sphinn.
Google будет показывать рекламу в поиске по изображениям
Уже в сентябре 2019 года появлялись сообщения о том, что при поиске картинок Google выдавал графическую рекламу. Похоже, подобные нововведения не за горами. Как сообщает Bloomberg, «графическая реклама будет работать успешнее именно в поиске по изображениям, так как очень много пользователи пользуются этим сервисом».
А Вы восприимчивы к такой рекламе?
Подробности на WebmasterWorld.
Google делится информацией о качестве поиска (Search Quality)
На Official Google Blog Уди Манбер (Udi Manber), вице-президент Google по разработке, опубликовал очень информативную статью на тему качества поиска в Google и способов его улучшения. На сегодняшний день существует несколько параметров качества поиска, среди которых самым важным является ранкинг. Проблема обеспечения сайта должной позицией объясняется, в том числе, и языковой неопределенностью. Сегодня не существует определенных правил изложения информации в интернете. Google вынужден распознавать и понимать все сайты, не важно кем и для каких целей они созданы. Основным параметром в алгоритме ранжирования является PageRank.
У Google даже есть особое подразделение, которое занимается качеством поиска. Существует также и команда экспертов, которые следят за эффективностью работы Google, в том числе и на других языках. Есть эксперты, которые работают над продуктами Google и интерфейсом для пользователей. У Google имеются также специалисты, которые ведут борьбу со спамом. Наиболее наглядно структуру команды Google описал Матт Каттс.
Подробности на Techmeme и Search Engine Watch.
Действительно ли существует «наказание» за большое количество ссылок?
У одного участника форума WebmasterWorld возник вопрос по поводу того, влечет ли за собой какое-либо «наказание» получение большого количества ссылок на сайт. Ведь многие очень популярные сайты, занимающие первые поисковые позиции в Google, имеют тысячи ссылок, в том числе и из сомнительных мест. Почему, в таком случае, и ему не получить подобные ссылки для своего сайта?
Некоторые форумчане считают, что в данном случае большую роль играют авторитетность и возраст сайта. Некоторые вебсайты постоянно получают входящие ссылки, другие же – только при улучшении своих позиций.
Стоит помнить, что резкий рост количества входящих ссылок может и навредить сайту. Например, когда новый сайт, который обычно получает по 20 ссылок каждый день, однажды приобретает аж 2 000 ссылок, это вызывает подозрения у Google. В итоге, на какой-то период времени Google может наложить штрафные санкции на этот сайт. Поэтому нужно быть осторожнее при строительстве ссылок, так как это может, наоборот, привести к снижению поисковых позиций сайта. Но как отмечают участники форума, ранкинг в итоге вырастает.
Подробности на WebmasterWorld.
Равноценны ли для Google внутренние и внешние ссылки?
Участник форума WebmasterWorld замечает, что когда он делает запрос по какому-то домену, в результатах поиска отображаются лишь внутренние ссылки, без внешних. Но тут же добавляет, что это зависит и от размера домена, так как наблюдается в основном у больших сайтов. Каким образом обрабатываются эти данные и в чем различие в ценности внутренних и внешних ссылок?
Tedster убежден, что никакой загадки здесь нет:
Внутренние ссылки оказывают влияние на текст ссылки (анкор). Я бы не стал утверждать, что они воспринимаются точно также, как и внешние. В чем именно состоит эта разница Google по-прежнему держит в секрете. Например, многие внутренние ссылки обладают гораздо меньшим весом, чем какая-нибудь обратная внешняя ссылка. Особенно если они расположены в шаблоне страницы (меню или футере).
Некоторые внутренние ссылки могут быть более значимыми по сравнению с внешними. Это зависит от PageRank сайта, его популярности, трафика и других факторов. Например, внутренняя ссылка с домашней страницы с PR5 скорее всего будет ценнее, чем внешняя ссылка с Link Farm с PR0.
Подробности на WebmasterWorld.
Являются ли длинные урлы спамовыми?
Многие из вас, наверняка, видели подобные урлы - www.domain.com/4-star-hotel-in-barcelona-spain.php. Возникает вопрос: зачем нужны такие веб-адреса? Быть может это особая тактика, а не спам как мы ошибочно полагаем? Дискуссия по этому поводу появилась на форуме High Rankings Forum.
С одной стороны, если бы адрес выглядел так - www.domain.com/4-star-hotel-apartment-penthouse-keyword4-keyword5-keyword6-in-barcelona.php, - то тогда действительно это вызывало некое непонимание. Более того, ежедневно появляются тысячи подобных урлов!
На форуме Cre8asite Forums также обсуждается тема использования тире и подчеркивания в интернет-адресах. Как лучше: с ними или без? Безусловно, пользователям легче запомнить урлы без тире и подчеркивания. Люди ленятся прописывать дополнительные символы в веб-адресах, так как это требует дополнительных усилий и времени.
Подробности на High Rankings Forum и Cre8asite Forums.
Форумы – социальные медиа сайты?
Прежде чем продолжить чтение, как Вы сами считаете, являются ли форумы социальными медиа сайтами? Именно такой вопрос задал один из участников форума High Rankings Forum.
Как оказалось, единого мнения на этот вопрос не было. С одной стороны, форумы по своей сути социальны, так как собирают вместе людей со сходными интересами. Но в тоже время, форумы не приравнивают себя к социальным медиа сайтам, поскольку не хотят приобретать то негативное восприятие, которым обладают некоторые социальные веб-ресурсы.
Однозначно форумы появились раньше, чем социальные медиа. Но с другой стороны, социальные медиа служат такой же цели, как и форумы, предоставляя людям возможности обмениваться мнениями и идеями.
Подробности на High Rankings Forum.
Участвуете ли Вы в 3-х стороннем обмене ссылками?
Поскольку стратегии построения ссылок становятся все более сложными (по крайней мере, для некоторых), вебмастера ищут альтернативные способы «ссылкостроительства». На форуме WebmasterWorld участник рассматривает как вариант 3-х сторонний обмен ссылками. Конечно, это будут уже не прямые обратные ссылки, но он надеется, что, в конечном счете, сможет извлечь пользу и от такого обмена.
А Вы бы стали участвовать? Если Вы ищите обратные ссылки, то 3-х сторонний обмен ссылками ни чем не лучше. Более того, если Ваша цель – перехитрить Google, то Google тоже много чего знает.
Прежде чем начать 3-сторонний обмен ссылками, спросите себя, зачем он Вам нужен? Для того, чтобы помочь себе или пользователям? Если все-таки пользователям, то сначала подумайте, что им, в первую очередь, необходимо.
Подробности на WebmasterWorld.
Насколько важны тэги Header?
Участник форума High Rankings Forums интересуется, насколько для поисковых систем важны тэги Header (H1, H2, H3, H4…).
Ответ, вероятно, отрицательный: эти тэги не оказывают влияния на поисковые системы. Однако некоторые участники форума утверждают, что небольшое значение эти тэги все-таки имеют. В основном, конечно, не для поисковых роботов, а для пользователей.
Более того, если спамеры серьезно «возьмутся» и за тэги Header, то, скорее всего, для поисковых систем они потеряют всякий смысл.
Подробности на High Rankings Forums.
Мэтт Каттс делится знаниями Google о спаме
На конференции Web 2.0 Expo Мэтт Каттс поведал о том, что именно Google знает о спаме. Суммируя его сообщение, можно выделить следующие ключевые моменты: следует приобретать репутацию и умело пользоваться ею в своих проектах, следует мешать и препятствовать действиям спамеров и стремиться обезопасить от них свои проекты.
Он также добавил, что SEO сам по себе не является спамом. Если работать в стиле whitehat, то риск быть забаненным или наказанным сокращается до минимума.
Подробности на Sphinn и WebmasterWorld.
Преимущества использования прописных букв в урлах
На форуме WebmasterWorld обсуждаются преимущества написания урлов заглавными буквами. И вот какие мысли появились по этому поводу:
Возможно, что поисковые системы действительно обращают внимание на прописные буквы.
Заглавные буквы делают такие веб-адреса заметнее для пользователей.
Но есть и большой аргумент против использования больших букв – вероятность дублированного контента в разном регистре. Это особенно актуально для серверов IIS, которые при любом регистре возвращают статус «200 OK». Tedster отмечает, что «огромный минус использования смешанного регистра состоит в том, что можно с легкостью получить несколько проиндексированных урлов, ведущих на тот же самый контент».
Некоторые вебмастера на свое опыте убедились, что использование прописных букв помогает при работе с Google AdWords через A/B testing.
Подробности на WebmasterWorld.
«На моем сайте Google! Меня скоро накажут?»
На форуме WebmasterWorld один из участников пишет о том, что обнаружил на своем сайт Google IP. IP адрес исходит из местечка Mountain View и закреплен за Google. Владелец сайта предполагает, что какой-нибудь гуглер собственноручно просматривал его сайт.
Действительно, это мог бы быть гуглер, который вручную делал обзор сайта. А быть может гуглеру, как обычному пользователю, просто понравился этот сайт. А может быть и то, и другое вместе.
Как говорит сам обозреватель SERoundTable, его сайт 768 раз посетил google.inc (статистика от Google Analytics), и ничего плохого пока не произошло.
Подробности на WebmasterWorld.
Microsoft возвращает деньги пользователям
Пользуйся поисковой системой Microsoft Live и экономь свои деньги - новый девиз программы Microsoft’s Live Search Cash Back. Вы ищете товар с помощью Live, покупаете его и тем самым экономите свои деньги. Каждый раз при покупке товара Вам приходит подтверждение о возврате средств от Live Search. Когда сумма ваших возвращенных денег превысит $5, Вы можете требовать их перечисления на свой счет.
Подобный шаг Microsoft Live свидетельствует о том, на какие ухищрения приходится ему идти, чтобы увеличить свою долю в поисковой индустрии. Будет ли все это работать? Почему бы и нет. В интернете совершают покупки все больше и больше людей, и если они найдут в Live Search то, что ищут, то Microsoft ждет успех.
Подробности на Search Engine Watch Forums и Techmeme.
Источник: master-x
Популярность: 53%
Свежие комментарии