Новая ошибка в Google Sitemaps – “динамический контент”

Некоторые вебмастера обнаружили в Google Webmaster Tools новый вид ошибок в Sitemaps: «Все отмеченные в файле Sitemap URL-адреса содержат динамический контент». Интересные дискуссии по этому поводу появились на форумах WebmasterWorld и Google Groups.

Никто точно не знает, что именно влияет на появление подобной ошибки. От Google никаких разъяснений тоже пока не поступало. Но весьма интересную версию на этот счет выдвинул участник Google Groups Фил Пейн (Phil Payne):

Если Google что-то делает, то делает это для чего-то. “Поскольку поисковым системам трудно индексировать динамический контент, это может как-то отразиться на положении Вашего сайта в поисковых результатах.” Возможно, этим Google хотел сказать, что размещение неверной информации в Sitemap может повлечь за собой пенальти.

Поэтому важно знать, что Sitemap отображает содержимое сайта.

Подробности на WebmasterWorld и на Google Groups.

Значение коротких и длинных поисковых запросов в SEO

Сегодня пользователи интернета подходят к вопросу поиска с умом. Теперь они не вводят в строку запроса «автомобиль», когда хотят взять в аренду или купить новую машину. Они делают более точный запрос, например, lexus es 350. Сейчас для поиска более подробной информации серферы используют фразы из несколько слов. Именно этой теме была посвящена одна из дискуссий на форуме WebmasterWorld (доступ платный).

В топике также затрагивается вопрос о сокращении количества трафика у оптимизаторов, нацеленных на короткие запросы. Затем разговор переходит в обсуждение сфер использования ключевых фраз. Так, в областях, где ищущий не очень знаком с предметом поиска, короткие кейворды очень важны. Но для хорошо осведомленного пользователя подобные поисковые запросы уже менее значимы.

Подробности на WebmasterWorld (доступ платный).

Какой у Google алгоритм доверия в поиске?

На форуме WebmasterWorld Крис Боггс (Chris Boggs) поделился своими мыслями по поводу факторов доверия Google. Всем нам известно, что у Google есть различные “minus X” пенальти и большинство из нас полагают, что рейтинг сайта зависит, в том числе, и от «степени доверия» Google. Чем ниже эта степень, тем ниже позиции в результатах поиска. В топике WebmasterWorld делятся предположениями о том, какие факторы могут влиять на эту степень.

Были отмечены следующие параметры:

  • Возраст сайта
  • Возраст входящих ссылок
  • Вид входящих ссылок
  • Исходящие ссылки
  • Page Rank
  • Содержимое сайта
  • и другие…

Безусловно, нельзя выявить все влияющие факторы и, тем более, определить степень их значения для Google.

Подробности на WebmasterWorld.

Что Google делает с теми, кто дублирует контент?

На Google Webmaster Central blog Свен (Sven), сотрудник Search Quality Team, рассказывает о том, как Google обращается с дублированным контентом. При перепубликации материала Свен советует размещать ссылку на оригинал:

Когда Вы согласны на перепубликацию Вашего контента и хотите быть уверенным, что Ваш сайт опознают как оригинальный ресурс, следует просить Ваших партнеров размешать у себя ссылку на оригинал.

Если же дублированный контент ранжируется выше, чем оригинал, возможно, с Вашей стороны есть техническая проблема (редкий случай). Следует проверить не заблокировали robots.txt Ваш контент, проверить файл Sitemap на наличие каких-либо изменений или удостовериться, что Ваш сайт соответствует всем требованиям Google Webmaster Guidelines.
В заключении Свен всех обнадеживает:

Я хотел бы отметить, что в большинстве случаев, наличие дублированного контента не влияет на ухудшение позиций Вашего сайта в Google. Google сам отфильтрует и выкинет дубликаты.

Однако участников WebmasterWorld Свен не убедил в безобидности ворованного материала. Так, например, весьма спорным выглядит заявление о том, что более высокое ранжирование дублированного контента, а не оригинала, является «редким случаем» (не говоря о проблеме технического плана, которую можно самим решить).
Tedster сделал весьма интересное замечание на этот счет: возможно, Google исправит ситуацию в 99% случаев, но именно Вы попадете в этот самый один процент, кому не повезло!
Другой участник форума предположил, что иногда дублированный контент скрывают и для Google порой трудно определить, какой именно сайт владеет оригинальным материалом:

Наша самая большая проблема – скреперы, которые берут наш контент и размещают его на своих сайтах. У них хорошо получается выдавать себя за первоисточник, создавая, тем самым, сложности для Google.

В итоге, вебмастера согласились, что избежать действий скреперов сегодня нелегко, так как с каждым днем они становятся все хитрее и хитрее.

Подробности на WebmasterWorld.

Инструменты для нахождения текстов обратных ссылок

На Search Engine Journal Анн Смарти (Ann Smarty) говорит о том, как выявление обратных ссылок конкурентов может помочь Вам при построении ссылок и с поиском ключевых слов. Она перечисляет следующие инструменты:

  • BacklinkWatch
  • Smart Backlinks
  • Analyze Backlinks
  • Link Diagnosis

Какой из них Вы предпочтете?

Подробности на Sphinn.

Google Sitemaps: действительно ли они важны для SEO?

Оптимизаторы уже ни раз обсуждали значение Sitemap в Google. По мнению обозревателя SERoundTable, если у сайта очень слабая навигация, то Sitemap, возможно, единственная альтернатива этому. Тогда возникает вопрос: а для хорошо оптимизированных сайтов какой тогда прок от Sitemap? Именно этой теме посвящена дискуссия на Google Groups.

Гуглер ДжонМу подробно рассказывает о том, как Google использует Sitemaps и почему вебмастерам следует сабмитить их в Google. Например, написание даты последней модификации в файле Sitemap может помочь Google быстро найти изменения на сайте и проиндексировать их. Также, если Вы даете Google «разумную» информацию в Sitemap, то есть не перечисляете все свои страницы как самые важные страницы сайта, то такая информация может быть полезной для Google.

По мнению одного из обозревателей SERoundTable, хорошо оптимизированные «on-page» сайты не получают никакой выгоды от Google Sitemaps. Хотя в то же время, информация о Вашем сайте в файле Sitemap для Google лишней точно не будет. Однако, стоит помнить, что доступ к этой информации, помимо Google, имеют и Ваши конкуренты. Так что решать Вам пользоваться этим файлом или нет. Возможно, стоит попробовать и понаблюдать несколько месяцев, чтобы принять окончательное решение.

Подробности на Google Groups.

Для описания изображений Google предпочитает атрибут Alt

Если бы пришлось делать выбор между использованием в изображениях атрибута Alt или атрибута Title, обозреватель SERoundTable отдал бы предпочтение первому. Aтрибут Alt - «альтернативный текст», описывающий Вашу картинку.

В одном из топиков на Google Groups гуглер Рид (Reid) уделил внимание атрибуту Alt, который может быть также дополнен атрибутом Title. Однако, Рид не стал утверждать, что Google «фокусируется» именно на этом параметре, когда дело касается картинок. Он также дал ссылку на пост Мэтта Каттса Умелое использование атрибута ALT, размещенного на Google Webmaster Central Blog.

Подробности на Google Groups.

Onsite SEO отмирает?

Marketing Pilgrim недавно опубликовал пророчество о скором отмирании onsite SEO. Автор говорит о том, что чем больше поисковые службы получают прибыли, тем больше «светлых умов» они заполучают в свой штаб. Более того, новые технологии, такие как OCR (Optical Character Recognition – Оптическое Распознавание Символов), в будущем, возможно, устранят необходимость в поисковой оптимизации.
Search Engine Journal, наоборот, опроверг эту гипотезу. Даже при наличии OCR технологии, позволяющей компьютерам «читать» текст с изображений, «все равно будет контент для опознания поисковыми роботами, поэтому оптимизация, какая никакая, будет необходима».
Участники дискуссии на Sphinn согласны с Search Engine Journal: onsite SEO будет жить! А такие как Джил Вален (Jill Whalen) считают, что этот вопрос уже давно решен - SEO мертв.

Подробности на Sphinn.

Безопасные тактики получения ссылок

О построении ссылок говорят очень много. Google любит кошерные ссылки. Пользователи любят релевантные ссылки. Не совсем еще ясен вопрос с платными ссылками и ссылками из сомнительных мест, но в любом случае, если пользоваться ими умело, результаты не заставят себя долго ждать. Дискуссия на эту тему появилась на форуме WebmasterWorld.
Существует несколько тактик добавления ссылок: пресс-релизы, социальный букмаркинг, блог посты, сабмит статей, общение на форумах, получение релевантных ссылок с .edu и библиотечных сайтов, публикация исследований (Мэтт Каттс), а также создание и размещение хорошего контента, на который пользователи будут ссылаться.

Подробности на WebmasterWorld.

Запущен Google Map Maker

На Google Groups сотрудник Google Maps Брайн (Brian) сообщил о запуске Google Maps Maker, сервисе «который позволяет добавлять или изменять свойства: дороги, компании, парки, школы и другие». Но как оказалось, можно изменять данные только у тех стран, информации по которым недостаточно (Бермуды, Ямайка, Барбадос и т.д.).
О том, как добраться до этого сервиса, поведал Грег Стерлинг (Greg Sterling) на Search Engine Land.

Подробности на Google Groups.

Перемещение графиков в Google Webmaster Tools: статистика индексирования перешла в раздел статистики

Из обсуждения на WebmasterWorld стало известно, что Google изменил расположение графиков статистики индексирования. Как уже сообщалось ранее, Google изначально размесил статистику индексирования в «Tools» и «Set crawl rate» (не самое лучшее место для этого). Потом он переместил ее в раздел «Статистики» -> «Статистика кроулера» (Crawl Stats), где раньше находились лишь данные PageRank.
О другом небольшом изменении стало известно из Google Groups. Как оказалось, эти графики могут показывать данные месячной давности по текущий день. До этого отображались данные за прошлые месяцы, не включая последний текущий месяц.

Подробности на WebmasterWorld и Google Groups.

Google запускает Ad Planner – что на самом деле Google знает о Ваших сайтах

Google объявил о запуске Google Ad Planner. Ad Planner это тот же сервис, что и Google Trends for Web Sites, но только гораздо лучше. Этот инструмент предоставляет информацию о сайтах, на которых Вы, возможно, хотели бы разместить свою рекламу. Вы сможете «посмотреть демографические характеристики аудитории и сайты, которые посещает Ваша целевая группа. Этот инструмент отображает сайты, которые Ваша аудитория, вероятно, также захочет посетить».
Как же можно получить доступ к Ad Planner? Регистрация происходит только по приглашениям, которое Вы можете запросить здесь.

Подробности на DigitalPoint Forums.

UPDATE: обозреватель SERoundTable получил доступ к Ad Planner и выложил «снимки» инструмента здесь.

«Тематическая ссылочная пирамида»

Модератор WebmasterWorld MartiniBuster дает ценные советы по «тематической ссылочной пирамиде». Он говорит, что ссылочный текст должен соответствовать странице, на которую он ссылается (внутри страницы должна быть такая фраза). Хабы должны представлять нечто большее, чем просто страницы со ссылками, а главная страница не обязательно должна быть самой релевантной страницей сайта по данной тематике. Он добавляет, что также важно фокусироваться на «длинном хвосте» (The Long Tail).
Некоторые вебмастера хотят иметь ссылку именно на главную страницу, а не на другие страницы сайта. Они полагают, что ссылки на внутренние страницы могут со временем перестать работать. Но ведь в таких случаях всегда можно воспользоваться 301-ым редиректом.

Подробности на WebmasterWorld.

Как писать код, дружественный для поисковых систем?

На Search Engine Land Джонатан Хокман (Jonathan Hochman) перечислил 12 советов по написанию кода, дружественного для поисковых систем. Вот некоторые из них:

  • Не повторяйтесь – используйте SSI и другие технологии для избегания повторов одних и тех же текстов на сайте
  • Размещайте JavaScript во внешних файлах и при необходимости используйте повторно
  • Пользуйтесь валидатором для проверки документов
  • Используйте одно-два предложения в Meta Description
  • и так далее…

Однако Джил Вален (Jill Whalen) утверждает, что все эти советы никак не влияют на ранжирование сайта. Возможно, она и права. Главное, что нужно усвоить, - важно делать сайты, в первую очередь, для пользователей, а не для поисковых машин! Сайт с дружественным для поисковых служб кодом это тот сайт, который получает больше ссылок, которые, в свою очередь, положительно влияют на его поисковые позиции.

Подробности на Sphinn.

Google сообщает, что у Yahoo Directory есть свой PageRank

Некоторое время на форуме на WebmasterWorld заявили, что у Yahoo Directory нет PageRank. Мэтт Каттс быстро прокомментировал этот вопрос, сказав, что Yahoo Directory не только обладает PageRank, но даже сообщил его значение – 8. В данном случае Мэтт ссылался на главную страницу. PageRank есть, но он не отображается из-за различия регистров верхнего и нижнего в URL-адресе страницы.

Подробности на WebmasterWorld.

SEO-дебаты о значимости первого ссылочного текста в Google

Некогда на форуме Sphinn велась дискуссия на тему ссылочных текстов. В частности, пытались ответить на вопрос: что в Google имеет значение: только первый ссылочный текст на страницу с конкретным URL-адресом или же все ссылочные тексты, которые ссылаются на тот же URL-адрес?
Например, сначала мы сослались на Big Blue Pineapple Chair со ссылочным текстом Big Blue Pineapple Chair. Во второй раз мы также сослались на этот URL-адрес, но в качестве текстовой ссылки использовали Big Blue Pineapple Chair. Как в таком случае поступит Google: посчитает как вторую ссылку? Очевидно, нет.
Новое обсуждение на Sphinn появилась после публикации поста Разоблачение: только первый ссылочный текст имеет значение в Google. Участники дискуссии согласились, что эта теория не стала разоблачением, а по-прежнему требует дополнительных подтверждений. Несколько оптимизаторов взялись за тестирование данной версии, о результатах которого обязательно расскажем.

Подробности на Sphinn.

Использование URL-адреса для видео в Google Video Sitemaps

С момента запуска Google Universal Search тема поисковой видео оптимизации стала очень актуальной. Одно из обсуждений на Google Groups посвящено вопросу о том, как улучшить доступность видео для поиска в Google.
В Google Video Sitemap использование тэга является необязательным для индексирования и размещения Вашего видео. Но как стало известно из дискуссии на Google Groups, не всегда!
Так, один вебмастер никак не мог понять, почему его видео не было проиндексировано. Спустя какое-то время ДжонМу дал ответ на этот вопрос:

Я дважды проверил видео и, судя по всему, для Ваших URL-адресов следует указывать валидный video:content_loc, чтобы Google мог сразу опознать видео. В целом, этот тэг используется по личному усмотрению, но в некоторых ситуациях мы не можем сразу найти контент. Если Вы укажите его, то это в значительной степени ускорит процесс.

Итак, в одних случаях использование тэга является необязательным, в других – просто необходимым. Немного странно, что Google не может указать, в каких именно ситуациях его нужно прописывать, в каких – нет:

Каждое видео уникально, поскольку обладает уникальным URL-адресом, который указывает на местоположение видео файла или, при его отсутствии, URL-адресом, ведущего на проигрыватель для видео. Мы настоятельно рекомендуем использовать один из этих тэгов: или . Если тэг не прописан и мы не можем найти необходимые сведения, то Ваше видео останется не проиндексированным.

В данном конкретном случае, даже эти тэги не помогут, так как это pay-per-view видео. Видимо, Джону придется немного потрудиться, чтобы решить эту проблему.

Подробности на Google Groups.

Google рекомендует иногда разбивать Sitemap на несколько файлов

Как стало известно из Google Groups, один вебмастер использовал всего один файл для всего Sitemap контента. В нем он сортировал geo-данные, используя тэги . При создании Google Sitemap появилась ошибка - «Status: Invalid XML tag». Но как сообщает вебмастер, этот тэг было валидным.

ДжонМу предложил ему разделить geo-контент в Sitemap на файлы. По его словам, следует «разбивать URL-адреса на отдельные Sitemap файлы по контенту, на который они ведут. Стоит сделать один Sitemap файл только для geo-контента и еще один файл для “(X)HTML/ web-search based content”. Для Google такая система облегчает опознавание контента, на который Вы указываете, и обеспечивает его правильное истолкование.»

Подробности на Google Groups.

Диагностика проблем сайта: перечень полезных инструментов

Диагностика сайта может выявить самые различные факторы, по которым возможны проблемы сайта. В основном они являются типичным и их легко обнаружить. Ниже представлены полезные инструменты, с помощью которых можно найти и исправить неполадки.
Firefox Link Counter Extension предоставляет полезную информацию по ссылкам.
Google Sets отображает «похожие» веб-страницы.
Google Webmaster Central + Xenu’s Link Sleuth проверяют работу редиректов.
Google Webmaster Central отображает то, что Googlebot видит, посещая Ваш сайт.
Googlebar (not Toolbar) отображает кэш Google.
Live HTTP Headers показывает статус HTTP-заголовка.
NoScripts add-on отключает выполнение скриптов для выявления неполадок.
SEOmoz’s SEO Toolbox предоставляет целый спектр инструментов для диагностики проблем сайта.
www.web-sniffer.net. показывает статус HTTP-заголовка сервера.
www.seebot.org. отображает веб-страницы так, как их видят поисковые машины.
Xenu’s Link Sleuth индексирует href-ссылки так, как это сделали бы поисковые машины, и помогает в создании Sitemap.
Подробности на SERoundTable.

Какова допустимая длина мета тэгов?
Участник форума Cre8asite Forums интересуется, существует ли максимальная длина мета тэгов.
Большинство поисковых систем не придают значения длине мета тэгов. Более того, недавний судебный процесс постановил, что мета тэги не играют никакой роли для поисковиков. Однако, некоторые вебмастера все равно ограничивают себя, прописывая в тэгах около 60 символов.
А есть еще и те, для которых идеальная длина таких тэгов … 0 символов. Если хорошо поразмышлять, то можно даже найти свои плюсы (например, меньше передачи данных). Наличие же мета тэгов, наоборот, приводит к тому, что конкуренты дублируют Ваши ключевые слова, и в итоге, ранжируются лучше. Google же никаким образом не учитывает такие тэги.

Подробности на Cre8asite Forums.

Могут ли меня наказать, если на моей домашней странице много ссылок?

Участник Google Groups опасается, что его PageRank понизился из-за большого количества ссылок на его главной странице.

Прежде чем предаваться размышлениям о возможных пенальти, подумайте сначала о практичности этих ссылок. Помогают ли они посетителю Вашего сайта или, наоборот, только запутывают его? PageRank тут совсем не причем, важно – насколько они полезны для пользователя. Даже если ссылки распределены по категориям, при их огромном количестве они по-прежнему не совсем удобны в использовании.

Что касается этого конкретного случая, то PageRank не зависит от количества ссылок на главной странице. Например, на него могли повлиять входящие ссылки. В принципе PageRank меняется не из-за действий самого вебмастера, а из-за изменений качества и количества входящих ссылок, которые он не в силах контролировать.

Подробности на Google Groups.

Google Trends for Websites: стоит ли им пользоваться?

Google Trends for Websites (GTfW) – сервис, который показывает посещаемость по уникальным посетителям сразу по нескольким сайтам, отображает информацию по поисковым запросам пользователей и находит «похожие» сайты.

Google Trends for Websites позволяет сравнивать показатели нескольких сайтов. Например, можно узнать, как различные сайты соотносятся друг с другом. К сожалению, для поддоменов эта функция пока не доступна.

Находить «похожие» сайты тоже очень важно при поиске ресурсов, каким-либо образом связанных с тематикой Вашего сайта. Таким способом можно также находить партнеров по обмену ссылками и рекламодателей.

Забавно, но какой бы полезный сервис Google ни придумал, всегда найдутся недовольные. Так, например, на различных форумах можно встретить заголовки обсуждений: Google Trends пополнил список неточных сервисов по подсчету трафика, Google Trends for Websites? Не круто, Google и Двухуровневый мир интернета Google опустился еще на уровень ниже. Запуск этого сервиса вызвал множество негативных постов на блогах. Некоторые заявляют, что этот инструмент неудачный, поскольку работает не со всеми сайтами; другие, потому что он не работает с google.com, в частности.

Насколько полезен этот инструмент и пользоваться им или нет, решать именно Вам.

Подробности на Sphinn, Search Engine Watch Forums, DigitalPoint Forums и также на Matt Cutt’s Blog.

Порнография продолжает проникать в Google Web Search через Universal Search

В продолжение темы про порнографию на Google и борьбу, которую он ведет с ней. На сегодняшний день это действительно проблема. Например, если ребенок сделает запрос в Google «new bathroom» (новая ванная комната), то результат может оказаться весьма неоднозначным и содержать изображения адалтной тематики.

К изображениям в результатах поиска Google также добавил ссылку «Report images», которая позволяет сообщать об иллюстрациях оскорбительного характера. Для этого нужно нажать на саму ссылку и подтвердить наличие подобного изображения, а в ответ получите благодарность от Google:)

Подробности на DigitalPoint Forums.

Негативный SEO еще возможен?
В прошлом году мы рассматривали возможные варианты негативного влияния SEO на сайты. Толчком этому разговору послужила дискуссия на Forbes article on the saboteurs of search. Год спустя мы по-прежнему обсуждаем этот вопрос. Из форума WebmasterWorld мы узнали, что до сих пор существуют способы понижения чужих сайтов и их позиций, начиная с захвата контроля DNS конкурента и заканчивая удалением страниц с Вашего сайта вручную. К сожалению, с каждым днем появляются все новые способы саботажа: от клоакинга и нанесения ущерба репутации до размещения скрытых ссылок и паразитирования хостинга (прим.ред. возможно, имеется ввиду несанкционированное размещение страниц на сайте конкурента, используя дыры в скриптах).

Правильно заметил один из вебмастеров, нужно самому защищать свой сайт, поскольку Google не всегда способен помочь. К сожалению, не многие знают, как это можно сделать. Tedster перечисляет несколько возможных приемов: изменение UserAgent, отключение Cookies и Meta Refresh и так далее.

Подробности на WebmasterWorld.

Что делать при появлении 404 ошибки?

На Search Engine Land Рей Хоффман (Rae Hoffman) написал что нужно делать, когда одна из Ваших ссылок выводит 404 ошибку. Вы можете сделать релевантный 301-ый редирект, создать дружественную 404 страницу или специальную не-404 страницу для выявления битых ссылок. Рей также говорит о плюсах и минуса этих вариантов.

Очень важно исправлять битые ссылки. На форуме Sphinn Ванесса Фокс (Vanessa Fox) говорит о том, что 404 ошибки можно проверить с помощью Google Webmaster Tools. Внутренние ссылки можно исправить самому, но для исправления внешних нужно связываться с партнерами.

По словам Ванессы и Рея, главное это избежать индексирования страниц 404 ошибки:

Единственная проблема с редиректами, начиная от 301-го и заканчивая 200-м, состоит в том, что поисковые роботы могут подумать, что все несуществующие страницы – реальные страницы. Это, в свою очередь, может повлечь за собой печальные последствия. Как правильно отметил Рей, страницы 404 ошибки будут обязательно проиндексированы .

Наверное, стоит быть повнимательнее при выборе этих способов.

Подробности на Sphinn.

Для чего Google рассказал всем о том, что для борьбы со спамом он, возможно, будет использовать Cookies?

На официальном блоге Google Мэтт Каттс опубликовал очередной свой пост Использование информации для борьбы со спамом. Он описывает, каким образом использование журнала событий, IP-адресов и содержание файлов Cookies помогает предотвратить появление спама при поиске. Вопросом, которым задаются на форумах, - «Зачем Google озвучил эту информацию?

Вот отрывок из сообщения Мэтта:

IP-адрес и содержание Cookie - очень важная информация, которая помогает нам распознавать, кто сделал запрос: реальный пользователь или робот. Например, если робот неоднократно шлет один и тот же запрос в Google, то эти запросы должны быть исключены еще до того, как мы определим, сколько спама получили наши пользователи. Именно журнал событий, IP-адреса и содержание Cookies делают Ваши поисковые результаты чище и более релевантными.

Мы все помним, что когда-то Google пообещал быть более открытым о своей деятельности, в том числе, об алгоритмах поиска. Надо понимать, что он ни в коем случае не стал бы делиться информацией, которая могла бы навредить качеству поисковых результатов. По большому счету, Google хотел этим сказать, что он использует эту доступную информацию, чтобы посмотреть улучшается ли качество поиска или нет. Мэтт также приводит хороший пример, как использование этой информации помогло оставить незамеченным для рядовых пользователей огромное количество порнографического контента, наводнившего Google.

Подробности на WebmasterWorld и Sphinn.

Yahoo прекратил поддержку сервиса Overture Keyword Suggestion Tool?

По-видимому, этот день настал: Yahoo остановил работу сервиса Overture Keyword Suggestion Tool. Теперь при посещении inventory.overture.com постоянный редирект перенаправит Вас на http://sem.smallbusiness.yahoo.com/searchenginemarketing/.

В принципе это событие было предсказуемо. В последнее время появлялось много сообщений о выходе из строя этого сервиса и других его проблемах. Вот некоторые из них:

  • Overture Keyword Suggestion Tool выходит из игры? Январь 29, 2021
  • Overture Keyword Selection Tool снова возвращается Февраль 2, 2021
  • Скоро появится новый бесплатный Кeyword Tool от Yahoo; Overture Keyword Tool под вопросом, как и другие инструменты Январь 31, 2021
  • Yahoo убирает UK Overture Keyword Suggestion Tool Май 2, 2021
  • Yahoo прекратит обновление Overture Keyword Suggestion Tool Май 8, 2021
  • Yahoo работает над новым Keyword Tool совместно с Search Volume Data? Май 10, 2021
  • Overture Keyword Suggestion Tool похоже мертв Сентябрь 17, 2021
  • Overture Keyword Suggestion Tool снова вернулся Сентябрь 24, 2021
  • Проблемы с сервисом у Overture’s Keyword Tool Декабрь 6, 2021

Подробности на WebmasterWorld.

Какой скрытый flash-контент разрешен?

В одном из обсуждений на Google Groups попросили озвучить более четкие рекомендации в отношении скрытого flash-контента. Иногда вебмастера целиком и полностью сосредотачиваются на динамическим контенте и не хотят терять индексацию. Так, один из них отображал контент в Flex приложении, где использовался PHP и динамическое внешнее связывание. К сожалению, его контент не был проиндексирован, и как полагает сам вебмастер, возможно, его наказали.

Как считают участники дискуссии, пенальти здесь не причем. Быть может, это какая-то техническая проблема, поскольку роботы не всегда могут распознать flash-контент. Поэтому специально для поисковых машин нужно создавать обычную html-страницу с содержимым flash-контента. Пенальти в таком случае могло быть применено, если бы тактика вебмастера была спамовой или сомнительной. Как говорит гуглер Берги (Bergy):

Использование Flash само по себе не является нарушением Webmaster Guidelines. И просто так мы не наказываем сайты за его применение.

Из всего вышесказанного можно сделать следующий вывод: если Ваш сайт содержит много flash-информации, стоит ее также сохранять и в html-формате. Тогда роботы смогут без проблем проиндексировать Ваши страницы.

Подробности на Google Groups.

Источник: master-x

google.com bobrdobr.ru del.icio.us technorati.com linkstore.ru news2.ru rumarkz.ru memori.ru moemesto.ru

Популярность: 34%