Самостоятельное создание сайта
Самостоятельная раскрутка и продвижение сайта

Про валидность сайтов

После создания сайта, как правило, все начинают продвигать его в поисковых системах. Любыми способами увеличивать релевантность страниц (рейтинг страниц которые отображаются пользователю по результатам поиска) и в результате повышать вес сайта и его ценность, что в свою очередь увеличивает количество посетителей и влияет на стоимость размещенной платной рекламы.

   На вопрос как влияет валидность кода (написание разметки по строгим правилам) странички на релевантность и восприятие ее поисковыми ботами в Интернете расписано не очень однозначно. Например, на сайте Google в интсрументах вебмастера предлагается осуществить сканирование страниц на выявление ошибок в коде. Странички моего сайта постоянно подлегали самой разнообразной модификации, но ошибки в коде Google не выявлялись, если отображение страниц было нормальным, независимо от способа вывода кода (в нарушение всех правил валидности). Ошибки выявлялись только в случае отсутствия необходимых тегов, например, title). Отсутствие определения документа, также, не мешает ботам считывать страницы.

   В про процесе работы над созданием сайта мной использовался редирект (переадресация странички с помощью метода GET) для передачи переменных из Javascript в Php, и так, как это происходило при первом попадании на сайт, то было воспринято Google довольно негативно (перестали индексироватся странички), хотя до этого почти всем страницам был присвоен PageRank. В таких случаях используйте все возможности Javascript или другие пути передачи данных.

   Согласно статистическим данным, если проверить на валидность сайты которые входят в первую 20-ку рейтингов различных поисковых систем по одинаковым поисковый запросам (на ваш вкус), то как правило, лишь не больше 2% сайтов полностью удовлетворяют спецификации W3C, около 60% сайтов содержат некритические ошибки/предупреждения, 35% - имеют грубые ошибки.
   Если провести сравнение между поисковыми системами и их отношению к такому критерию сайтов как его валидность, то на первом месте бдительности будет Google (6/10 сайтов с грубыми и некритическими нарушениями), Яндекс (8/10) и Рамблер (9/10).

   Таким образом, выводом этой маленькой статьи, есть предположение о том, что поисковые роботы мало обращают внимание на валидность документов и больше отдают предпочтение качественному контенту. Не забывайте, также, избегать использования редиректа (автоматической переадресации страницы).

286
3.2 9
Рейтинг: +3.2 , голосов 9
Вы еще не голосовали!
Добавить комментарий
Удалить ответ

Ваш почтовый ящик никогда не будет опубликован
Трудно разобрать цифры? Нажмите на рисунок, чтобы обновить.

Комментариев еще нет, Вы будете первым!

Дополнительно

» С чего начать сайт?

» Установка программ

» Пример создания сайта

» Хостинг и домен

» Оптимизация сайта

» Раскрутка сайта

» Заработок web-мастера

» Примеры PHP/Javascript

» Блог и мои записки

Последние новости

Статьи по рейтингу

» Особенности покупки контента 5.0 1
» Выбор хостинга 4.8 5
» Поисковые системы 4.7 9
» Курс молодого web-мастера 4.6 21
» Где взять бесплатные ссылки 4.5 11
» Что такое сниппеты 4.5 6
» Addstudio - SEO модуль 4.5 4
» Отладка js и CSS 4.4 14
» Стратегия дохода на Sape.ru 4.3 3
» Каталоги и биржи статей 4.3 4