Авторское право © WWW : ZooM*ka
Перепубликация материалов, возможна только с устного или письменного разрешения Администрации сайта !
Название статьи , Опубликовано Публикации » Интернет » Индексация сайтов, нюансы и рекомендации
22 Май 2009 18:05

Индексация сайта: проблемы и пути решения. Существуют особые тонкости и программы, зная которые, любой желающий сможет самостоятельно развивать направление продвижения и разработки сайтов.Идея создания Интернет заключается  в возможности доступа к любой информации,  путем перемещения по ссылкам. Пользователь, находясь в любом месте и имея доступ в сеть, может ввести запрос по поиску интересующей его информации. С развитием компьютерных технологий объем потока сведений в Интернет начал расти огромными темпами: становится больше сайтов, специализирующихся по различным темам, все больше посетителей.

Конечно, в таком потоке информации каждый владелец, заинтересованный в продвижении сайтов, будет стремиться привлекать посетителей. Недостаточно создать только картинку, важно грамотно проиндексировать ресурс в поисковике. Это действие можно выполнить самостоятельно, с помощью добавления сайта через специальную форму поисковой системы. Сама индексация осуществляется роботами, каждый из которых исполняет определенную нагрузку: поиск и идентификация информации, определение доступности страницы, зеркальности сайта и т.д.

Наиболее быстро дойдет интернет реклама до потенциальных клиентов в том случае, если сайт будет на первых позициях в поисковике. Это достигается релевантностью и индексом цитируемости. Поисковый робот анализирует страницу на предмет ключевых слов, а также обращает внимание на количество ссылок. Когда сайт проиндексирован, необходимо научиться им манипулировать. На данный момент существуют различные программы, позволяющие его оптимизировать и продвинуть, совместимые с разнообразными поисковыми системами: весьма популярные инструменты – robots.txt или Semonitor.

Первый  широко используют в поисковой системе Яндекс. Это текстовый файл, в котором указаны инструкции, предназначенные для работы поискового робота. С помощью robot.txt можно задать адреса, которые должны быть проиндексированы.

Иногда бывает что из-за неверного написания или незначительной ошибки web-мастера, сайт может быть упущен роботом - это ведет к потере потенциальных клиентов. Причины могут быть разные:
- использование скриптов и тэга, делающих работу поисковика затруднительной. Script не исполняются роботами, соответственно страница  не может быть проиндексирована;
- зазеркаливание страниц, к которому относятся дубликаты, схожие ссылки, плагиаты;
- ложные ответы сервера;
- работа идентификатора может быть замедлена  из-за работы с не информативными документами, т.е. картинками, фотографиями. Для того чтобы ускорить процесс, в программе robots.txt возможно запретить к индексации некоторые разделы содержащие  одноименные названия и промежуточные файлы.
Для избежания подобных ошибок необходим грамотный подход и постоянный мониторинг идентификации сайта в автоматическом режиме.

URL / WWW
http://medvedev2008.ru/article/a-206.html