Реальный пиарВеб-сайтОптимизируем сайт → Основные правила web-оптимизации

Основные правила web-оптимизации

поисковая оптимизация

Существует несколько основных положений, которым должны следовать все поисковики. Они следуют определенным правилам потому, что ими управляют люди, а людьми управляют определенные законы природы. Несмотря на то, что существует много различий между роботами-пауками поисковиков по сравнению с обычной проверкой, осуществляемой людьми, в терминах масштабируемости, существует много схожего. Причем эта схожесть обусловлена тем, что вне зависимости от того, проводил ли индексацию и категоризацию человек или компьютерная программа (например, робот-паук), в конечном итоге, программа ведь тоже была составлена человеком и, с учетом уровня развития технологий в текущий период времени, она может делать только то, что ей было приказано. Робот-паук будет полностью имитировать деятельность человека, но он сделает это намного быстрее человека, при этом, не требуя наличия способностей, присущих высшим существам (т.е. человеку).

Мораль сей басни такова: если вы хотите добиться лучших рейтингов в результатах поиска, вне зависимости от того, проводит ли индексацию робот-паук или человек, вам просто надо "думать" как человек, а не как компьютерная программа. Логика, здравый смысл и вежливость по отношению к другому человеку всегда будут лучше, чем любой компьютерный язык. Если вы поймете, что вы работаете с реальными людьми, которые не так уж и сильно отличаются от вас самих, перестанете думать, что вы - всего лишь имя пользователя и пароль, пытающиеся обмануть компьютер, то уровень трафика (и, что намного важнее, уровень продаж) возрастет.

Я не хочу сказать, что у использующих роботов-пауков поисковиков нет слабостей, которые можно использовать в свою пользу (тоже относится и к индексируемым людьми директориями, но об этом позже). Конечно же, они у них есть. Стоит сказать, что, для того чтобы "увидеть" эти слабости и понять, как лучше их использовать в достижении своих целей, необходимо осознать то, насколько глупым является использование, например, скрытого текста, ре-директов и т.д. Как только вы поймете, что вы имеете дело с обычным человеком, хотя его присутствие и не настолько явно, то вам будет намного легче понять, чего хотел достичь этот человек, программируя тем или иным способом робота-паука. Понимание этого даст вам огромное преимущество по сравнению с вашими конкурентами и откроет двери в разумы тех людей, которые создавали индекс.

Случилось так, что я являюсь одним из самых успешных специалистов по продвижению сайтов на этой планете. Я не хочу называть себя "самым лучшим" или "гуру". Я просто говорю, что у меня много опыта в этой области, что вполне оправдывает мою репутацию. Я могу вам абсолютно ТОЧНО сказать, как достичь самых лучших результатов по любому поисковому термину. Готов поспорить, что среди читающих эту страницу пользователей есть те, кто может подтвердить мои слова, указав на свои странички, занимающие лучшие места в результатах поиска. Я смог это сделать, изучив и приняв основные правила web-оптимизации.
Так как мы собираемся обсуждать проблемы web-оптимизации, то я непременно буду помогать вам. Я считаю, что лучшее, что я могу сделать - это поделиться с вами этими основными правилами web-оптимизации. Будете ли вы им следовать или нет - это ваше дело. Мой любимый афоризм: "Я скажу вам, где находится золото, но добывать его вы должны сами".

Я уже неоднократно повторял, что я не несу ответственность, если вы следуете одному из моих советов и у вас ничего не получается. Я не имею ничего общего ни с одним поисковиком, кроме SearchKing. Я не получаю никакой информации, кроме предоставляемой по сделкам trusted feed или PPC (pay per click) сделкам. Поэтому, если вы делаете что-то, основываясь на моих словах, но результаты вас не устраивают, то не надо винить меня!
С другой стороны, как я уже говорил, я всегда рад принять благодарность в тех случаях, когда мои советы помогают. Но все же главной моей целью является предложение другой точки зрения на эту проблему, а не желание услышать благодарность от кого-либо. Основываясь на моем личном опыте, я всего лишь излагаю свою точку зрения в надежде вызвать размышления или споры на эту тему.
Так как любая беседа о техниках, используемых для получения лучших мест в результатах поиска, обычно превращается в жаркий спор или становится длительной дискуссией, каждый из участников которой пытается преподнести себя в лучшем свете, то данный доклад я постараюсь сделать как можно более "рациональным" как по содержанию, так и по объему. Я изложу те несколько правил, которые, как я считаю, являются полностью приемлемыми, и буду последовательным. Итак, первое правило.
Основное правило web-оптимизации №1.

Любой поисковый сервер всегда пытается отразить самую релевантную (с точки зрения самого сервера) информацию об имеющихся в его базе данных сайтах в ответ на отдельный запрос на основании критериев классификации, установленных самим поисковым сервером. Это главная цель существования поисковой машины.
Основное правило web-оптимизации №2.

При наличии времени и желания даже самый глупый человек всегда сможет одолеть самый умный компьютер.

Вы случайно не видели фильм "Парк Юрского периода"? В нем Джефф Голдблум говорит замечательные слова: "Жизнь найдет выход", которые неплохо описывают суть этого правила.

Все, что бы ни делал использующий роботов-пауков поисковый сервер, имеет свою модель. Поисковик делает все, имея определенную цель. Не важно, сколько переменных или насколько сложным кажется алгоритм, у него всегда есть модель, которую может понять любой человек, который может достаточно времени потратить на проверку всех переменных. Если вам слишком сложно это понять, значит, вы правы на 100%.
Роботы-пауки - это всего-навсего компьютерные программы, они мертвы. У них не бывает сомнений или предчувствий. У них отсутствует интуиция. Они не могут испугаться или устать. Они не сходят с ума от любви. Если их правильно запрограммировали, то они не сомневаются и не могут принести что-либо в жертву во имя великого добра. Они В ТОЧНОСТИ делают то, что им было приказано. Они являются лишь инструментами и не более того.
Как только вы это поймете, то у вас появится огромное преимущество перед машинами. Вы можете догадываться, представлять, делать вывод о том, что пытается сделать машина, а затем догадаться о ее возможных ответных действиях. Вы можете очень быстро проверять свои собственные теории и изменять их, а машине потребуется много времени и ресурсов, чтобы изменить свой алгоритм в попытке противодействовать действиям человека.
Основное правило web-оптимизации №3.

Использующие роботов-пауков поисковики не пытаются разместить самые лучшие страницы на самых лучших позициях. Вместо этого, они пытаются разместить самые плохие страницы на самых последних позициях.

Несмотря на то, что это утверждение с первого взгляда может показаться всего лишь вариацией на тему семантики, на самом деле, это самое поразительное открытие, которое я сделал, когда начал пытаться добиваться лучших позиций в результатах поиска поисковых машин, использующих роботов-пауков.
В начале, как и многие, я думал, что лучшие позиции принадлежат лучшим сайтам. Я пытался создать "лучший" сайт необходимой тематики. После нескольких неудачных попыток, до меня, наконец, дошло, что определение "лучший" является абсолютно субъективным. Что "лучше" для меня, не значит "лучше" для вас. По сути, если дело касается сайтов, созданных мной, по сравнению с сайтами, созданными вами, то спор на тему, чьи сайты лучше, гарантирован. Тоже относится и к человеку, который пишет программу, говорящую роботу-пауку, что ему надо "думать".

Как только я осознал, что понимание слова "лучший" субъективно, для меня стало важнее понять, что "лучше" для поискового сервера, а не цепляться за свою точку зрения. Я понял, что если я хочу добиться хороших результатов, то не важно, что думаю я, важна только точка зрения поискового сервера. Именно благодаря пониманию этого я начал заниматься инженерным анализом (reverse engineering) сайтов своих конкурентов.

По мере того, как я пытался найти модель в определении лучших результатов поиска, мне стало понятно, что казалось, существовало несколько признаков сайта, по которым поисковые сервера определяли "хорош" ли он для этого запроса. Самыми главными (вспомним, что дело было в далеком 1996 году) были ключевые слова в мета-тэге keyword, ключевые слова в тэге title и мета-тэге description. Как только я понял, что и где нужно искать, обнаружились также плотность ключевых слов, структура ссылок, тэги Н или такие смутные характеристики, как мета-обновление (meta refresh).

Просмотрев буквально тысячи сайтов в течение нескольких месяцев, я понял одно: сайты, появлявшиеся первыми в результатах поиска, были самыми страшными сайтами на этой планете. Голый белый фон, разноцветный текст, непропорциональные тэги Н - все это делало сайты первой десятки похожими на записку с требованием выкупа, написанную третьеклассником-двоечником. Все это нельзя было назвать торговым представлением. Никто не мог дать никакого объяснения по поводу того, какие характеристики использовались, когда эти сайты были признаны "лучшими".

Как? Как мог поисковый сервер так ошибиться? Затем мне все стало ясно. Нельзя написать программу, которая будет ставить плюсики документам, основываясь на эмоциональной реакции. Нельзя приказать программе разместить симпатичный сайт в первой десятке результатов. Нельзя заставить программу выделять сайты с легкой навигацией, потому что робот-паук не знает, что такое "легко". Итак, все эти прикольные современные мульти-медийные элементы web-дизайна и функциональность могут игнорироваться или быть наказуемыми, а то, что можно измерить математически, лишено всякой эстетической ценности.
Робота-паука можно легко запрограммировать на сложение и вычитание. Можно запрограммировать вычитание баллов, если определенный набор букв повторяется в определенных частях документа. Другими словами, сайту могут быть выписаны штрафные санкции, если одно и тоже слово несколько раз появляется в тэгах title или keyword, или многократно повторяется в невидимом тексте. Роботу можно приказать искать такие элементы как текст того же цвета, что и фон, но после всех этих лет самым светлым программистским умам придется придумать что-нибудь более подходящее, чем простое игнорирование мета-тэга keyword - и это лишь один пример ограниченности роботов-пауков. С другой стороны, нельзя увеличивать рейтинг сайта только за внешний вид или легкость в использовании. Или за больший объем продаж. Другими словами, за все то, что было бы принято во внимание человеком, прежде чем признать какой-либо сайт самым лучшим.

Мое решение написать программу, которая находила бы все "хорошие" сайты и размещала их в лучших результатах поиска, намного сложнее (если вообще выполнимо), по сравнению с написанием программы, которая находила бы самые плохие сайты и размещала их в последних результатах поиска.
Возможно, вы сейчас спрашиваете себя, какое отношение это имеет к тому, чем вы занимаетесь или как вы видите свои отношения с использующими роботов-пауков поисковыми серверами. Я лишь могу рассказать вам, какое воздействие понимание этой концепции оказало на меня, и надеяться, что вы хотя бы ее обдумаете.

И сейчас вы можете найти сотни форумов по web-оптимизации (что бы это ни было), на которых говорится, что если кто-то хочет добиться лучших позиций в результатах поиска, то все, что они могут сделать - это создать "самый лучший" сайт и постоянно производить обновления. Но мой опыт говорит мне, что это не так. Вам надо понять, что в определении "лучшего сайта" должно быть, по крайней мере, два участника - вы и тот, кто оценивает сайт. Причем значение имеет тот, кто оценивает сайт. Если ваше определение "лучшего" сайта отличается от определения "лучшего" сайта с точки зрения поисковика, то вы просто проиграете! Более подходящий совет звучит так: создайте сайт, который будет лучшим с точки зрения нужного вам поискового сервера. Согласитесь это совсем разные вещи.

Понимание этого принципа позволило мне осознать, что если моей главной целью является создание лучшего сайта И хорошие позиции в результатах поиска, то мое понимание слова "лучший" не имеет к этому никакого отношения. Я также понял, что чаще всего сайт, занимающий первое место в результатах поиска, не способствует превращению посетителей в клиентов. Я смог увидеть то, что скрывается за рекламной шумихой поисковиков, - все их недостатки, и научился справляться с ними. Я осознал важность установления целей для каждого конкретного сайта и научился достигать эти цели.

Если бы поисковики на самом деле могли писать программы, с помощью которых первые позиции в результатах поиска занимали бы лучшие сайты, то я бы выбрал бы совсем другой подход, но по крайней мере в обозримом будущем этого не случится. Поисковым машинам все также приходится полагаться на простой анализ исходных кодов и соответствующим образом изменять политику релевантности. Сейчас, благодаря, ссылочной популярности, они могут положиться на людей в том, что те сообщат роботам-паукам, что им нравится. Это, конечно же, улучшило ситуацию, но в целом система будет работать также, даже когда подсчитывается количество ссылок. Программа может провести проверку того или иного показателя, но она не может выделить хороший сайт. Значит, она не может разместить его на лучших позициях в результатах поиска, все, что она может - это определить сайт, который, по мнению разработчиков программы, является плохим, и разместить его на самых последних позициях.
Основное правило web-оптимизации №4.

Web-оптимизация (чем бы она ни являлась) никак не влияет на поисковики.

Однажды мне попалось определение web-оптимизации, согласно которому она являлась способом манипулирования поисковым сервером. Это не так. Если вы собрались добиваться первых позиций в результатах поиска по определенному поисковому термину, думая, что вы манипулируете поисковой машиной, то вы обречены на провал.
Думать, что вы заставляете поисковик что-то сделать - значит ошибаться. Думать, что вы что-то прячете от поисковика - значит ошибаться. Единственный способ добиться лучших позиций в результатах поиска - это понимание сути деятельности поисковика, ее принятие, оценка возможных последствий и рисков, а затем работа в этих границах.
Полное понимание смысла и принципа работы поискового сервера отнимает много времени и сил. Алгоритмы могут быть очень сложными. Насколько глубоко вы хотите копнуть - зависит только от вас самих. Именно этим победители и отличаются от проигравших. Причем ваш уровень интеллекта тут ни при чем. Все зависит от того, сколько времени и/или денег вы готовы потратить на то, чтобы изучить особенности определенного поисковика. Многие люди (я в том числе) в один прекрасный момент поняли, что лучше поверить мнению опытных людей, чем самостоятельно исследовать еще 100 страниц по еще 100 фразам в 5 поисковиках. К тому же не стоит забывать: успех влечет за собой новый успех. Как только вы начнете применять какие-либо правила, а ваш сайт будет занимать лучшие позиции в результатах поиска, то вы сами поймете, что действуете правильно и в дальнейшем будете самостоятельно принимать верные решения.
Манипулировать поисковиком могут только те, кто имеет доступ к админ-панели и/или исходному коду этого поисковика. Если у вас нет доступа к админ-панели, то вы не можете оказать никакого влияния на деятельность поискового сервера. Все, что вы можете сделать, - это создать сайт с такими характеристиками, которые, согласно вашему мнению, будут отвечать алгоритму. Это никак нельзя назвать манипулированием поисковиком, это всего лишь изучение принципов работы поисковика и манипулирование собственной страницей. И как бы страстно не отстаивали специалисты по web-оптимизации свою точку зрения, это факт! Никто не может "помочь" поисковику найти то, что ему нужно, точно также никто не может "заставить" поисковик сделать что-либо. Поисковые машины делают только то, что делают. Ведь это всего лишь машины!
Возможно, это и покажется кому-либо мелочью, но это то самое правило, которое разделило мнения общества специалистов по web-оптимизации. Непонимание этого принципа или нежелание его понять является причиной тому, что некоторые пытаются "спрятать" контент от поисковиков, думая, что им удастся их обдурить, а другие так воинственно сражаются с засоряющей поисковики армией спаммеров. И тем и другим не хватает именно понимания этого принципа.
Я не хочу принимать какую-либо из сторон. Я считаю этот спор бессмысленным и глупым. Я считаю, что это спор неудачников. Вы сами должны решать, что вам делать с моей информацией. Я делюсь ей, чтобы рассказать вам о том, как мне удалось добиться лучших позиций в результатах поиска, в надежде на то, что вы также сможете сделать свой сайт более успешным, превратив его в хороший ресурс в своей категории. Так что тем, кто хочет знать, как я этого добился, повторю: понимание и принятие этого правила - вот мое решение.


Источник: http://norge2008.narod.ru

Рекомендуем



Основные факторы, влияющие на релевантность сайта для поисковых систем Одним из распространенных заблуждение является то, что можно вычислить PageRank по этой формуле для отдельно взятого документа, используя известные значения PageRank для ссылающихся на него документов


В честь чего дают имена поисковым машинам? Впрочем, со временем прежнего симпатичного песика, быстро несущего палку, заменили более абстрактные символы, но название уцелело


Смогут ли поисковые роботы проиндексировать ваш web-сайт? Если вы используете меню DHTML на вашем сайте и хотите убедиться, какой эффект они оказывают на поисковые системы, попробуйте, выключить JavaScript в броузере - выпадающая часть вашего меню исчезнет и есть вероятность того, что с ней пропадет и верхнее меню