e.motion
Featured, Статьи

Во первых строках…

Автор: Дмитрий Смирнов
Опубликовано в журнале «Домашний компьютер» №10 от 3 октября 2007 года.

Вы видите эти буквы, вы умеете читать, и, конечно, у вас есть компьютер. А в XXI веке компьютер без подключения к Интернету — что телега без колес. (Винни-Пух добавил бы: «По-моему, так!»). А если компьютер в Интернете, значит, его пользователи работают с электронной почтой. Ведь зачем нужен Интернет, если не для почты? (И по-вашему так?) А зачем на свете почта? Для того чтобы на нее приходил спам! По-моему, так! А о чем этот спам? О многом, и часто — о самом спаме, а еще чаще — об «оптимизации», или SEO (Search Engine Optimization). При этом для большинства читателей спама это приевшийся набор звуков, и не более. У бывалых юзеров, конечно, есть общее представление о сути «оптимизации», а небывалых просим сесть в кружок и внимательно слушать наш рассказ…

«…ищут девушки грибов»

Термин «Веб 2.0» проходит в наших разговорах об Интернете уже не красной строкой, а каким-то водяным знаком, и если его не видно вооруженным глазом, значит, он спрятался между строк. Так или иначе, это спорное понятие неплохо передает разницу между Интернетом сегодняшним и вчерашним. И никто не удивится, если мы рассмотрим очередную черту Веба 2.0 — поисковую оптимизацию, которая родилась из столкновения двух галактик интернет-вселенной: Спама и Поиска.

В результате столкновения в Сети сместились акценты. Обычная почта постепенно перестает быть основным способом обмена информацией. А вспомните бешеную популярность факсимильной связи еще лет десять назад: факсы стояли везде, даже в квартирах. Однако электронная почта в сочетании с подешевевшими сканерами, а затем и комбайнами класса «все-в-одном», постепенно вытеснила и этот вид связи.

Но подобная ситуация сегодня складывается и с электронной почтой. Во-первых, ее дискредитировал спам — его объемы немыслимы. Во-вторых, выяснилось, что часть информации, доставляемой по почте, удобнее передавать по-другому: короткие реплики — с помощью мессенджеров; регулярные новости и прочие тематические информационные каналы — по RSS; прочая информация приходит через поисковики. Уловив эту тенденцию, поисковые машины в очередной раз оказались впереди планеты всей. За примером пойдем, как всегда, в Google.

На сегодняшний день Google «расслоился»: кроме охвата Сети «в ширину» он предлагает несколько новых измерений. Его поисковые возможности обеспечили создание единого информационного пространства для почты, коротких сообщений, информационных и поисковых каналов.

В этом пространстве старому доброму спаму становится тесно. Веерные рассылки рубят на корню; почтовые серверы поумнели и научились бороться с большинством из них — это происходит почти незаметно для пользователя. Трудно разгуляться и в мессенджерах: веб-пейджеры в последнее время принимают сообщения только от авторизованных отправителей. В RSS проникнуть и того труднее: источники информации обычно заполняются вручную. Но крайне привлекательной областью для атаки стал поиск.

К чему мы об этом рассказываем? Все просто. Google купил всех, обработал мегатонны информации, поглотил множество сервисов и, в конце концов, превратился в чудо-юдо рыбу-гугл. Помните, у Ершова: «…Все бока его изрыты, / Частоколы в ребра вбиты, / На хвосте сыр-бор шумит, / На спине село стоит; / Мужички на губе пашут, / Между глаз мальчишки пляшут, / А в дубраве, меж усов, / Ищут девушки грибов»... Говоря прозаически, на тех, кто меняет правила игры в информационном пространстве, начинают нещадно паразитировать!

Хроники одной войны

«Центром притяжения информации стал поиск? Значит, им нужно манипулировать!» — такова логика оптимизаторов. Люди делятся на тех, кто придумывает правила игры, и тех, кто этим правилам следует. Вторых — большинство, а первые обычно становятся или законодателями, или авантюристами. Законодатели в Интернете — это разработчики поисковых систем, тогда как авантюрные умы проверяют эти системы на прочность. Задача оптимизаторов состоит в выводе сайта на первые строчки результатов поиска. А добиться этого можно «как мытьем, так и катаньем». Можно сделать сайт популярным и раскрученным, и он «всплывет» сам; можно же, напротив, популяризировать и раскручивать сайт с помощью поиска. Для этого надо устроить так, чтобы поисковик посчитал нужный сайт лучшим (из всех возможных) ответом на тот или иной определенный запрос. Но методы такой «оптимизации» могут быть очень и очень разными.

Промышленная оптимизация началась давно, во времена появления самых первых поисковых машин. Поисковики раннего Интернета были добрыми и наивными, они даже рекомендовали веб-мастерам использовать метатэги. В HTML-страницах есть несколько полей, которые не видны пользователю (они содержат данные о данных, то есть описание страницы для роботов). Это поля meta description (описание), в котором предполагалось простым языком рассказывать о содержимом страницы, и meta keywords — соответственно, в нем перечислялись ключевые слова для страницы. Но, во-первых, это годилось только для HTML, любовно созданного вручную; динамически генерируемые страницы сайтов, скорее всего, получали единые тэги (сегодня пока даже самые умные CMS не умеют делать внятный пересказ текста постинга и выделять в нем наиболее важные слова). Во-вторых, поиграв с Интернетом, поисковыми машинами, баннерными сетями и счетчиками посещений, люди поняли, что рейтинг — это деньги в чистом виде. Самые догадливые составили списки популярных поисковых запросов и скопировали их и в поля description и keywords. Древние поисковые машины, выражаясь поэтически, «такой печали отродяся не видали»: они стали выдавать совершенно нерелевантные результаты. Пришлось срочно вводить санкции против «поисковых спамеров», пугать пожизненным «баном» (блокировкой), а тем временем срочно изменять алгоритмы. В результате, благодаря усилиям оптимизаторов поисковики начали анализировать не только метатэги и заголовки, но и индексировать полный текст страниц.

Появились алгоритмы, которые особое значение придавали тексту заголовков на странице. В HTML такой текст выделялся тэгами от <h1> до <h6>; по умолчанию <h1> был самым крупным, а значит, и самым важным. Над этим алгоритмом спамеры цинично надругались с помощью стилей. Реальные заголовки страницы они выводили стилем <h6>, предварительно задав ему соответствующие визуальные свойства; прочие заголовки делали мелкими и сливающимися по цвету с фоном страницы. Дальше в тэги заголовков заключали все те же ключевые слова, и поисковик снова был рад им обманываться. Были и другие методы внедрения на страницу невидимого текста — например, с помощью параметра display=none.

На это поисковики — а к тому времени уже и первые версии Google — ответили еще более глубоким анализом страницы. Грубо описать алгоритм можно так: поисковик загружал всю страницу и моделировал в своем электронном мозгу ее внешний вид. Дальше машина находила самые заметные части страницы, расставляла акценты и индексировала полученные результаты.

Это был удар для спамеров; менять тактику теперь пришлось им. Но ребята справились с задачей: примитивные метатэги и невидимый текст перестали работать, зато популярность страниц (исчисляемую в количестве ссылок) никто не отменял. Началась форумная война. Как роботы, так и нанимаемые за небольшую плату люди ходили по гостевым книгам и веб-форумам и забивали их ссылками на всевозможные сайты. (Онлайновые чаты с этой точки зрения были неэффективными: текст на них быстро уходил в прошлое, и поисковики его не видели.)

Именно в этот момент в лидеры поиска и вышел Google. Одним из его главных козырей был механизм «ранжирования» сети — алгоритм PageRank (PR); эта разработка произвела поисковую революцию. Суть ее заключалась в подсчете не только числа ссылок, но и их «веса», то есть важности. Так, одна «дорогая» ссылка могла вывести сайт в лидеры, а тысяча «дешевых» оставить его плестись в хвосте рейтинга. Согласно алгоритму PageRank, нужно аккуратно относиться к «веб-знакомствам», дружить с нужными сайтами и ни в коем случае не дружить с ненужными.

Сразу оговоримся: разные поисковики используют разные алгоритмы. Так, в России лидируют Google и «Яндекс»; и то, что в терминах Google называется PageRank, у «Яндекса» — тИЦ — «тематический индекс цитирования». Но суть у них одна, поэтому в нашем рассказе мы в качестве примера будем рассматривать именно Google PageRank.

Скупые факты о PageRank

PR — вещественное число 0 до 10, которое при отображении обычно округляют до целого. Сайты с рейтингом 0 или неизвестны Google, или были принципиально удалены из рейтинга, или на них вообще никто не ссылается. Рейтинг 10 присвоен лишь нескольким десяткам сайтов в мире — это гиганты типа Microsoft, Adobe, Yahoo и самого Google. Следом за ними идут Oracle, Cisco, AOL, eBay, Amazon, англоязычная «Википедия» и им подобные с рейтингом 9. Русская «Википедия» оценивается в 7 баллов, что тоже неплохо — проекты с PR от 7 до 9 считаются гиперпопулярными. PR=6 можно перевести как «успешный», 4–5 — «известный», 3 и меньше означает «продолжайте работать». Проверить PageRank своего сайта можно с помощью Google Toolbar, или, например, зайдя на сайт www.getrank.net.

Теперь о самом PR и его влиянии на нашу цивилизацию. Есть несколько постулатов. Первый: никто, кроме Google, не знает точно, как работает PageRank; это ноу-хау Ларри Пейджа и Сергея Брина. Второй: PageRank — это ключевой, но не единственный механизм, который влияет на положение сайтов в Google. В каждом отдельном запросе на результат выдачи влияет и текст запроса, и текст сайта. Постулат третий: хотя PageRank это механизм, основанный на вычислении «веса» сайта, величина PR всегда может быть изменена Google «вручную».

Вместе с результатами поиска отображается контекстная реклама, однако Google не продает место в поисковом рейтинге. Нельзя, например, купить первую строчку в запросе «статья об оптимизации»: зато можно показать рекламу этой статьи в соответствующей части страницы. Таким образом, Google абсолютно разделяет поиск (как чистый инструмент) и рекламу: они работают параллельно и не смешиваются.

Официальная информация о PR на этом практически заканчивается. Зато начинается игра с поисковиком, проверка его механизмов на прочность и интеллект, другими словами — оптимизация!

Практический оптимизм

Считаем PageRank

Для понимания методики расчета PR исследователи вывели формулу. Разумеется, она лишь обрисовывает контуры настоящего механизма вычисления рейтинга сайта, но, тем не менее, заслуживает внимания. Не пугайтесь конструкции, которую мы сейчас приведем — все будет рассказано подробно и словами!

Итак, предполагается, что PR равен 0,15+0,85 * (сумма долей PR всех ссылающихся страниц), то есть PR = (1–p) + p * (PR (site1) / C (site1) + … + PR (siten) / C (siten)). В этой формуле p — коэффициент, предположительно равный 0,85. Таким образом, PR любого нового сайта, на который никто не ссылается, получается равным (1–p) = 0,15 (что грубо округляется до нуля).

N — количество сайтов, ссылающихся на наш сайт, мы просто считаем их от 1 до n. PR (sitei) — собственный PR сайта номер i. C (sitei) — количество ссылок на нас, находящихся на сайте номер i. Деление PR (sitei) / C (sitei) означает в этом случае, что PR любого сайта отдается тем, на кого он ссылается, в равных долях. Приведем пример: если на сайте (назовем его А) с PR=7 есть лишь одна ссылка на сайт (Б), то сайт Б унаследует в формуле все 7 баллов (7 будет делиться на 1 ссылку). Согласно формуле, PR сайта Б в результате будет: 0,15 + 0,85 * (7/1) = 6,1. Если же на сайте А появится вторая ссылка (на сайт В), то PR сайтов Б и В будет: 0,15 + 0,85 * (7/2) = 3,125, то есть резко упадет.

Итак, мы выяснили, что любой сайт голосует за другие сайты своим собственным PR, уменьшенным на 15% (получившуюся величину называют LinkRank). Кроме того, PR сайта делится поровну между всеми сайтами, на которые он ссылается.

Как суммируется влияние нескольких сайтов, сказать уже сложнее. Очевидно, речь не идет о простом вычислении среднего значения (в этом случае миллион недорогих, но настоящих ссылок не сделал бы сайт популярным — но ведь делает!) или простом суммировании значений (в этом случае у PR не было бы верхнего предела). Судя по всему, используются логарифмические вычисления — знатоки говорят, что при высоких PR достичь каждого последующего уровня невероятно трудно.

При этом стоит помнить о формуле. А она говорит нам, что если некий сайт с PR = 4 ссылается на нас, и это единственная исходящая с него ссылка, то это повысит наш рейтинг куда больше, чем ссылка с сайта с PR=9, который ссылается не только на нас, но и на 99 других сайтов. Мы не рассматриваем косвенную пользу: сайт с PR = 9 приведет к нам больше посетителей, которые в свою очередь могут поставить на нас ссылки, — но это уже побочный эффект.

Оптимизаторы вывели несколько эмпирических правил, которые нужно знать о Google и его системе ранжирования. Мы приведем их вместе с краткими пояснениями — своеобразной «инструкцией по выживанию» в этом мире.

PR вычисляется не для целого сайта, а для каждой отдельной страницы. На практике это значит, что лучше сохранять URL страниц сайта постоянными. Также это означает тесную связь каждой страницы со ссылками на нее: если PR ссылающихся на вас страниц понизился, упадет и ваш рейтинг. Упадет он и в случае, если «хорошая» ссылка на вас пропала.

В результатах поиска в Google первыми не обязательно выдаются сайты с высоким PR; главное в поиске (в любой поисковой машине) — релевантность запроса. Этот термин означает «уместность», то есть соответствие результата запросу. Для любого конкретного поискового ключа релевантность вычисляется отдельно.

Усугубим понятие релевантности. Главная идея: сам по себе PR никак не связан с текстом страниц; вычисление рейтинга — это отдельный механизм, а индексирование текста — отдельный. В поисковом движке они действуют совместно. На релевантность страницы в запросе влияет количество упоминаний на ней искомого слова; отрицательное влияние на «вес» страницы оказывает упоминание этого же слова на других страницах. Таким образом, для каждого запроса выстраивается «текстовый рейтинг» найденных страниц, который потом комбинируется с их качеством (PageRank’ом). И даже текст внешней ссылки может оказаться важнее PR ссылающейся страницы — текстовый критерий может оказаться важнее.

С точки зрения Google, некоторые сайты являются вредными, умышленно портящими картину мирового рейтинга. Таким сайтам присваивается нулевой PR и черная, как сажа, «карма». При этом входящие ссылки с таких сайтов не вредят; Google понимает, что от входящей ссылки зачастую не спрячешься и никак на нее не повлияешь. За проявленное внимание со стороны «плохих» сайтов не наказывают; зато исходящие ссылки на такие сайты —это повод для санкций со стороны поисковика. Если вы сылаетесь на спамерский сайт, PR которого обнулен, такая же судьба может постигнуть и вас. Во избежание бана следует всегда проверять сайты, которые вы упоминаете, — не дружите с плохими ребятами. Зато дружите с хорошими! Исходящие ссылки — не только опасность, но и возможность повысить свой PageRank, и вот как.

Сайты подразделяются по тематике. Если верить Google, ссылки с сайтов, родственных по тематике вашему, ценятся дороже, чем ссылки с более рейтинговых, но чуждых. Как Google удается это отследить в условиях отсутствия действующего семантического Веба, не очень понятно. Можно предположить, что в алгоритме вычисления PR есть эффект «резонанса» родственных сайтов, которые объединяются в круги. Более того: исходящие от вас ссылки на высокорейтинговые сайты схожей тематики также поднимают ваш PageRank!

Удивительно, но факт: влияют на PR и внутренние ссылки. Если некая страница вашего сайта получила высокий рейтинг, имеет смысл ставить с нее линки на другие страницы и наоборот. Поэтому хорошей практикой ведения современного блога или сайта является некоторое число ссылок с каждой статьи на другие — на случай, если популярность какой-то страницы придет неожиданно. Важна и внутренняя структура сайта: любая страница, в идеале, должна находиться не далее чем в трех кликах от главной.

Если ссылка использует параметр nofollow — значит, поисковикам не нужно по ней переходить. Такие ссылки не влияют на PR. Поэтому, например, ссылки с «Википедии» не изменяют ваш рейтинг — они все оформлены подобным образом. Кроме того, PageRank не учитывает ссылки на страницы, которые сами не имеют исходящих ссылок. Такие ветви считаются тупиковыми, так как портят алгоритм и не учитываются.

Внимание! Слишком большое количество ссылок на странице может отрицательно сказаться на ее рейтинге. Если ссылок окажется 100 или больше, такую страницу сочтут «линкофермой» — то есть спамерским механизмом — и забанят.

Не следует увлекаться Flash и прочими нетекстовыми технологиями. Велика вероятность того, что поисковики их не поймут и не смогут проиндексировать.

Замечено, что Google пересчитывает PR постоянно, однако обновляет публикацию рейтингов (которые видны в toolbar’е или на GetRank.net) один раз в несколько месяцев.

Фактов, о которых мы рассказали, вполне достаточно для честного выживания в мире Google и правильного поведения. Но как действуют современные «оптимизаторы», и «хорошие» они или «плохие»? Только ли советами Google они пользуются?

Оптимизационная радуга

Сам Google, кажется, считает оптимизаторов неизбежным злом. Им посвящены несколько ироничных страниц в «Справочном центре». Google рассказывает анекдотичные истории о том, что даже его сотрудникам приходит спам типа: «Уважаемый(ая) google.ru, мы посетили ваш сайт и обратили внимание, что он не зарегистрирован в большинстве крупных поисковых систем и каталогов…»

Советы Google, хотя он и занимает крайне правую позицию в этом вопросе, не лишены смысла. А Google советует не связываться с предложениями оптимизации, пришедшими в спаме. К ним следует относиться так же, как к любым другим рекламным письмам: 97% считать мошенничеством, а оставшиеся 3% рассматривать осторожно и даже чуть брезгливо.

Google уверяет, что никто не может гарантировать первое место в списке результатов поиска. Это двусмысленный совет; все зависит от поставленной задачи и ключевых слов — многих ведь устраивает и попадание в первую десятку по тому или иному ключу. Однако Google предупреждает, что «приоритетной регистрации» в поисковике не существует; бывает лишь грамотная регистрация, которую, впрочем, пользователь может провести и самостоятельно.

Поисковик советует требовать от оптимизаторов объяснения их действий: зачастую «помощь» через некоторое время может обернуться вредом, и «взлет ракетой» закончится «падением а ля сковородка». Также не следует ссылаться на самих оптимизаторов — в конечном итоге это принесет только вред. Наконец, при работе с оптимизаторами Google советует всегда составлять договор и включить в него условия возврата денег в случае фиаско.

Но кто же эти таинственные господа оптимизаторы, с существованием которым мирится сам Google, и как они действуют?

Энциклопедии делят оптимизаторов по «цветам».

Оптимизаторы «в белом» — добрые и славные ребята: действуют только в рамках правил игры, заданных поисковиками, и честно выжимают из сайта все возможное. Их методы — это метатэги, легальные входящие и исходящие ссылки, выделение на странице ключевых слов, подписи картинок, оптимальное количество внутренних связей на сайте, четкая тематика ресурса и его привязка к другим сайтам подобной тематики. Механизмы для «белой» оптимизации предлагает и сам Google: например, можно составить файл Sitemap (специальный XML-файл, описывающий содержимое сайта и структуру его внутренних связей). Его можно легально передать Google как инструкцию по индексированию сайта. В WordPress, например, есть специальный плагин, автоматически генерирующий и отправляющий Sitemap, — очень удобно.

Те, кто в «сером», применяют чуть менее красивые приемы. Во-первых, это автоматизированные системы обмена ссылками (так называемые «линкаторы»). Линкаторов в Интернете много, в том числе и в зоне RU; действуют они все примерно одинаково. В системе участвуют сайты двух типов: платные и бесплатные. Первые просто получают входящие ссылки за деньги, вторые платят за рейтинг размещением у себя каталога ссылок на остальных участников системы (разумеется, не на всех сразу!). Можно выбрать ссылки по тематике или вручную, либо собрать несколько сайтов в «кольцо» — это наиболее эффективная схема повышения поискового рейтинга.

Как вариант, серые оптимизаторы вручную устанавливают ссылки с других ресурсов или даже покупают их. Занимаются они и накруткой посещений и форумным спамом. В ходу — методы искусственного наполнения страниц ключевыми словами (бесполезными для читателя блоками типа «списка популярных запросов, по которым приходят на этот сайт»). Для обмана поисковика «серо-оптимизированные» страницы могут бездумно подтягивать контент по RSS — например, «горячие» заголовки с новостных сайтов или постинги из всевозможных блогов.

Оптимизаторы «в черном», как можно догадаться, — еще злее. Они протаскивают весь набор запрещенных приемов. И самый безобидный — скрытый или невидимый текст. Кроме того, есть «маскирование», или скрытая переадресация: это способ обмана как поисковика, так и клиента. «Раскручиванию» подвергается собственный сайт оптимизатора («теневой домен»). Затем раскрученный запрос продается клиенту, на чей сайт с «оптимизированного» ресурса направляется переадресация. Через некоторое время оптимизатор убирает переадресацию, например, продав ее следующему клиенту; предыдущий при этом, с точки зрения поисковика, окажется у разбитого корыта. Сказка Пушкина отлично иллюстрирует этот прием: желание, заказанное Золотой рыбке, отбирается так же легко, как и дается.

Один из главных приемов черных оптимизаторов — так называемые дорвеи (doorways, буквально — «двери, открывающие дорогу»). Это — сайты или страницы, созданные для продвижения в поисковике того или иного запроса или группы запросов. Подробнее о них мы расскажем во врезке. Частным проявлением дорвея является «гуглбомбинг», то есть создание «поисковой бомбы». Этим термином определяют интересный эффект, при котором некий запрос поисковику приводит к выдаче незапланированного результата: обидного или провокационного. Этот механизм часто использовался в политических играх: начали американцы, а подхватили европейцы и россияне. На сайты политиков, например, вели запросы типа «вор должен сидеть в тюрьме», «dumb motherf***er» и т. п. «Бомбили» и сайт Microsoft: одно время на него вел запрос «more evil than satan himself» (что «литературно» можно перевести как «аццкий сотона»).

Еще одним приемом черной оптимизации является «клоакинг» (cloaking): это когда обычным посетителям и поисковикам выдается разная информация. В результате поисковая машина индексирует честный и в меру популярный текст, а посетитель видит то, что ему покажут — например, обильную рекламу или платную порнографию. Единственная ситуация, когда клоакинг является легитимным — это «перевод» поисковику содержания графической или flash-страницы, которую он сам не в состоянии прочитать. В остальных случаях клоакинг — это разновидность дорвея. Для реализации технологии клоакинга написано множество программ, как платных, так и свободных.

Для раскрутки дорвеев используются всевозможные техники спама: почтовый, форумный, блог-спам. Применяются троянские программы и вирусы, которые, к примеру, воруют данные из популярных FTP-клиентов (или попросту «подслушивают» их, так как FTP — незащищенный протокол), после чего заменяют индексные страницы сайта и всех его каталогов на дорвеи.

Наконец, четвертый цвет оптимизации — оранжевый! К этому классу относят оптимизаторов, которые создают сайты с несколькими разделами. Один раздел является «раскручиваемым» и содержит произвольную информацию. Другой наполняется, например, популярными статьями или материалами, не имеющими прямого отношения к тематике сайта, и, тем не менее, вполне осмысленными. Публику привлекает «интересный» раздел — этого можно добиться разными методами: с помощью провокаций, скандалов, или, например, участием в популярных конкурсах. Пролистав «приманку», посетитель, как правило, переходит на основную часть сайта, что и требуется оптимизатору.

Дороги SMOленщины

Разновидность белой оптимизации — SMO: Search Media Optimization, то есть поисковая оптимизация медиа. А что такое медиа в Вебе 2.0? Это блоги!

«Блоггер» в наше время — не только диагноз, но подчас и профессия. С помощью контекстной рекламы типа AdSense, установленной в популярном блоге, вполне можно жить — при условии удачного контекста и достаточной популярности. (Ладно, жить на это удается не каждому, но на оплату приличного хостинга полученных средств уж точно хватит.)

В Рунете кругами ходит популярный текст «Как превратить свой блог в блогбастер» — это правила оптимизации, которых сначала было пять, потом методом Шарика и Матроскина к ним приписывали еще и еще, и в результате список советов по SMO состоит где-то из 30 пунктов. Большинство советов вполне разумны — постараемся вкратце их донести.

Первый и главный — определитесь, нужно ли вам это вообще! Рейтинг не вырастет молниеносно, блог — типа морковки на грядке: надо посадить, а потом долго поливать. Нужно время и трудолюбие. Если все же решились — продолжаем.

Нужно четко позиционировать блог. Если уж назвали его медиа, читатель должен понимать, что он найдет и на что ему рассчитывать. Основная тема должна быть одна. При этом делать записи в блоге следует регулярно, публика не любит, когда о ней забывают. Не стоит «продавать» все интересное сразу: крупные, значимые записи могут перемежаться ежедневными наблюдениями — здесь важнее авторский стиль, чем информационный повод.

Записи должны быть оптимизированы: ключевые слова выделяют жирным или курсивным текстом, проставляют тэги, пишут яркий, внятный, привлекательный заголовок (в «желтизну» скатываться необязательно!). В первом абзаце текста (а именно он обычно попадает в RSS-каналы и в результаты поисковика) должна быть изложена краткая суть постинга.

Блог регистрируется во всех доступных поисковых машинах. Кроме того, необходимо сделать RSS-каналы и поставить внятные ссылки на них (многие CMS, а с ними и блог-движки типа WordPress делают это автоматически). RSS экспортируется в Feedburner. Сделайте удобные — в один клик — ссылки на добавление ваших RSS во всевозможные веб-читалки: Google Reader, Netvibes, My Yahoo, NewsGator, My AOL, Bloglines. Поставьте ссылки на добавление сайта в закладки del.icio.us, Google, Yahoo, Stumbleupon; настройте экспорт в блоги типа ЖЖ, LiveInternet, MySpace; не забудьте линки на добавление этих блог-аккаунтов в список друзей.

Организуйте подписку на ваши материалы по электронной почте — с помощью готовых решений типа Subscribe.ru или собственной системы рассылки (на многих хостингах такие штуки имеются).

Когда блог будет уже наполнен определенным стартовым количеством записей, начинайте его пиарить: расскажите всем друзьям, поставьте его адрес в подпись вашей почты, пропишите ссылки на него во всех социальных сетях типа «Одноклассники.ру», «Мойкруг.ру», «ВКонтакте.ру», LinkedIn, FaceBook и прочих. Добавьте сайт во всевозможные «пузомерки» типа рейтинга «Яндекс.Блогов». Пишите комментарии от имени своего блога в других блогах и сообществах — полезно светиться в популярных тредах.

Используйте «блогролл» — систему ссылок на другие блоги. С точки зрения поисковика, эффект от этого — нулевой, но людям, на которых вы ссылаетесь — приятно, да и увеличит трафик к вам и от вас. Полезен и переход от вас на другие сайты и обратно, если включен трэкбэк/линкбэк (отслеживание ссылок и переходов; внешние ссылки на вашу запись отмечаются как комментарии к этой записи).

Поднимите в своем блоге OpenID; многие люди благодаря этому смогут комментировать вас из-под своих основных аккаунтов на других блогах.

Раздавайте что-нибудь бесплатно (хотя бы контент: картинки, звуки), проводите конкурсы, рассказывайте о конкурсах, проводимых другими…

Ну и, наконец, самое главное — ничто не спасет скучный блог. Пишите интересно! Как ни странно, это приходит с опытом; глаза боятся, а руки — гляди-ка! — делают!

Вместо заключения

Разумеется, это журналистский материал; в «науку оптимизации» мы проникли ровно настолько, насколько это дозволено непрофессионалам, ибо у профессионалов — ноу-хау. Профессионалы не рассказывают деталей, не делятся секретами мастерства, они рассказывают «истории успеха», которые мы вкратце и пересказали.

Если честно — наблюдать за войной поисковых машин и спамеров крайне увлекательно. Война, как и игра, — один из главных двигателей прогресса. Благодаря спаму появились многие восхитительные механизмы, совершенствуется поиск и организация информации. Как любую остро заточенную технологию, оптимизацию можно использовать по назначению и не очень. Запад когда-то тоже был диким, теперь же его душит политкорректность. Такая же судьба ждет оптимизацию: если не законами, так техническими средствами ее сделают окончательно легитимным механизмом; фактически, протоколом, а не ремеслом.

Впрочем, Интернет большой, в нем еще много вещей, которые пока существуют только в виде концептов, и о покупке которых Google еще и не задумывался, но когда-нибудь купит. А это значит, что оптимизаторам будущего еще не раз будет брошен вызов. По-моему, так.

Как устроены дорвеи

Дорвей — сердце черной оптимизации — создается при помощи нескольких механизмов. Во-первых, для него регистрируется страница на бесплатном хостинге или же перехватывается/перекупается раскрученное доменное имя, заранее имеющее определенный PR.

Во-вторых, создается текст страницы. Он должен содержать все ключевые слова, быть уникальным и при этом более-менее связным. Для этого часто используется генератор текстов на базе «цепей Маркова» — математического алгоритма, который производит бессмысленные, но литературоподобные и грамматически верные тексты. Вот и эта статья была написана с помощью такого генератора (шутка).

Список ключевых слов по какому-либо запросу можно бесплатно получить, например, с помощью системы «Яндекс.Директ», у которой есть сервис «Статистика запросов», — просто и удобно. Скопировать его в генератор дорвеев можно автоматически или полуавтоматически, все зависит от навыков и набора программ.

Тексты вставляются в заранее подготовленные шаблоны сайта. Туда же идет и зашифрованный сценарий JavaScript для редиректа на сайт заказчика. Причем шифр скрипта динамически меняется.

Также каждый сайт дополняется несколькими страницами с осмысленными, интересными «человечными» текстами на заданную тему. Обычно дорвейщик запасается несколькими такими страницами: иногда пишет их сам, иногда забивает раскручиваемый запрос в Google и ворует текст у сайтов из первой десятки.

После этого сайт закачивается на «долгоиграющий» домен (если это отдельное доменное имя) — с таким дорвем обходятся как с дорогой вещью, стараются не набивать его бессмысленной информацией, следят за ним и всячески его холят; или же на «краткосрочный» — на любом бесплатном хостинге. Такие дорвеи могут «прожить» всего несколько дней до их «убиения» в рейтинге поисковика, однако на их создание требуется меньше времени: контент генерируется автоматически, от создателя требуется только ввести CAPTCHA-код (искаженные буквы и цифры с картинки) при регистрации сайта. С CAPTCHA спамеры с переменным успехом пытаются бороться (см. статью о порнотехнологиях в ДК #5_2007). Подобные дорвеи живут по принципу таракана: им надо плодиться быстрее, чем их будут давить — игра идет на скорость.

Итак, дорвей — сложный механизм, сочетающий порнотехнологии, методы троянской/вирусной атаки, приемы киберсквоттинга, всевозможный спам для поднятия рейтинга самого дорвея и некоторые другие.

Существуют готовые платные генераторы дорвеев, которые умеют сами задавать запросы Google и «распарсивать» (то есть экстрагировать) текст из страниц первой десятки. Они же выделяют из текстов ключевые слова. Google всячески порицает использование программ, осуществляющих автоматические запросы к поисковику, однако реально вряд ли может запретить это делать.

  • WordPress

Comments

Один комментарий to “Во первых строках…”
  1. Codemaster:

    Вот например бесплатный онлайн генератор дорвеев:

    www.onlinedorgen.ru

    Его возможности позволят любому желающему, даже при отсутствии специальных знаний, попробовать себя в противостоянии с поисковой системой.

Speak Your Mind

Tell us what you're thinking...
and oh, if you want a pic to show with your comment, go get a gravatar!

e.motion