Для примера опишу лишь одну, пожалуй, самую популярную модель, работающую по смыслу. В теории информационного поиска данную модель принято называть латентно-семантическим индексированием (иными словами, выявлением скрытых смыслов). Эта алгебраическая модель основана на сингулярном разложении прямоугольной матрицы, ассоциирующей слова с документами. Элементом матрицы является частотная характеристика, отражающая степень связи слова и документа, например, TF*IDF. Вместо исходной миллионноразмерной матрицы авторы метода  Фурнас и Дирвестер предложили использовать 50—150 «скрытых смыслов» [3], соответствующих первым главным компонентам ее сингулярного разложения.


Второй параметр, на который стоит обратить внимание, — это популярность запроса. Предположим, наш магазин продаёт яхты. По данным «Яндекса», пользователи вводят слово «яхта» более полумиллиона раз в месяц. Это пример запроса, по которому ищут часто, поэтому его называют высокочастотными. Как правило, такие запросы состоят из небольшого количества слов и размыто описывают, чего хочет пользователь.


Естественным развитием этой идеи можно считать предложенный Брином и Пейджем в 1998 году алгоритм PageRank — итеративный алгоритм, подобный тому, что используется в задаче определения победителя в шахматном турнире по швейцарской системе. В сочетании с поиском по лексике ссылок, указывающих на страницу (старая, весьма продуктивная идея, которая использовалась в гипертекстовых поисковых системах еще в 80-е годы), эта мера позволила резко повысить качество поиска.

Внутренняя оптимизация включает в себя работу с заголовками страницы, которые содержатся в коде с тегами

,

,

, надписью, которая высвечивается на вкладке браузера — Title, и созданием уникального текста на этих же страницах. Также важно уделить внимание мета-тегу description, поскольку именно его пользователь чаще всего видит под url сайта в поисковой выдаче.


Вообще у прямых алгоритмов есть принципиально беспроигрышные отличительные черты. Например, неограниченные возможности по приближенному и нечеткому поиску. Ведь любое индексирование всегда сопряжено с упрощением и нормализацией терминов, а следовательно, с потерей информации. Прямой же поиск работает непосредственно по оригинальным документам безо всяких искажений.
Итак, в вопросах подбора инструментов для анализа позиций сайта, нужно обязательно ориентироваться на масштабы интернет-проекта, а также поставленные цели продвижения. Порой всю аналитическую работу можно осуществить даже вручную, но все же в большинстве случаев без онлайн-сервисов или специального ПО не обойтись. И если приоритет для вас - это широкий функционал, отличные возможности настройки, стабильность функционирования и точность оценки, то правильный выбор - это платные продукты. Хотя иногда даже среди бесплатных программ встречаются решения, практически не уступающие коммерческим.
Бывают ситуации, когда пользователь уже выбрал для себя несколько альтернатив и склонен обратиться в Вашу компанию и в компании-конкуренты за дополнительной информацией. Тогда пользователь ищет  сайты или контакты этих организаций. В такой ситуации немногие откроют городской телефонный справочник или позвонят в справочную службу, чтобы узнать информацию. Большинство станет искать сведения в интернете. А если сайт не SEO-оптимизирован, то пользователь, скорее всего, просто не найдет информацию о компании в интернете! Сегодняшний интернет-пользователь крайне избалован и не привык тратить много времени на поиск. Не найдет Вас – обратится к конкурентам, поиск информации о которых окажется проще и быстрее. Согласитесь, очень неприятно терять клиентов, которые уже хотели обратиться к Вам, но просто не смогли этого сделать.
Наконец, в 1977 году Робертсон и Спарк-Джоунз обосновали и реализовали вероятностную модель (предложенную еще в 1960-м (Марон)), также положившую начало целому семейству. Релевантность в этой модели рассматривается как вероятность того, что данный документ может оказаться интересным пользователю. При этом подразумевается наличие уже существующего первоначального набора релевантных документов, выбранных пользователем или полученных автоматически при каком-нибудь упрощенном предположении. Вероятность оказаться релевантным для каждого следующего документа рассчитывается на основании соотношения встречаемости терминов в релевантном наборе и в остальной, «нерелевантной» части коллекции. Хотя вероятностные модели обладают некоторым теоретическим преимуществом — ведь они располагают документы в порядке убывания «вероятности оказаться релевантным», — на практике они так и не получили большого распространения.
Показатели эффективности Digital-маркетинга, определяемые поисковыми системами. Исследования механизмов определения основных показателей эффективности и результативности Digital-маркетинга в ходе процесса поисковой оптимизации и продвижения сайта: индекс цитируемости; взвешенный индекс цитирования; тематический индекс цитирования; PageRank; посещаемость сайта.
Исследователь в области информатики, эксперт по раскрутке брендов и контента. В прошлом специалист по борьбе с веб-спамом. SEO-консультант с опытом анализа обратных ссылок. Обрабатывал запросы на повторную проверку сайтов и восстанавливал сайты в результатах поиска после санкций Google. Занимался ручной блокировкой сайтов со спамом. Писатель, часто выступает на конференциях. Пилот и участник марафонских забегов.
Learn the introductory theory and strategy behind marketing analytics that provides marketers with the foundation needed to apply data analytics to real-world challenges they confront daily in their professional lives. This course is part of the iMBA offered by the University of Illinois, a flexible, fully-accredited online MBA at an incredibly competitive price. For more information, please see the Resource page in this course and onlinemba.illinois.edu.
Этапы внешней и внутренней поисковой оптимизации и продвижения сайта в Интернете. Понятие релевантности сайта. Семантическое ядро сайта. Процедура составления семантического ядра сайта. Работы над текстами и страницами сайта. Контент-маркетинг. Работа над usability и структурой сайта. Анализ ссылок продвигаемого сайта. Разработка стратегии ссылочного продвижения сайта. Анализ эффективности внутренней и внешней оптимизации и продвижения сайта. Индексация сайта.
Методы оптимизации можно разделить на три класса в соответствии с их цветом (белый, серый и чёрный), однако, последние события в мире поисковых систем дают понять, что это разделение весьма условно — любая манипуляция определёнными параметрами сайта может быть расценена поисковиком как крайне нежелательное влияние на его результаты. Так, любая попытка манипулирования поисковыми результатами прямо запрещена в лицензии на использование поисковой системы «Яндекс». «Белые» оптимизаторы и маркетологи пользуются рекомендациями Яндекса по созданию «хороших» сайтов[5]. Таким образом, продвигают сайт, не нарушая правил поисковых систем.
В наиподробнейшем варианте в инвертированном файле можно хранить и номер слова, и смещение в байтах от начала текста, и цвет и размер шрифта, да много чего еще. Чаще же просто указывают номер документа (скажем, книгу Библии) и число употреблений этого слова в нем. Именно такая упрощенная структура считается основной в классической теории информационного поиска — Information Retrieval (IR).
Сложно представить, чтобы модель CPA заинтересовала какого-нибудь владельца популярной рекламной площадки, не предоставляющего маркетинговые услуги. Собственники сайта боятся сложностей, связанных с мониторингом лидов. Кроме этого, лидогенерация требует определенных усилий. Обеспечивая рекламодателю конверсии, владелец ресурса занимался бы несвойственным для себя делом. Это не касается партнерских ресурсов, которые создаются специально для участия в CPA-сетях.
Во-вторых, хорошее месторасположение привлекает гораздо большее число посетителей. На сайты, расположенные на первых десяти позициях (ТОП-10, т.е. первая страница выдачи), обратят внимание более 95-ти (!) процентов пользователей. Если же поисковая система выдает сайт фирмы на четвертой странице и дальше, то менее чем у 2-ух процентов пользователей хватит терпения долистать до этой страницы.
С тех пор алгоритмы и математические модели, применяемые при ранжировании в Google, значительно улучшились. В интервью в 2007 году Амит Сингхал, представитель отдела качества поиска Google, заявил, что их поисковая система использует более 200 ранжирующих сигналов, лишь одним из которых является PageRank,[5] но он до сих пор играет существенную роль в поисковых продуктах Google.[6] Стоит отметить, что алгоритм PageRank, в том виде, в каком он был изложен Пейджем в статье 1998 года[3], может быть улучшен в некоторых практических аспектах (например, ссылкам могут назначаться разные веса), и алгоритмы, применяемые в современных поисковых системах, являются скорее лишь его вариантами.
Сообщество SEO знает его как человека, который расшифровывает Патенты Google, и после почти 15 лет исследований патентов и документов из поисковых систем — Билл уничтожил больше мифов SEO, чем любой другой человек. Он обладает богатыми знаниями о индустрии цифрового маркетинга, глубоким пониманием того, как работают поисковые системы, и уникальным пониманием лучших методов SEO. Теперь он рядом с нами, чтобы поделиться своим опытом, но просим вас также наблюдать и его сайт и быть постоянно в курсе с развитием философии компании Google.
×