[ad_1]
Для поисковых систем плотность ключевых слов долгое время считалась надежной мерой концентрации определенного ключевого слова или фразы на конкретной странице. Однако этот метод измерения давно известен в научном сообществе как плохое представление и плохая методология для определения «веса» конкретной страницы для термина.
В качестве альтернативы разработчики IR (поисковые инженеры) предложили и использовали систему, называемую «весом термина» и ее вариациями (нормализованный вес термина, вес Глазго и т. д.).
Классический нормализованный вес термина использует следующее уравнение:
Втя = тфдя / макс тфдя * логарифм (D/dfя)
Где:
тфдя = частота термина (или фразы заданной длины) в документе
тфдя = максимальная частота любой фразы (с тем же числом слов) в документе
D = количество документов в базе данных (при использовании Google я оцениваю в 8,1 миллиарда)
дфя = количество документов, содержащих термин/фразу (количество результатов поиска в кавычках)
Второе уравнение, Глазго Вестакже могут быть полезны (обычно я использую оба варианта при анализе своего собственного сайта по сравнению с сайтом конкурентов):
Втij = журнал (частотаij + 1) / лог(длинаДж) * log (N/nя)
Где:
частотаij = частота термина i (слово или фраза заданной длины) в документе j
длинаДж = количество уникальных терминов (слово или фраза одинаковой длины) в документе j
N = количество документов в базе данных (опять же, я использую 8,1 миллиарда для Google)
ня — количество документов, содержащих термин (результаты поиска в кавычках)
Использование этих уравнений и полученных в результате чисел для сравнения — гораздо лучший способ проверить использование вашей страницей определенной ключевой фразы или термина, чем просто измерение плотности ключевых слов. Я надеюсь, что в ближайшие 2 месяца у меня появится инструмент SEOmoz, который поможет вам сделать расчеты, а пока используйте Excel.
[ad_2]