Publié par le Dr Pete
Qu'on le veuille ou non, le rang de suivi est encore une grande partie de la vie des plus de SEO. Malheureusement, alors que beaucoup d'entre nous avons beaucoup de données, tri entre ce qui est des fins importantes par être plus de l'art et de la sorcellerie (borderline) que sur la science. Nous sommes heureux et désireux de prendre le crédit lorsque des mots clés déplacer vers le haut, et triste et rapide pour chasser le blâme quand ils se déplacent vers le bas. Le problème est que nous avons souvent aucune idée de ce mouvement «normal» ressemble - est en hausse bonne, vers le bas est mauvais, et le sens est dans l'œil de celui qui regarde.
Comparer les chiffres pour les déclarations de Google à propos de mises à jour comme Panda - par exemple, pour Panda n ° 21 , Google a déclaré que 1,2% des requêtes ont été " sensiblement affecté ». Une mise à jour d'algorithme (acquis, Panda 21 était probablement données uniquement) impacté de 1,2%, mais de base est quelque chose près de 80%. Comment peut-on séparer le signal du bruit?
Alors que nous nous efforçons de minimiser le bruit, en prenant des précautions comme mots clés de suivi via la même adresse IP, à peu près au même moment de la journée, avec des réglages délocalisés et dépersonnalisé, il est possible que le bruit est un artefact de la façon dont le système fonctionne. Par exemple, Google utilise des données hautement distribuées - même si je frappe le même centre de données régional plupart du temps, il se pourrait que les données lui-même est en pleine mutation que se propage l'information et de nouveaux centres se mettre à jour. En d'autres termes, même si l'algorithme ne change pas et les sites Internet ne changent pas, la nature même de la complexité de Google pourrait créer un état perpétuel de changement.
Alors, j'ai couru un crawl de 7 jours pour seulement trois mots-clés, en vérifiant chacun d'eux toutes les 10 minutes, ce qui entraîne des points de données par mot clé 1008. Pour plus de simplicité, j'ai choisi le mot-clé avec le plus grand flux au cours des 30 jours précédents, le plus faible flux, et une en plein milieu (la médiane, dans ce cas). Voici les trois mots-clés et leurs températures MozCast pour les 30 jours en question:
Si nous regardons la température (une MozCast la) pour "xbox nouvelle» à travers ces flux de micro-(en ne comptant intervalles où quelque chose a changé), il était en moyenne d'environ 93 ° C, mais nettement moins élevé que la moyenne de 24 heures de flux. Cela pourrait être la preuve que quelque chose sur les sites eux-mêmes évolue à un rythme soutenu (plus le temps passe, plus ils le changement).
Gardez à l'esprit que «nouvelle xbox" presque certainement a QDF (requête mérite fraîcheur) dans le jeu, comme le Top 10 est occupée par les principaux acteurs dont le contenu est constamment mis à jour - y compris Forbes, CS Monitor, PC World, Gamespot, IGN et. Il s'agit d'une requête dynamique naturelle.
Entre les deux centres de données, le taux de changement était similaire, mais encore plus élevé que l'expérience originale: (1) 98 changements dans 144 mesures = 68% et (2) 104 changements = 72%. C'est peut-être juste eu une journée exceptionnellement haut flux. Nous sommes surtout intéressés par les différences entre ces deux ensembles de données. Température moyenne des écarts constatés a été (1) 121 ° F et (2) 118 ° F, à la fois. Supérieure à l'expérience n ° 1, mais à peu près comparable
Que faire si nous avons comparé chaque mesure directement dans les centres de données? En d'autres termes, nous avons généralement mesurer le flux dans le temps, mais que faire si nous avons mesuré le flux entre les deux ensembles de données au même moment dans le temps? Ceci s'est avéré être possible, si un peu délicat.
Sur 144 mesures, les deux centres de données sont désynchronisés 140 fois (97%). Comme nous les données scientifiques aiment à dire: Ça alors! La température moyenne de ces mesures ne correspondent était de 138 ° F, également plus élevé que les mesures de flux de 10 minutes. Gardez à l'esprit que ces mesures étaient presque simultanée (moins de 1 seconde, en général) et que les résultats ont été délocalisés et dépersonnalisée. En règle générale, "nouvelle xbox" n'est pas une requête très locale pour commencer. Donc, cela semble être presque entièrement un sous-produit du centre de données elle-même (et non son emplacement).
La question des centres de données est beaucoup plus difficile. Il est possible que les deux centres de données sont à quelques minutes out of sync, mais il n'y a pas de preuve claire de cela dans les données (il existe des différences significatives entre les heures). Donc, il me reste à conclure deux choses - la grande quantité de flux que nous voyons est un sous-produit à la fois de la nature des mots-clés et les centres de données. Pire encore, ce n'est pas juste une question de centres de données étant statique, mais différente - ils sont tous en constante évolution au sein de leur propre univers de données.
Le plus large leçon est claire - ne pas sur-interpréter un changement dans un classement sur une période de temps. Le changement est la norme, et peut indiquer rien du tout au sujet de votre succès. Nous devons examiner les modèles uniformes de changement au fil du temps, en particulier à travers grands ensembles de mots-clés et des indicateurs secondaires (comme le trafic organique). Les classements sont toujours importants, mais ils vivent dans un monde qui est constamment en mouvement, et aucun de nous ne peut se permettre de rester immobile.
Inscrivez-vous à Le Top 10 Moz , un courrier bimensuel vous mettre à jour sur les dix les plus chaudes des morceaux de SEO nouvelles, des astuces et des liens rad découverts par l'équipe de Moz. Pensez-y comme votre empreinte exclusive de choses que vous n'avez pas le temps pour traquer mais que vous souhaitez lire!
Qu'on le veuille ou non, le rang de suivi est encore une grande partie de la vie des plus de SEO. Malheureusement, alors que beaucoup d'entre nous avons beaucoup de données, tri entre ce qui est des fins importantes par être plus de l'art et de la sorcellerie (borderline) que sur la science. Nous sommes heureux et désireux de prendre le crédit lorsque des mots clés déplacer vers le haut, et triste et rapide pour chasser le blâme quand ils se déplacent vers le bas. Le problème est que nous avons souvent aucune idée de ce mouvement «normal» ressemble - est en hausse bonne, vers le bas est mauvais, et le sens est dans l'œil de celui qui regarde.
Qu'est-ce qu'un jour normal?
Notre travail avec MozCast m'a amené à une prise de conscience désagréable - mais imprévisible vous pensez classements sont, il est en fait bien pire. Par exemple, dans les 30 jours avant d'écrire ce post (10.11 à 11.09), un peu plus de 80% des SERPs nous avons suivi changé, en moyenne, chaque jour. Maintenant, certains de ces changements étaient de petite taille (peut-être une URL décalées d'une place dans le top 10), et quelques-uns étaient grandes, mais le fait que 4 5 SERPs connu un changement toutes les 24 heures, vous montre à quel point le jeu dynamique classement est devenue en 2012.Google est Messing avec nous?
Nous avons tous pensent de temps en temps. Peut-être que Google est traînant les classements sur le but, semi-aléatoire, juste pour garder SEO deviner. Sur mes jours plus saines, je me rends compte que c'est peu probable d'un point de vue qualité de la recherche et de suivi (ce serait faire leur travail un messier beaucoup), mais avec un flux moyen étant si élevé, il est difficile d'imaginer que les sites Web sont vraiment changer si vite.Alors que nous nous efforçons de minimiser le bruit, en prenant des précautions comme mots clés de suivi via la même adresse IP, à peu près au même moment de la journée, avec des réglages délocalisés et dépersonnalisé, il est possible que le bruit est un artefact de la façon dont le système fonctionne. Par exemple, Google utilise des données hautement distribuées - même si je frappe le même centre de données régional plupart du temps, il se pourrait que les données lui-même est en pleine mutation que se propage l'information et de nouveaux centres se mettre à jour. En d'autres termes, même si l'algorithme ne change pas et les sites Internet ne changent pas, la nature même de la complexité de Google pourrait créer un état perpétuel de changement.
Comment avons-nous Sort It Out?
J'ai décidé de tenter une petite expérience. Si Google est vraiment juste l'ajout de bruit dans le système - classement réarrangement légèrement garder SEO deviner -, alors on pourrait s'attendre à voir un modèle de base assez similaire quel que soit le mot-clé. Nous pourrions aussi voir des tendances différentes au fil du temps - tout en MozCast est basé sur les 24 heures, il n'y a aucune raison de ne pas arriver plus souvent.Alors, j'ai couru un crawl de 7 jours pour seulement trois mots-clés, en vérifiant chacun d'eux toutes les 10 minutes, ce qui entraîne des points de données par mot clé 1008. Pour plus de simplicité, j'ai choisi le mot-clé avec le plus grand flux au cours des 30 jours précédents, le plus faible flux, et une en plein milieu (la médiane, dans ce cas). Voici les trois mots-clés et leurs températures MozCast pour les 30 jours en question:
- "Nouvelle xbox" - 176 ° F
- "Tableau de la pression artérielle" - 67 ° F
- "Jeux amusants pour les filles" - 12 ° F
Expérience n ° 1: 10 minutes de Flux
Passons sur la grande question de la première manière - a été le taux de variation de ces mots clés similaires ou différents? Vous pourriez vous attendre (1) «nouvelle xbox" pour montrer flux plus élevé quand il change, mais si Google a été l'injection aléatoire que ce qu'elle devrait changer à peu près aussi souvent, en théorie. Au cours des 1008 mesures pour chaque mot-clé, ici, c'est combien de fois ils ont changé:- 555 - "nouvelle xbox"
- 124 - "Tableau de la pression artérielle"
- 40 - "jeux amusants pour les filles"
Si nous regardons la température (une MozCast la) pour "xbox nouvelle» à travers ces flux de micro-(en ne comptant intervalles où quelque chose a changé), il était en moyenne d'environ 93 ° C, mais nettement moins élevé que la moyenne de 24 heures de flux. Cela pourrait être la preuve que quelque chose sur les sites eux-mêmes évolue à un rythme soutenu (plus le temps passe, plus ils le changement).
Gardez à l'esprit que «nouvelle xbox" presque certainement a QDF (requête mérite fraîcheur) dans le jeu, comme le Top 10 est occupée par les principaux acteurs dont le contenu est constamment mis à jour - y compris Forbes, CS Monitor, PC World, Gamespot, IGN et. Il s'agit d'une requête dynamique naturelle.
Expérience n ° 2: Centre de données de flux
Expérience n ° 1 de cohérence maintenue en vérifiant chaque mot de la même adresse IP (pour éviter le bruit supplémentaire de l'évolution des centres de données). Bien qu'il semble peu probable que les trois mots-clés qui varient tellement simplement en raison de différences de centres de données, j'ai décidé de lancer un essai de suivi pour mesurer simplement «nouvelle xbox" toutes les 10 minutes pour une seule journée (144 points de données) entre deux données différentes centres.Entre les deux centres de données, le taux de changement était similaire, mais encore plus élevé que l'expérience originale: (1) 98 changements dans 144 mesures = 68% et (2) 104 changements = 72%. C'est peut-être juste eu une journée exceptionnellement haut flux. Nous sommes surtout intéressés par les différences entre ces deux ensembles de données. Température moyenne des écarts constatés a été (1) 121 ° F et (2) 118 ° F, à la fois. Supérieure à l'expérience n ° 1, mais à peu près comparable
Que faire si nous avons comparé chaque mesure directement dans les centres de données? En d'autres termes, nous avons généralement mesurer le flux dans le temps, mais que faire si nous avons mesuré le flux entre les deux ensembles de données au même moment dans le temps? Ceci s'est avéré être possible, si un peu délicat.
Sur 144 mesures, les deux centres de données sont désynchronisés 140 fois (97%). Comme nous les données scientifiques aiment à dire: Ça alors! La température moyenne de ces mesures ne correspondent était de 138 ° F, également plus élevé que les mesures de flux de 10 minutes. Gardez à l'esprit que ces mesures étaient presque simultanée (moins de 1 seconde, en général) et que les résultats ont été délocalisés et dépersonnalisée. En règle générale, "nouvelle xbox" n'est pas une requête très locale pour commencer. Donc, cela semble être presque entièrement un sous-produit du centre de données elle-même (et non son emplacement).
Alors, qu'est-ce que tout cela signifie?
Nous ne pouvons pas prouver avec certitude si quelque chose est dans une boîte noire, mais je me sens à l'aise en disant que Google n'est pas simple injection de bruit dans le système chaque fois que nous exécuter une requête. Les grandes variations entre les trois mots-clés suggèrent que c'est la nature même des requêtes elles-mêmes d'ailleurs. Google n'est pas en mouvement de la cible tant que le monde entier est en mouvement autour de la cible.La question des centres de données est beaucoup plus difficile. Il est possible que les deux centres de données sont à quelques minutes out of sync, mais il n'y a pas de preuve claire de cela dans les données (il existe des différences significatives entre les heures). Donc, il me reste à conclure deux choses - la grande quantité de flux que nous voyons est un sous-produit à la fois de la nature des mots-clés et les centres de données. Pire encore, ce n'est pas juste une question de centres de données étant statique, mais différente - ils sont tous en constante évolution au sein de leur propre univers de données.
Le plus large leçon est claire - ne pas sur-interpréter un changement dans un classement sur une période de temps. Le changement est la norme, et peut indiquer rien du tout au sujet de votre succès. Nous devons examiner les modèles uniformes de changement au fil du temps, en particulier à travers grands ensembles de mots-clés et des indicateurs secondaires (comme le trafic organique). Les classements sont toujours importants, mais ils vivent dans un monde qui est constamment en mouvement, et aucun de nous ne peut se permettre de rester immobile.
Inscrivez-vous à Le Top 10 Moz , un courrier bimensuel vous mettre à jour sur les dix les plus chaudes des morceaux de SEO nouvelles, des astuces et des liens rad découverts par l'équipe de Moz. Pensez-y comme votre empreinte exclusive de choses que vous n'avez pas le temps pour traquer mais que vous souhaitez lire!
Aucun commentaire:
Enregistrer un commentaire
Nous vous invitons ici à donner votre point de vue, vos informations, vos arguments. Nous refusons les messages haineux, diffamatoires, racistes ou xénophobes, les menaces, incitations à la violence ou autres injures. Merci de garder un ton respectueux et de penser que de nombreuses personnes vous lisent.
La rédaction