Retour sur les Journées du Contenu Web (JCW) et le Wacamp.

Ou plutôt la journée du contenu web…je n’ai pas eu la chance d’assister à la conférence du mardi portant sur l’écriture de contenu web. Par contre, j’ai concocté un petit compte rendu de la journée du 21 mars pour ceux qui n’ont pas pu se déplacer ou qui sont restés sur liste d’attente en vain…

Évidemment, je n’ai pas pu revenir sur tous les sujets abordés lors des conférences, et si elles vous étaient retranscrites entièrement, elles perdraient de leur intérêt 🙂 . Ceci dit, en plus d’y apprendre nombre d’astuces vous pouvez également y faire de belles connaissances et ainsi créer ou élargir votre réseau.

Un peu de SEO

Google

Des tendances intéressantes soulevées par Sébastien Monnier, ancien responsable quality search chez Google France. Il nous a affirmé qu’un site avec un contenu très intéressant n’est pas forcément récompensé par rapport aux sites très bien référencés (les maîtres du SEO). Il pense qu’à l’avenir, Google va valoriser les sites au contenu intéressant qui ont des attributs de référencements pas forcément très travaillés par rapport aux sites sur-optimisés.

Comment Google pourrait s’y prendre pour pénaliser les sites sur-optimisés? En comptant la densité de mots clés (trop importante) d’une page, le CPC du mot clé et le nombre de mots clés dans la page du site (certains sites revendent leur espace publicitaire sans forcément avoir un contenu intéressant). D’autres critères pourraient également être utilisés par la firme :

  • les multiples (plusieurs centaines) noms de domaines pointant vers un même site sous la même ancre
  • mais aussi le nombre de « +1 » dans les résultats de recherche avec un faux profil associé à cette recommandation.

Si Google ne l’a pas fait jusqu’à présent c’est parce qu’un contenu intéressant peut également (heureusement!) figurer sur un site dit de « spam » (ayant le ratio suivant assez important : mot clé/mots en tout dans une même page), d’autre part, s’il fallait éliminer tous les sites parlant de pilules bleues miracles ou de rachat de crédit, qui sont souvent des sites de spam, par quels sites pourrait-on bien les remplacer? Car là est bien la problématique de Google: proposer du contenu intéressant à ses utilisateurs.

 

De l’expérience utilisateur…

Akim Demora, responsable e-commerce de 3suisses Benelux, nous a présenté un outil très utile nommé 4Q Survey pour mesurer l’expérience de navigation du client sur votre site web. Couplé à un outil de webanalytics (lui récoltant les données sur vos pages visitées, temps passé sur chaque page, zones de clics etc.), il permet d’extrapoler des données précieuses. En effet, il demande la permission à votre visiteur de lui soumettre un questionnaire en ligne sur ce qu’il est venu chercher sur votre site, si l’expérience a été fructueuse etc. Cette investigation vous permettra de mettre en lumière d’éventuels problèmes techniques rencontrés ou des complications inutiles pour le client.

 

Comment segmenter votre analyse avec Google Analytics ?

Google Analytics

Utiliser les segments d’analyse dans Google Analytics vous permet d’isoler un ou des comportement(s) particulier(s) « déviants » qui vous mettent la puce à l’oreille sur certaines anomalies de votre site, c’est ce que nous a expliqué Florian Giudicelli (web analyste chez Boulanger.fr) à travers son intervention sur la segmentation de Google Analytics.  Par exemple sur la page d’entrée (page par laquelle votre visiteur a accédé à votre site) « fiche produit ipad 3 » vous remarquez que le taux de rebond est très élevé sur la page d’entrée de la campagne Adwords, vous pouvez ainsi vous rendre compte que si le taux de rebond était élevé c’était dû à une erreur dans votre campagne Adwords (le mot clé associé était ipad 2 et non ipad 3). Vous pouvez apprendre également beaucoup de choses sur ce que désirent vos visiteurs : les termes de recherche qu’ils tapent ne correspondent pas forcément à vos produits, vous donnant ainsi de l’inspiration pour un éventuel élargissement de vos gammes.

2 commentaires

  1. Merci de ce petit compte rendu. Intéressant cette analyse de l’ancien quality rater. Par contre je pense qu’ils ont un temps de retard, car c’est bien plus sur la partie off site que tout se joue, et beaucoup de sites qui gravitent dans le top 10 des SERPs sont clean en apparence mais réellement « bourrins » derrière.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Merci de taper les caractères de l'image Captcha dans le champ

Merci de saisir ces caractères dans le champ
ci-dessous afin de valider votre commentaire.

Article de : Superpam

Fervente amatrice d'e-commerce, Paméla Bonneau est étudiante en Webmarketing. Elle travaille chez Diginex aux côtés du Capitaine, en tant que Traffic Manager et Chef de Projet Web.