Formation : Masterclass Moteurs+SEO étendue (2 jours) – 13 et 14 Octobre 2016

masterclass-seo

Formation : Masterclass Moteurs+SEO étendue (2 jours) – 13 et 14 Octobre 2016

950,00 HT

En stock

Description du produit

Comprendre le fonctionnement des moteurs de recherche et l’impact que cela a sur le référencement web est devenu primordial pour tous ceux qui souhaitent améliorer la visibilité d’un site internet.

Le référencement est une discipline exigeante qui est parfois vue, de l’extérieur, comme une formule magique inexplicable. Pourtant, les moteurs de recherche s’appuient sur des bases solides, algorithmiques. Rien n’est laissé au hasard ! En se référant aux fondamentaux, on revient aux sources. On remet le métier de référenceur en perspective, et l’on se rend compte que l’on comprend les moteurs de recherche bien plus qu’on ne le pense.

Avec la Masterclass Moteurs+SEO étendue, nous remettons sur le devant de la scène les fondamentaux du référencement web. On comprend ainsi pourquoi certaines stratégies fonctionnent et pourquoi d’autres tactiques sont vouées à l’échec.

Par exemple, quand on sait ce qu’est le PageRank et quelle est la relation entre PageRank et surfeur aléatoire, on sait comment réaliser une bonne structure de netlinking, et surtout comment éviter d’en faire une mauvaise. Quand on sait comment est réalisée la partie crawl/indexation, on sait pourquoi le temps de chargement d’un site est un point crucial pour le référencement, etc. Nous aborderons tous ces points lors de la session.

[Découvrir les témoignages des participants]


Déroulement des deux journées

Journées du 13 et 14 Octobre 2016

  • 09h00 : Accueil
  • 09h30 – 12h45 : Formation
  • 12h45 – 14h15 : Pause déjeuner (repas non inclus)
  • 14h15 – 17h30 : Formation

Adresse


ESPACE CLERY
17 rue de Clery
75002 PARIS



Intervenants

Guillaume et Sylvain Peyronnet.


  1. Crawl et Indexation des moteurs de recherche

    • Depuis quand fait-on de la recherche d’information ? Quels sont les moteurs qui ont marqué l’histoire ?
    • Quelles sont les briques qui constituent un moteur de recherche ? Comment un moteur tel que Google construit-il sont classement ?
    • Comment les moteurs parcourent-ils le web ? Comme un crawler comme le GoogleBot procède pour récupérer les contenus des pages web ?
    • Comment peut-on aider les robots d’indexation à être plus efficaces ? Quels profits peut-on en tirer pour le référencement ?
    • Pourquoi avoir un site web rapide est-ce important dans une stratégie SEO ? Comment mesurer la vitesse de son site web et comment l’améliorer ?
    • Pourquoi et comment surveiller l’activité de GoogleBot, en temps réel ou via les logs serveur.
    • Qu’est-ce que la qualité d’une page web lors de l’indexation ? Comment éviter l’indexation des pages inutiles ? Comment repérer les pages proposant du contenu dupliqué (en near ou full duplicate) ?
  2. Pertinence

    • Comment un moteur de recherches moderne détecte qu’une page est pertinente pour une requête donnée ?
    • Qu’est-ce que le modèle vectoriel et comment fonctionne-il ? Comment représenter un contenu par un vecteur, lemmatiser, utiliser une fonction de poids (TF.IDF, cosinus de Salton) ?
    • Quels leviers peut-on actionner en référencement web pour améliorer la pertinence d’une page ? Quelles sont les bonnes pratiques à appliquer ? Comment utiliser le calcul de similarité pour générer des facettes ?
    • Comment construire un corpus documentaire à partir d’un scrap de sites web.
    • Qu’est-ce que la mise à jour Hummingbird de Google liée à l’expansion de requêtes ? Qu’implique-t-elle pour le SEO ? Comment trouver des termes co-occurrents ?
  3. PageRank et surfeur aléatoire

    • Qu’est-ce que le PageRank ? Qu’est-ce que la formule pour le calculer implique pour le référencement web ?
    • Le PageRank de la Toolbar Google (TPR) est-il encore utile ? Comment est-il fabriqué ?
    • Qu’est-ce que le surfeur aléatoire ? Qu’est-ce que ce concept implique pour le SEO ?
    • Comment calculer et visualiser facilement le PageRank interne d’un site ?
    • Le PageRank, à l’origine assez similaire d’un vote de popularité embarque maintenant des composantes thématiques. Qu’est-ce que le PageRank thématique, comment tirer profit de sa définition pour le SEO, comment structurer sa ligne éditoriale pour l’accumuler (cocon sémantique) ?
  4. Knowledge graph

    • Qu’est-ce que le Knowledge Graph implémenté par Google ? Quelle est sont histoire ? Comment est-il fabriqué ?
    • Quelle est l’utilité de Knowledge Graphe ? Comment est-il utilisé pour aider Google à mieux comprendre les contenus ? Comment peut-on l’utiliser pour créer des contenus ? Comment sert-il à rendre les contenus moins ambigus ?
  5. Webspam et filtrage

    • Qu’est-ce que le Webspam ? Pourquoi est-il néfaste pour les moteurs de recherche ?
    • Comment est fabriqué un filtre (comme Panda ou Pingouin) ? Que faut-il récolter comme données, comment les associe-t-on pour déterminer si un contenu est du spam ou non ?
    • Comment utiliser l’algorithme C4.5 pour construire un arbre de décision ?
    • Comment peut-on déterminer qu’un lien entre sites est légitime ou non ?
    • Peut-on détecter les contenus générés grâce à du spin ?
  6. Les fermes de liens

    • Comment lier des pages entre elles pour maximiser le PageRank ? Quelles sont les structures qui assurent les meilleures optimisations de PageRank ?
    • Peut-on utiliser plusieurs fermes de liens pour maximiser le PageRank ?
    • Comment tester facilement des schémas de linking avec Gephi ?
    • Comment un moteur de recherche moderne peut-il détecter et déclasser des fermes de liens, ou des pages profitant de l’effet des fermes de liens ?
    • Peut-on déclasser les pages profitant de l’effet des fermes de liens sans les détecter ?
  7. Bonnes pratiques en réseau

    • Quand on fabrique un réseau de sites, on souhaite généralement les lier entre eux afin de profiter de la popularité de chacun. Malheureusement, les liens peuvent parfois être vus comme artificiels et leur importance nullifiée. Cependant, on peut utiliser tout un ensemble de bonnes pratiques pour monter des réseaux de sites robustes à la détection algorithmique.
      On pourrait penser que suivre ces bonnes pratiques n’est intéressant que pour un réseau de sites un peu spammy. Or, c’est d’autant plus important de les suivre lorsque, au contraire, on dispose uniquement de sites propres, légitimes et intéressants.
    • Quels sont les schémas de linking qui sont représentatifs du web, et donc potentiellement indétectables ? Comment génère-t-on facilement une carte de linking pour monter un réseau de sites ?
    • Quels sont les paramètres à prendre en compte pour minimiser les risques de détection (technologie, type de site, contenus, hébergements, noms de domaine, etc.) ?

La Masterclass Moteurs+SEO étendue permet de renforcer vos connaissances en référencement web tout en ajoutant à votre arsenal de référenceurs des leviers méconnus, voire nouveaux. A l’issue de la formation, vous devriez avoir la tête fourmillante de nouvelles idées à tester et mettre en œuvre.
[Découvrir les témoignages des participants]


 

Les formations dispensées par Nalrem Médias, sont, dans certains cas, éligibles aux financements de type Plan de formation. Nous contacter pour en savoir plus.