Avantages de ce CMS pour le référencement Internet, spécialement le référencement naturel :
  • Le référencement naturel ou qualitatif est l'ensemble des actions qui permettent d'améliorer le référencement tout en améliorant les qualités intrinsèques des sites concernés. Les groupes principaux pouvant bénéficier de ces actions sont les suivants :
    • Les sujets traités : sont en rapport direct avec le nombre de personnes concernées par des recherches. La variabilité des intérêts est en général assez prévisible et influencée par des phénomènes pas du tout ou difficilement contrôlables (saisons, mode, évènements médiatiques etc.). Les sujets traités par le site étant en général et fort heureusement choisis de manière large bien avent de s'occuper du référencement, mais on pourra toutefois :
      • Focalisation : les efforts de référencement là où il apparaissent le plus rentable, c'est à dire là où la popularité pour un sujet rencontre une certaine jachère en matière d'optimisation des sites présentés! Ce qui naturellement se trouve plus souvent dans les professions qui ont peu de contacts avec l'informatique.
      • Localisation géographique naturelle : c'est à dire s'assurer que les noms correspondant aux localisations importantes (villes, districts etc) apparaissent clairement sur le site et sur toutes les pages, de manière à ce qu'une phrase désignant à la fois le concept du site et la localisation aboutisse. A noter que pour le moment ce CMS n'inclut pas de système de géolocalisation par rapport aux adresses IP utilisées par les Internautes, mais qu'il vous est possible de programmer un plugin en Php pour résoudre cette question. Attention : ne pas confondre la localisation géographique donnée par le contenu des pages avec la géolocalisation (pas disponible sur ce CMS) des Internautes effectuée entre autre en analysant leurs adresses IP
      • Choix linguistiques : plus il y a de langues plus il y a de mots clés traités par les moteurs de recherche et de phrases appréciées par des lecteurs. Les sites multilingues bénéficient aussi d'effets latéraux positifs, les différentes langues s'appuyant mutuellement . Dans la majorité des cas il est difficile de dépasser 3 ou 4 langues pour des questions logistiques. A noter que les résultats d'une recherche pour les même mots clés changent en fonction de nombreux paramètres dont les préférences déclarées ou supposées de l'internaute, il s'ensuit que si nous prenons l'exemple concret d'un internaute cherchant ces trois mots (sans guillemets) "visibilité pages Internet" écrit dans un navigateur configuré en mode anglophone (souvent plus pratique quand on cherche de sujets techniques informatiques) il aura plus de chances d'arriver sur un site mentionnant ces mots clés mais ayant aussi une partie anglophone. A noter que la création automatique de traductions pour servir en quelque sorte d'attracteur latéral ne fonctionne pas ou très mal, les moteurs de recherche concernés détectant la piètre qualité des traductions, l'effet général est plutôt négatif.
    • Aspects sensoriels : pour le moment l'Internet est presque uniquement constitué de visuel et d'audio et l'on imagine mal une dimension sensorielle supplémentaire à grande échelle, mais des niches particulière existent (eg : présentateur tactile pour du braille). Pour la suite nous nous concentrons uniquement sur l'aspect visuel des présentations :
      • Ce qui est bon pour l'utilisateur humain est aussi bon pour le moteur de recherche : c'est un critère fondamental qui permet de travailler en même temps deux potentiels différents et s'explique logiquement de par le fait que les moteurs de recherches ont pour but de catégoriser les informations de la manière la plus utile pour ceux qui effectuent des recherches et pour ceux qui placent des publicités! Une publicité dé-contextualisée étant beaucoup moins rentable qu'une publicité en plein dans le sujet de recherche! Il y a donc une corrélation positive entre les intérêts des moteurs, des internautes et des annonceurs, et les publicités étant généralement annoncées comme telles, les résultats sont souvent de bonne qualité. En pratique :
        • Une page de textes clairement lisibles, avec les points les plus importants mis en évidence et un minimum de fautes d'orthographe est un bon départ
        • De bonnes images clairement identifiées améliorent aussi l'esthétique d'un site comme ses chances de promotion automatique et fournit des entrées très utiles pour ceux qui utilisent les navigateurs d'images des moteurs de recherches.
        • Des tailles de pages optimums : Il est pratique du point de vue des moteurs de recherches comme de celui des internautes d'avoir des tailles de pages ni trop courtes (quasi rien à lire ou à indexer) ni trop longues (on s'y perd aussi bien au niveau humain (arrivé sur la page on doit y faire une recherche interne pour y trouver le sujet que l'on cherche avec une forte probabilité que les mots clés recherchés soient dispersés dans des paragraphes différents et ne coïncident pas avec le contexte désiré) qu'au niveau du moteur de recherche (eg : les titres métas des pages toujours uniques perdent en précision))
        • Des hyperliens gérés de manière optimum :
          • Hyperliens Internes : cela détermine la facilité d'accès aux pages du site et favorise donc le scan du site par les moteurs, les liens fournissant des indications supplémentaires concernant l'importance relative des pages et leurs relations sémantiques.
          • Hyperliens Externes : en plus de favoriser des retours de liens presque toujours bien venus ainsi que de bonnes relations, cela renforce aussi la structure sémantique d'un site et sa catégorisation par rapport à d'autres sites. Attention toutefois à ne pas tomber dans l'excès où une page ferait penser à une participation à des échanges de liens à grande échelle.
    • Interactivité : un site qui autorise des commentaires aux articles augmente non seulement son contenu mais l'appel vis à vis des lecteurs dont ceux à la fibre participative peut s'exprimer.
    • Technique de construction des pages :
      • Qualité du code généré : absence d'erreurs html ou xHtml, ce qui est grandement facilité avec la génération automatique de code.
      • Facilité pour l'optimisation manuelle : chaque page a la possibilité de gérer directement les balises métas concernées.
      • Visibilité maximum des liens : c'est à dire pas de liens cachés par du Javascript ou d'autres langages et applications qui sont difficilement analysées par les moteurs de recherches. A noter que la difficulté d'analyse pour les codes "trop" dynamiques provient d'une combinaison entre la difficulté de l'analyse technique elle même (interprétation de code etc.) avec la nécessité d'être extrêmement rapide pour analyser des millions de pages (un bug plantant une spider a des conséquences nettement plus défavorables qu'un bug plantant un navigateur Internet personnel.)
      Tous ces paramètres sont bien sûr plus faciles à contrôler s'ils sont pris en compte à la racine du processus de création du CMS..
  • Détails techniques du CMS en raport avec le référencement et les points ci-dessus :
    • Balises Html méta principales associées au référencement : "title", "description", "keywords" ont toutes une balise Ataox correspondante qui permet de les définir exactement pour chaque page et dans chaque langue. De plus ces balises sont générées automatiquement à chaque création de page avec le contenu du menu concerné, ce qui permet de les optimiser très rapidement à la main.
    • Liaison optimum : elle est approchée notamment grâce à un menu toujours présent (à noter que c'est le standard à l'installation mais que cela peut être changé). Quand le menu devient trop grand et que cela pourrait gêner certains paramètres (vitesse, lisibilité indexabilité) un fil d'Ariane peut être adapté de manière à n'afficher que les boutons de menu à proximité du bouton actif, et le fil d'Ariane lui même qui permet de remonter.
    • Localisation géographique naturelle : elle est facilitée par la possibilité de générer des éléments communs à toutes les pages où à certains groupes de pages (les marqueurs : ville, district etc. sont écrit une seule fois). En pratique cela se fait en imbriquant le contenu commun dans la structure (une page ou une balise spécifique d'une page) qui rassemble les pages concernées.
    • Aspects polyglottes : les pages peuvent être accédées grâce à des URL directement exprimés dans la langue d'origine quand c'est raisonnable :
      • Pour l'anglais, les urls n'ont jamais été un problème, il faut juste être attentif pour éviter les blanc et les caractères ayant une signification opérationnelle par opposition au simple contenu de variable (c'est géré automatiquement par le CMS)
      • Pour les langues accentuées dont les caractères ont un équivalent anglophone non accentué, l'optimum actuel consiste à prendre la version non accentuée très bien traitée par les moteurs de recherche et sure de passer par toutes les "spiders" sans causer d'erreurs.
      • Les langues utilisant pleinement le code UTF-8 comme le chinois peuvent aussi avoir un équivalent en caractères anglophones, mais cela ne permet pas de rajouter une pondération supplémentaire directe sur les mots clés visés, il est donc possible d'introduire directement des url en UTF-8 grâce à la table asciiUtfIds qui établi les relations entre la nomination standard des pages ascii et la nomination UTF-8, cela peut être fait automatiquement lors de la première construction du site moyennant une balise supplémentaire pour chaque titre de menu.
Remise en perspective :
  • Ataox a évolué avec le concept de référencement Internet, mais cela ne veut pas dire qu'il est facile d'obtenir des premières positions sur les moteurs de recherches! En fait, les deux facteurs principaux pour être bien référencé sont la qualité du contenu et ce que les visiteurs en pensent. Dans cette perspective, il est aussi très important que les sites maximisant les deux paramètres précèdent en utilisant de bons outils de publication de manière à améliorer l'expérience des Internautes, à faciliter l'accès aux moteurs de recherches, à faciliter la mise à jour des information etc.
  • Ataox ne fournit pas d'outils de spamdexing permettant par exemple de générer des fermes de liens, de créer automatiquement des textes pour cet usage etc. Ce qui ne veut pas dire que ce n'est pas possible à réaliser, mais simplement que le développement officiel d'Ataox ne fournit pas ces options. A noter que les plugins développés par d'autres sources disposent bien sûr de toutes la liberté donnée par la licence GPL.




Ataox un CMS optimisé pour le référencement Internet.