Ciblage géographique

En géomarketing et en marketing Internet, le ciblage géographique (en anglais, geotargeting) est la géolocalisation d'un visiteur d'un site Web, puis la fourniture d'un contenu différent en fonction de l'emplacement du visiteur. Le ciblage géographique peut être fait en fonction du pays, de la région, de l'état, de la ville, du code postal, de l'organisation, de l'adresse IP, du fournisseur d'accès à Internet ou d'autres critères[1].

Le ciblage géographique est utilisé fréquemment dans la publicité en ligne, ainsi que dans la télévision sur Internet par des sites tels que iPlayer et Hulu. Pour la télévision sur internet, le contenu est souvent limité aux utilisateurs localisés dans des pays spécifiques. Le ciblage géographique permet alors de respecter la gestion des droits numériques des programmes diffusés. L'utilisation de serveurs mandataires et de réseaux privés virtuels permet de contourner ces restrictions[2].

Le ciblage géographique s'utilise notamment de nos jours via les cookies, qui permettent au marketing d'être personnaliser pour chaque client, une pratique parfois douteuse.

Fourniture de l'information géographique

[modifier | modifier le code]

L'information sur la localisation de l'utilisateur est toujours fournie par l'utilisateur. Cette information peut être fournie explicitement par l’utilisateur ou automatiquement sans l'intervention de l'utilisateur.

Fourniture de l'information explicitement par l'utilisateur

[modifier | modifier le code]

Les sites Web de Fedex et d’UPS utilisent une information géographique fournie explicitement par l'utilisateur. Sur ces sites, les utilisateurs sélectionnent d’abord leur pays, puis ils reçoivent un contenu en fonction de leur sélection.

Fourniture de l'information de façon automatique

[modifier | modifier le code]

Dans le marketing Internet, l'identification de la localisation de l'utilisateur est généralement automatisée[3]. Un bon exemple de localisation automatisé est le site Web de Ace Hardware (en) à l'adresse www.acehardware.com. La société utilise un logiciel de géolocalisation pour identifier la localisation de l'utilisateur et alimenter la section My Local Ace (traduction littérale, Mon magasin local Ace) de son site Web. En fonction de l'emplacement du visiteur, le site Web peut indiquer au visiteur combien de magasins se trouvent dans son secteur, ainsi qu'une carte de localisation pour aider le client à trouver le magasin le plus proche de l'endroit où il se trouve[4].

L'exploration de l'espace IP

[modifier | modifier le code]

La découverte automatique des informations de géolocalisation des utilisateurs pour connaître leur position, leur organisation et leur ville sur la base de leur adresse IP en utilisant des traceroutes, des pings et une combinaison d'autres outils est un processus complexe[5].

Cette découverte est basée sur la préanalyse de tout l'espace d'adressage IP. Il y a plus de 4 milliards d'adresses IP possibles et leur analyse détaillée est une tâche herculéenne, d'autant plus que les adresses IP sont constamment attribuées, réaffectées, déplacées et modifiées en raison du déplacement des routeurs[6], des entreprises qui se voient attribuer des adresses IP ou se déplacent vers d'autres adresses IP, et des réseaux qui sont construits ou modifiés. Afin de suivre ces changements, des algorithmes complexes et des techniques de pointe sont nécessaires[7].

Une fois que tout l'espace d'adressage IP est analysé, chaque adresse doit être mise à jour périodiquement pour refléter les modifications apportées aux informations associées à cette adresse, sans porter atteinte à la vie privée de l'utilisateur. Ce processus a la même ampleur que l'indexation du Web.

Masquage : présentation de contenu différent aux moteurs de recherche

[modifier | modifier le code]

Le masquage (en anglais, cloaking) est une technique utilisée pour optimiser le positionnement d'un site dans les résultats des moteurs de recherche. Il consiste pour le serveur Web ainsi programmé à présenter un contenu de page Web différent suivant que le client distant est un robot d'indexation de moteur de recherche ou un internaute humain.

L’identification du visiteur comme étant un robot d'indexation de moteur de recherche est effectuée sur la base de l’adresse IP. Le site qui veut tromper un moteur de recherche compare l'adresse IP du visiteur avec une liste d'adresses IP connues pour être des adresses de serveurs appartenant à un moteur de recherche et utilisées pour exécuter l'indexation des sites. La diffusion de contenu différent pour les robots d'indexation que pour les visiteurs humains va à l'encontre des recommandations de la plupart des moteurs de recherche[8],[9],[10].

Bien que les directives des moteurs de recherche semblent impliquer que tout type de masquage est mauvais, il existe des cas où le masquage peut être légitime. Le sujet est très controversé et les experts en optimisation pour les moteurs de recherche continuent de débattre de la question[11].

Références

[modifier | modifier le code]
(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Geotargeting » (voir la liste des auteurs).
  1. Michael Freedman, Mythili Vutukuru, Nick Feamster and Hari Balakrishnan, Geographic Locality of IP Prefixes, Internet Measurement Conference (IMC), 2005
  2. STEPHANIE CLIFFORD, « Many See Privacy on Web as Big Issue, Survey Says », Nytimes.com,‎ (lire en ligne, consulté le )
  3. Wall Street Journal, “On the Web's Cutting Edge, Anonymity in Name Only”, August 4, 2010
  4. Chain Store Age, “Making it Personal”, November, 2008
  5. « Digital Element Finding Demand for Granular IP targeting », (consulté le ) Discussing automated spidering technology
  6. SAUL HANSELL, « Google Says I.P. Addresses Aren’t Personal », Nytimes.com,‎ (lire en ligne, consulté le )
  7. KATE MURPHY, « How to Muddy Your Tracks on the Internet », Nytimes.com,‎ (lire en ligne, consulté le )
  8. Google webmaster guidelines
  9. Yahoo! search content quality guidelines
  10. MS Search guidelines for successful indexing « https://web.archive.org/web/20060819035446/http://search.msn.com/docs/siteowner.aspx?t=SEARCH_WEBMASTER_REF_GuidelinesforOptimizingSite.htm »(Archive.orgWikiwixArchive.isGoogleQue faire ?),
  11. Chris Sherman (July 18, 2001), Search Engine Cloaking: The Controversy Continues « https://web.archive.org/web/20071113063408/http://searchenginewatch.com/showPage.html?page=2157341 »(Archive.orgWikiwixArchive.isGoogleQue faire ?), , Search Engine Watch, retrieved on December 9, 2007