Post on 04-Apr-2015
Présenté par Maxime Boivin
Aude Dufresne
Les filtres à la communication sur Internet
http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf
Cont
exte
Une utilisation croissante d’Internet
Une augmentation de l’accès à l’information
Une place grandissante à la communication
Une diminution du contrôle sur les contenus
Plusieurs tentatives de gestion des contenus
Les
cybe
rfiltr
es
Les cyberfiltres sont des outils qui ont été créés afin de tenter de gérer le contenu.
Nous sommes constamment en interaction avec ces filtres.
Ils détiennent maintenant des pouvoirs qui viennent transformer notre rapport à la réalité et transformer les activités qu’ils sont supposés supporter.
De nos jours, ces filtres sont souvent proactifs et paraissent donc de plus en plus humains. Ils apprennent et s’adaptent aux comportements des internautes.
La s
truc
ture
du
web
Une structure hypertexte(vs structure linéaire)
Plus puissant mais plus désorganisé
Dans un contexte éclaté, il devient difficile pour les usagers d’assimiler l’information.
Les
mot
eurs
de
rech
erch
e
Moteur de recherche : Application web permettant de retrouver des ressources associées à des mots-clés.
Outils créés pour contrer les problèmes d’organisation du web
Décembre 2009
Statistiques
67%
7%
6%
3%
16%
Utilisation des moteurs de recherche à travers le monde
Yahoo!
Baidu
Bing
Autres
Chacun de ces moteurs de recherche connaît une croissance impressionnante :
Yandex Bing Google Yahoo! Baidu
91%
70%
58%
13%7%
Nombre de requêtes réalisées dans le mondeen 2009
Google 87,8 milliardsYahoo! 9,4 milliardsBaidu 8,5 milliardsBing 4,1 milliards
Mai
s co
mm
ent ç
a fo
nctio
nne
?
Outil de recherche constitué de robots qui parcourent automatiquement et régulièrement les sites web.
Objectif des agents : découvrir les nouvelles adresses afin de les indexer dans une base de données rendue accessible aux internautes à partir de mots-clés.
La première génération de moteurs de recherche comme Alta-Vista et Yahoo utilisaient les informations fournies par les auteurs des sites web et validées par des éditeurs pour organiser leur base de données.
Chaque moteur de recherche utilise un système qui lui est propre, quoique tous similaires.
Une
cla
ssifi
catio
n en
3 é
tape
s
1. L’exploration (ou crawl) : effectuée par un robot d’indexation qui suit les hypertextes qui relient les pages entre elles.
2. L’indexation : extraction, à partir des ressources récupérées, des mots dits significatifs afin de les enregistrer dans une base de données.
3. La recherche : à partir des requêtes formulées par les usagers, un algorithme détermine les documents qui correspondent le mieux aux mots contenus dans la requête.
Les moteurs de recherches utilisent des modules complémentaires afin d’améliorer les résultats. Ex. : correcteur d’orthographe, suppression de mots vides, etc.
La p
ertin
ence
des
résu
ltats
Les résultats des recherches sont présentés selon la pertinence établie par l’algorithme. De nos jours, la pertinence est basée en grande partie sur la popularité :
o les pages choisies par les usagers suite à une requête,
o le nombre de liens qui réfèrent vers une page et même
o l’importance des sites qui font référence à la page.
PageRank, un des outils utilisés par Google pour déterminer l’ordre de présentation des résultats.
La li
mite
des
résu
ltats C’est le filtre qui détermine au final la
pertinence des documents.
L’usager consent donc une certaine autonomie aux agents, souvent par manque d’options.
Ne sachant pas ce qui a influencé les résultats obtenus, l’internaute en vient à douter.
Or, le choix implique une compréhension, chose d’autant plus difficile étant donné le système hypertextuel.
Les résultats des recherches nous donnent en fait accès à ce que les autres regardent.
L’usa
ger f
ace
à l’i
nfor
mati
on
Les agents ne sont pas infaillibles.
La responsabilité de déterminer la crédibilité des ressources retombe donc sur les bras de l’usager.
L’information perd de sa certitude.
L’internaute doit être d’autant plus prudent puisqu’il existe une quantité de techniques de détournement des références qui nuisent à la pertinence des résultats.
Le comportement des consommateurs sur Internet a donc beaucoup évolué
Le d
étou
rnem
ent m
alho
nnêt
e
Plusieurs sites web utilisent des techniques de détournement des références qui sont jugées malhonnêtes.
Le référencement abusif ou spamdexing : ensemble de techniques qui trompent les moteurs de recherche quant à la qualité ou à l’information contenue sur une page ou sur un site.
L’objectif ? Obtenir un bon classement pour un certain mot-clé.
Ces techniques sont sévèrement punies par les moteurs de recherche mais très difficiles à distinguer des méthodes jugées honnêtes.
Le cloaking, les sites miroirs et le zurnisme sont des exemples de spamdexing.
Sear
ch E
ngin
e O
ptim
izati
on
Search Engine Optimization :Technique de détournement des références jugée honnête et principalement utilisée par les entreprises.
Technique visant à améliorer la compréhension du contenu d’une page ou d’un site web pour les robots d’indexation.
Objectif ? Obtenir un bon positionnement dans les résultats de recherche sur un thème. Utiliser les robots pour pousser leurs biens et services aux consommateurs.
Résultats ? Des recherches biaisés.
Les sites commerciaux ont vite compris l’importance d’être parmi les premiers résultats de recherche. Ils s’en servent pour nous atteindre.
La p
ublic
ité
Le financement des moteurs de recherche se fait souvent par la vente d’espaces publicitaires correspondants aux mots-clés recherchés.
Il existe 2 types de publicités :o les publicités classiques (encarts séparés
du contenu)o la publicité intégrée aux résultats de
recherche.
Ceci se fait malheureusement au détriment de la pertinence des résultats.
La publicité sur Internet semblent moins efficaces que par le passé.
Le w
eb in
visi
ble
Une partie du web est accessible en ligne mais n’est pas indexée par les moteurs de recherche
Les principales raisons qui empêchent l’indexation :
• contenu dynamique• contenu non lié (sans backlinks)• contenu à accès limité • contenu de script• contenu non indexable (format non
supporté par les robots)
Certains outils, comme le protocole sitemap de Google, ont été créés afin de résoudre le problème.
En 2008, le web invisible représentait 70 à 75% de l’ensemble, environ un trilliard de pages non indexées.
D’a
utre
s fil
tres
Il existe d’autres filtres qui viennent modifier notre rapport au monde.
Développement d’un profil individuel selon le comportement de l’usager, sa réponse aux informations suggérées.
Amazon fonctionne ainsi, suggérant des produits aux usagers selon les choix qu’ils ont effectués et les choix des autres usagers.
Les cookies, par exemple, fournissent de l’information sur nos activités et permettent d’être reconnu.
Une
sym
bios
e hu
mai
n-m
achi
ne
Au final, les ordinateurs sont aujourd’hui une sorte de prothèse pour nous, effectuant plus rapidement et souvent mieux que nous certaines tâches.
Malgré cette symbiose qui existe entre nous et ces outils, nous ne pouvons pas encore nous fier à eux aveuglément.
COMPUTER
Pour
plu
s d’
info
rmati
on…
http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf http://www.google.com/support/webmasters/bin/answer.py?answer=35769
http://www.seo.com/
http://www.indicateur.com/Doc/robots-indexation.asp http://marketshare.hitslink.com/search-engine-market-share.aspx?qprid=4&qptimeframe=Y http://www.clubic.com/actualite-321722-recherche-google-leader-microsoft-remonte.html http://www.google.com/support/webmasters/bin/answer.py?answer=35769
Des questions ?MERCI ! http://lrcm.com.umontreal.ca/Dufresne/COM7162/DufresneFiltres.pdf