Contenu

Slide #22 01:45

Sourcing 

Collecte 

Surveillance 

Analyse 

Capitalisation Collaboration

Diffusion

Déploiement 

Sécurité

Accompagnement

Sites Web (crawling)
La surveillance de l'ensemble d'un site web ou d'une partie (répertoire) permet, notamment, de détecter les pages les plus fréquemment mises à jour ainsi que les restructurations de sites. Digimind Oui : 1 Non : 0 Mise en surveillance des sites web de son choix en quelques clics via un wizard Paramétrage simple du crawling (exploration de liens en liens) Domaine, répertoires, profondeur, nombre de pages,…  Oui : 1 Non : 0  Oui : 1 Non : 0

1 1

Paramétrage avancé du crawling Syntaxe d’urls, formats de fichiers, mots-clés…

Une configuration précise du crawling permet d’explorer et surveiller des parties précises d’un site, voire les types d’informations sur un site (uniquement les pdf ou word par exemple…).

1

Crawling de plus de 8.000 sites par jour

Les solutions « client » monoposte classiques ne disposent pas de la capacité de traitement des solutions serveurs et ne sont pas évolutives (pour supporter la montée en charge).

1

www.digimind.fr

Guide de Benchmark des solutions de veille stratégique

22

Digimind  2011 – Logiciels de veille et e-réputation

Notes publiques

Information

De : Yo Mamarss
Ajoutée :26 avril 2012


Tags: tester

Partager

URL :

Sélectionnez puis faites CTRL-C pour copier l'URL ci-dessus

Intégrez cette vidéo sur votre site :

Sélectionnez puis faites CTRL-C pour copier l'URL ci-dessus

Partagez cet instant :

Sélectionnez puis faites CTRL-C pour copier l'URL ci-dessus