[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: [linux] surveilance traffic http
http://www.sourceforge.net/projects/ipfc/
http://www.foo.be/ipfc/
Correllation possible entres des logs différents mais avec des points
communs. En fait, c'est un framework général pour la corrélation de logs
mais aussi la gestion d'infrastructure de sécurité ...
tu peux par exemple faire une requête SQL comme ceci :
select url,count(*) from apache_access_log_1
where sensor_id = 5 and bytes_sent = 0
group by url
order by count(*) desc;
Qui te donne les connections HTTP ok mais qui n'ont pas envoyé de données.
très pratique pour les HTTP redirect qui déconnent et autre...
Je crois faire le matching users, bytes sent et companies.... cela ne sera
que deux requêtes en plus.
La release officiel (1.0) est prévue pour le 15 Decembre.
Ah merde , j'oubliais, je suis très très impliqué dans ce projet 8-)
(legal disclaimer)
alx
--
---
Alexandre Dulaunoy
Work : http://www.conostix.com/ adulau@conostix.com
Private : http://www.thinkingsecure.com/ adulau@thinkingsecure.com
"Liberty is the great parent of science and of virtue; and a nation will
be great in both in proportion as it is free. " T. Jefferson
On Thu, 15 Nov 2001, Jean-Francois Dive wrote:
> Euuh HTTP est base sur TCP qui est un protocol connection oriented , mais
> le nombre de connection est enorme pour une duree de vie petite ...
> Disons que techniquement, c'est possible a mon avis, mais ca demande de la
> chippoterie sans nom pour coreler les informations des logs de squid...
>
> JeF
>
> On Wed, 14 Nov 2001, Jerome Warnier wrote:
>
> > Jean-Charles de Longueville wrote:
> >
> > >Bonjour,
> > >
> > >un client me demande si il est possible d'obtenir des statistiques d'usage des ressources internet.
> Concretement il voudrait savoir le temps que passe ses employes sur hotmail... (pas le contenu des messages).
> > >
> > >cordialement,
> > >
> > >jch
> > >
> > Avec un proxy ou proxy transparent (Squid ferait l'affaire), en
> > demandant de stocker ses logs au format d'Apache (je me souviens plus du
> > nom) et en analysant avec un truc comme Webalyser.
> > Cela dit, cela ne te donnera jamais le temps passé dessus, puisque http
> > n'est pas un protocole avec connections, tu ne peux pas savoir le temps
> > passé, mais seulement le nb de pages, la quantité d'infos que cela
> > représente, etc...
> >
> >
> >
> > [ Soyez précis dans vos sujets svp afin de déterminer directement ]
> > [ le type de demande... ]
> > [ Pour vous (dés)inscrire, aller sur http://unixtech.be/ml.php ]
> > [ Archives de la mailing list: http://archives.unixtech.be/linux/ ]
> > [ http://unixtech.be Contact: listmaster@unixtech.be ]
> >
>
>
> [ Soyez précis dans vos sujets svp afin de déterminer directement ]
> [ le type de demande... ]
> [ Pour vous (dés)inscrire, aller sur http://unixtech.be/ml.php ]
> [ Archives de la mailing list: http://archives.unixtech.be/linux/ ]
> [ http://unixtech.be Contact: listmaster@unixtech.be ]
>
[ Soyez précis dans vos sujets svp afin de déterminer directement ]
[ le type de demande... ]
[ Pour vous (dés)inscrire, aller sur http://unixtech.be/ml.php ]
[ Archives de la mailing list: http://archives.unixtech.be/linux/ ]
[ http://unixtech.be Contact: listmaster@unixtech.be ]