Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

firewall: rejeter la publicité.

28 réponses
Avatar
charlot
bj bj,

afin de rejeter les serveurs de publicité comme amazonaws.com, cette
plaie, j'ai trouvé l'idée de modifier mon fichier hosts, en y incluant
une lonn...ngue liste de serveurs à bannir, tout simplement.

il semble que ce soit radical ...

Les cookies radioactifs d'amazonaws, ça ouvre des myriades de
connections qui vous affichent toutes ces pubs ...

Ce coup là on est plus fort que ces pollueurs. Les addons pour firefox
n'ont pas réussis à me débarrasser de ... toute cette pub, et puis y'a
pas que firefox dans la vie.

Google n'apprécie pas, les liens publicitaires sur le moteur de
recherches deviennent incliquables, bravo ! :-)

ok merci.

La méthode est la plus simplissime que j'ai trouvé: hacker mon fichier
hosts ..... (oui, il est unique, et locké en root).


Sous ubuntu .... j'ai un script, il met à jour /etc/hosts, c'est:

/etc/cron.monthly/hosts

attention c'est un script, c'est un fichier texte avec l'attribut x;

il contient (ici je m'appelle ubuntu, pour l'exemple) :

#!/bin/bash
wget --directory-prefix=/tmp http://winhelp2002.mvps.org/hosts.txt ||
exit mv /tmp/hosts.txt /etc/hosts
echo "127.0.1.1 ubuntu" >> /etc/hosts
echo "::1 ip6-localhost ip6-loopback" >> /etc/hosts
echo "fe00::0 ip6-localnet" >> /etc/hosts
echo "ff00::0 ip6-mcastprefix" >> /etc/hosts
echo "ff02::1 ip6-allnodes" >> /etc/hosts
echo "ff02::2 ip6-alllrouters" >> /etc/hosts

et 'hop ...

Ce script modifie hosts pour y inclure le contenu de la page
http://winhelp2002.mvps.org/hosts.txt


PARCE QUE, j'ai essayé les antivirus les antipub pour le cas précis de
amazonaws (les cookies radioactifs!), y'a rien qui marche. Les petits
ADBlock ne marchent plus du tout, les cookies ont trop évolué ! sont
devenus radioactifs, de véritables virus qui passent à travers tous
les filtres de vos brouteurs ... en arriere-plan ils téléchargent UN
MAXIMUM de trucs ! :-) :-) C'est expliqué sur le web (évidemment).

Donc depuis ces petits virus par les cookies .... on trouve de plus
en plus des solutions .. de plus en plus définitives comme hacker hosts,
point barré, c'est radical si c'est maintenu (d'où le classement
en cron, que j'ai recopié, copié-collé et zou' ....... svp) c'est
autant radioactif pour eux que eux le sont pour vous.

....... J'ai voulu minimiser le travail à l'extreme ....

merci etherape, par contre wireshark c'est un bordel .. c'est devenu
compliqué ! J'y comprend absolument rien, je voudrais par exemple
tracer la totalité du trafic sur base du mot clef "amazonaws.com", ça
fait pourtant des années que j'essaye, de temps en temps je retrouve
la solution ... un autre jour peut-être.
--

10 réponses

1 2 3
Avatar
Pascal Hambourg
Le 24/11/2016 à 18:09, Christophe PEREZ a écrit :
Le Thu, 24 Nov 2016 16:53:22 +0100, Francois Lafont a écrit :
Et du coup, qu'on m'arrête si je dis une bêtise, je dirais que le trafic
HTTPS de Christophe passe très certainement par son proxy

Il me semble bien :)
# grep REDIRECT /etc/shorewall/rules
REDIRECT loc 8080 tcp www - !192.168.0.102
Je présume (sans avoir encore trouvé la réponse dans les docs nombreuses
shorewall) que www = http+https

Dans /etc/services, www est juste un alias de http, donc a priori non.
mais celui ne pourra pas analyser grand chose. Il verra juste les IPs
et ports source et destination mais part ça rien du tout.


En effet.
A ma connaissance pour qu'un proxy puisse examiner le trafic HTTPS en
clair sans déclencher d'alerte, il faut que le poste client soit
configuré pour accepter le certificat présenté par le proxy pour
n'importe quel site.
Avatar
Kevin Denis
Le 24-11-2016, Pascal Hambourg a écrit :
A ma connaissance pour qu'un proxy puisse examiner le trafic HTTPS en
clair sans déclencher d'alerte, il faut que le poste client soit
configuré pour accepter le certificat présenté par le proxy pour
n'importe quel site.

Tu peux aussi configurer le proxy explicitement. Ainsi, le proxy voit passer
pas mal de trucs.
Cela permet de filtrer sans casser le SSL.
--
Kevin
Avatar
Francois Lafont
On 11/24/2016 10:17 PM, Kevin Denis wrote:
Le 24-11-2016, Pascal Hambourg a écrit :
A ma connaissance pour qu'un proxy puisse examiner le trafic HTTPS en
clair sans déclencher d'alerte, il faut que le poste client soit
configuré pour accepter le certificat présenté par le proxy pour
n'importe quel site.

Tu peux aussi configurer le proxy explicitement. Ainsi, le proxy voit passer
pas mal de trucs.
Cela permet de filtrer sans casser le SSL.

Autant je comprends ce dont parle Pascal (sauf erreur il s'agit de faire du
Man in the middle) autant je ne comprends pas trop ce que tu suggères Kevin.
Tu pourrais développer un peu s'il te plaît ?
--
François Lafont
Avatar
Christophe PEREZ
Le Thu, 24 Nov 2016 18:55:33 +0100, Francois Lafont a écrit :
Ok mais quand tu dis "sites que je considère comme interdits", c'est
suivant quels critères techniques ? En fonction de l'url suivant qu'elle
se trouve oui ou non dans je ne sais quelle « liste noire » ?

Tout à fait.
Parce que
si c'est ça par exemple, alors c'est pas possible car ton Squid qui voit
passer la requête ne sait pas quelle est url associée à cette requête
(le ssl empêche d'avoir cette information).

Ah. Bon, j'y connais pas grand chose, et je ne vois pas bien pourquoi,
mais ce n'est pas très important, voir plus bas pourquoi :)
Ce n'est pas pour critiquer bien sûr, c'est juste pour t'avertir que, à
mon humble avis (et sauf erreur Nicolas et Pascal vont plutôt dans ce
sens également)

Aucun problème, je n'ai pas ce genre de susceptibilité exacerbée.
ton Squid risque de ne rien filtrer du tout en https.

Bon, l'avantage, c'est que tout ceci date de 10 ans, et que, le temps
étant passé, les enfants ont forcément pris de l'âge, et ne sont plus
sujets à ce "filtrage".
Du coup, si je comprends bien, ils ont du voir des choses que j'aurais
préféré qu'ils ne voient pas.
Ceci dit, je me souviens qu'à l'époque j'avais suivi des tutos qui me
semblaient assez sérieux, avec une base de blacklist de l'université de
Toulouse.
Quand je pense à ce que j'ai pu me faire ch... à mettre tout ça en place,
je peux t'assurer que si j'avais su que ça ne servait à rien, je m'en
serais dispensé :D
Avatar
Christophe PEREZ
Le Thu, 24 Nov 2016 22:25:59 +0100, Francois Lafont a écrit :
Autant je comprends ce dont parle Pascal (sauf erreur il s'agit de faire
du Man in the middle) autant je ne comprends pas trop ce que tu suggères
Kevin.
Tu pourrais développer un peu s'il te plaît ?

J'avais pensé qu'il parlait de configurer l'accès au proxy dans le
navigateur, donc sans proxy transparent, mais peut-être ai-je mal imaginé.
Mais si c'est ça, c'est quand même bcp plus compliqué à gérer quand tu as
divers appareils qui viennent s'inclure dans le réseau (wifi).
Avatar
Pascal Hambourg
Le 24/11/2016 à 22:17, Kevin Denis a écrit :
Le 24-11-2016, Pascal Hambourg a écrit :
A ma connaissance pour qu'un proxy puisse examiner le trafic HTTPS en
clair sans déclencher d'alerte, il faut que le poste client soit
configuré pour accepter le certificat présenté par le proxy pour
n'importe quel site.

Tu peux aussi configurer le proxy explicitement. Ainsi, le proxy voit passer
pas mal de trucs.
Cela permet de filtrer sans casser le SSL.

Mais cela ne permet pas au proxy de voir le contenu des connexions
HTTPS, y compris l'URL. Au mieux le proxy ne voit que l'adresse IP ou le
nom d'hôte du serveur auquel le client lui demande de se connecter.
Avatar
Francois Lafont
On 11/24/2016 11:08 PM, Christophe PEREZ wrote:
Parce que
si c'est ça par exemple, alors c'est pas possible car ton Squid qui voit
passer la requête ne sait pas quelle est url associée à cette requête
(le ssl empêche d'avoir cette information).

Ah. Bon, j'y connais pas grand chose, et je ne vois pas bien pourquoi,
mais ce n'est pas très important, voir plus bas pourquoi :)

En gros, ça vient de considérations sur la notion de couches du réseau
Internet. En gros (je ne pourrais de toute façon pas rentrer dans les
détails sans dire plein de bêtises), avec https, entre le client Web
(le navigateur) et le serveur Web, avant même que ça commence à parler
« HTTP » entre les 2 extrémités, il y a une connexion TCP qui se crée.
Un peu comme un canal de communication (même si c'est un canal un peu
abstrait). Le protocole TCP se situe dans une couche en dessous de la
couche « HTTP » (la couche application). TCP c'est le canal de
communication en somme et HTTP c'est le type de données que tu vas faire
circuler dedans.
avec HTTP*s*, c'est la connexion TCP elle-même qui sera chiffrée d'un
bout à l'autre. Et donc sur ce canal sécurisé va circuler les requêtes
du client et les réponses http du serveur. L'url demandée par le client
fait partie de ces données. Un équipement réseau entre le client et le
serveur ne peut normalement pas le connaître.
ton Squid risque de ne rien filtrer du tout en https.

Bon, l'avantage, c'est que tout ceci date de 10 ans, et que, le temps
étant passé, les enfants ont forcément pris de l'âge, et ne sont plus
sujets à ce "filtrage".
Du coup, si je comprends bien, ils ont du voir des choses que j'aurais
préféré qu'ils ne voient pas.

Pour le HTTPS uniquement, oui c'est possible. :)
Ceci dit, je me souviens qu'à l'époque j'avais suivi des tutos qui me
semblaient assez sérieux, avec une base de blacklist de l'université de
Toulouse.
Quand je pense à ce que j'ai pu me faire ch... à mettre tout ça en place,
je peux t'assurer que si j'avais su que ça ne servait à rien, je m'en
serais dispensé :D

Ben non, tu ne l'as pas fait pour rien non plus car pour le HTTP a priori
ton filtrage devait marcher je pense. Comment ça, tu ne l'avais pas testé
par toi-même ? :p
Et bon... je suis pas un expert hein... mais je crois que souvent les sites
porno sont plutôt en HTTP et pas en HTTPS et c'était sans doute encore plus
vrai il y a 10 ans (bon... j'ai pas fait d'études statistiques hein :p).
--
François Lafont
Avatar
Christophe PEREZ
Le Thu, 24 Nov 2016 23:38:30 +0100, Francois Lafont a écrit :
En gros, ça vient de considérations sur la notion de couches du réseau
Internet.

Merci pour la vulgarisation ;)
Pour le HTTPS uniquement, oui c'est possible. :)

Je comprends. Cependant, c'est surprenant que toutes les lectures que
j'avais pu faire sur le sujet à l'époque n'en aient pas fait état.
Ben non, tu ne l'as pas fait pour rien non plus car pour le HTTP a
priori ton filtrage devait marcher je pense. Comment ça, tu ne l'avais
pas testé par toi-même ? :p

Si si, bien sûr. La preuve c'est que j'en ai parlé ici pour le filtrage
des pubs, ce qui continue à fonctionner ;)
Mais je suis un peu du genre à penser que si ce n'est pas parfait, c'est
inutile (j'ai dit : *un peu*)
Et bon... je suis pas un expert hein... mais je crois que souvent les
sites porno sont plutôt en HTTP et pas en HTTPS et c'était sans doute
encore plus vrai il y a 10 ans (bon... j'ai pas fait d'études
statistiques hein :p).

On ne peut plus qu'espérer et se raccrocher à ça :)
Avatar
David Sarella
le 2016-11-21, charlot a plope ceci:
les cookies ont trop évolué ! sont
devenus radioactifs, de véritables virus qui passent à travers tous
les filtres de vos brouteurs ... en arriere-plan ils téléchargent UN
MAXIMUM de trucs ! :-) :-) C'est expliqué sur le web (évidemment).

n'importe quoi !
--
x______o_______o_______o_______o_______o_______o_______o_______o_______x
[ ]
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Avatar
Kevin Denis
Le 24-11-2016, Pascal Hambourg a écrit :
Tu peux aussi configurer le proxy explicitement. Ainsi, le proxy voit passer
pas mal de trucs.
Cela permet de filtrer sans casser le SSL.

Mais cela ne permet pas au proxy de voir le contenu des connexions
HTTPS, y compris l'URL. Au mieux le proxy ne voit que l'adresse IP ou le
nom d'hôte du serveur auquel le client lui demande de se connecter.

Le nom d'hôte permet de filtrer. De mémoire le client envoie aussi
son user-agent, et un ou deux autres headers.
--
Kevin
1 2 3