firewall: rejeter la publicité.

Le
charlot
bj bj,

afin de rejeter les serveurs de publicité comme amazonaws.com, cette
plaie, j'ai trouvé l'idée de modifier mon fichier hosts, en y incluant
une lonnngue liste de serveurs à bannir, tout simplement.

il semble que ce soit radical

Les cookies radioactifs d'amazonaws, ça ouvre des myriades de
connections qui vous affichent toutes ces pubs

Ce coup là on est plus fort que ces pollueurs. Les addons pour firefox
n'ont pas réussis à me débarrasser de toute cette pub, et puis y'a
pas que firefox dans la vie.

Google n'apprécie pas, les liens publicitaires sur le moteur de
recherches deviennent incliquables, bravo ! :-)

ok merci.

La méthode est la plus simplissime que j'ai trouvé: hacker mon fichier
hosts .. (oui, il est unique, et locké en root).


Sous ubuntu . j'ai un script, il met à jour /etc/hosts, c'est:

/etc/cron.monthly/hosts

attention c'est un script, c'est un fichier texte avec l'attribut x;

il contient (ici je m'appelle ubuntu, pour l'exemple) :

#!/bin/bash
wget --directory-prefix=/tmp http://winhelp2002.mvps.org/hosts.txt ||
exit mv /tmp/hosts.txt /etc/hosts
echo "127.0.1.1 ubuntu" >> /etc/hosts
echo "::1 ip6-localhost ip6-loopback" >> /etc/hosts
echo "fe00::0 ip6-localnet" >> /etc/hosts
echo "ff00::0 ip6-mcastprefix" >> /etc/hosts
echo "ff02::1 ip6-allnodes" >> /etc/hosts
echo "ff02::2 ip6-alllrouters" >> /etc/hosts

et 'hop

Ce script modifie hosts pour y inclure le contenu de la page
http://winhelp2002.mvps.org/hosts.txt


PARCE QUE, j'ai essayé les antivirus les antipub pour le cas précis de
amazonaws (les cookies radioactifs!), y'a rien qui marche. Les petits
ADBlock ne marchent plus du tout, les cookies ont trop évolué ! sont
devenus radioactifs, de véritables virus qui passent à travers tous
les filtres de vos brouteurs en arriere-plan ils téléchargent UN
MAXIMUM de trucs ! :-) :-) C'est expliqué sur le web (évidemment).

Donc depuis ces petits virus par les cookies . on trouve de plus
en plus des solutions .. de plus en plus définitives comme hacker hosts,
point barré, c'est radical si c'est maintenu (d'où le classement
en cron, que j'ai recopié, copié-collé et zou' . svp) c'est
autant radioactif pour eux que eux le sont pour vous.

. J'ai voulu minimiser le travail à l'extreme .

merci etherape, par contre wireshark c'est un bordel .. c'est devenu
compliqué ! J'y comprend absolument rien, je voudrais par exemple
tracer la totalité du trafic sur base du mot clef "amazonaws.com", ça
fait pourtant des années que j'essaye, de temps en temps je retrouve
la solution un autre jour peut-être.
--
Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos réponses Page 1 / 3
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
charlot
Le #26417913
charlot
#!/bin/bash
wget --directory-prefix=/tmp http://winhelp2002.mvps.org/hosts.txt ||
exit mv /tmp/hosts.txt /etc/hosts
echo "127.0.1.1 ubuntu" >> /etc/hosts
echo "::1 ip6-localhost ip6-loopback" >> /etc/hosts
echo "fe00::0 ip6-localnet" >> /etc/hosts
echo "ff00::0 ip6-mcastprefix" >> /etc/hosts
echo "ff02::1 ip6-allnodes" >> /etc/hosts
echo "ff02::2 ip6-alllrouters" >> /etc/hosts
et 'hop ...

c'est le script en entier, à condition que la page web réponde.
Avant le 1er run du script il faut créer le fichier hosts, il
contiendra:
127.0.0.1 localhost
::1 localhost #[IPv6]
c tout. Et si on ne met rien .. j'ai pas essayé, peut-être qu'il va
buter sur ipv4.
et penser à mettre son petit nom de machine dans le script. On ne risque
rien, hosts c'est pas dangereux.
c'est fini tous ces sprites dans le radar ip ...
ne reste que les traces de rejet de tous ces serveurs de pub.
--
charlot
Le #26417914
charlot
charlot
#!/bin/bash
wget --directory-prefix=/tmp http://winhelp2002.mvps.org/hosts.txt
|| exit mv /tmp/hosts.txt /etc/hosts
echo "127.0.1.1 ubuntu" >> /etc/hosts
echo "::1 ip6-localhost ip6-loopback" >> /etc/hosts
echo "fe00::0 ip6-localnet" >> /etc/hosts
echo "ff00::0 ip6-mcastprefix" >> /etc/hosts
echo "ff02::1 ip6-allnodes" >> /etc/hosts
echo "ff02::2 ip6-alllrouters" >> /etc/hosts
et 'hop ...

c'est le script en entier, à condition que la page web réponde.
Avant le 1er run du script il faut créer le fichier hosts, il
contiendra:
127.0.0.1 localhost
::1 localhost #[IPv6]
c tout. Et si on ne met rien .. j'ai pas essayé, peut-être qu'il va
buter sur ipv4.
et penser à mettre son petit nom de machine dans le script. On ne
risque rien, hosts c'est pas dangereux.
c'est fini tous ces sprites dans le radar ip ...
ne reste que les traces de rejet de tous ces serveurs de pub.
--

Et qu'est ce qui reste comme intruder principal du-moment ? Lui :
ec2-52-29-220-255.eu-central-1.compute.amazonaws.com
Celui-là ça fait des semaines que je le traque ! fdp ! :-)
Il mange ma connection des que je suis sur le web, il hacke firefox il
fait tout un tas de trucs, celui-là :-) :-) ..... il est MORT, coucou
t'es mort toi ! Il est le fantôme, la matrice de tous ces morts.
Voilà, si vous niquez la gueule à tous ces serveurs de merde il vous
reste les requetes qui viennent des grands patrons de ce bordel
publicitaire agressif et hackeur, le chef, eu-central NUMBER
ONE :-) :-) dehors fissa, fy fo bye bye .... ... wtf ?
Christophe PEREZ
Le #26417928
Le Mon, 21 Nov 2016 20:49:32 +0100, charlot a écrit :
afin de rejeter les serveurs de publicité comme amazonaws.com, cette
plaie, j'ai trouvé l'idée de modifier mon fichier hosts, en y incluant
une lonn...ngue liste de serveurs à bannir, tout simplement.

Personnellement, à l'époque où je devais modérer/censurer les
consultations de mes jeunes enfants, j'avais installé Squid & SuigGuard,
toujours en place, qui me permettent de bloquer certaines pubs.
Par contre, ce n'est pas léger à configurer/adapter, mais quand c'est
fait, comme bcp d'outils linux, on ne s'en préoccupe plus pendant des
années.
Evidemment, c'est couplé avec une configuration du parefeu qui impose le
passage par squid en mode proxy transparent.
Thierry Houx
Le #26417933
Le 21/11/2016 à 20:49, charlot a écrit :
bj bj,
afin de rejeter les serveurs de publicité comme amazonaws.com, cette
plaie, j'ai trouvé l'idée de modifier mon fichier hosts, en y incluant
une lonn...ngue liste de serveurs à bannir, tout simplement.
il semble que ce soit radical ...
Les cookies radioactifs d'amazonaws, ça ouvre des myriades de
connections qui vous affichent toutes ces pubs ...
Ce coup là on est plus fort que ces pollueurs. Les addons pour firefox
n'ont pas réussis à me débarrasser de ... toute cette pub, et puis y'a
pas que firefox dans la vie.
Google n'apprécie pas, les liens publicitaires sur le moteur de
recherches deviennent incliquables, bravo ! :-)

--cut--
Bonjour,
Sans aller mettre trop les mains dans le cambouis, et avec firefox:
Les modules suivants protègent bien mon système:
Adblock Edge
CookieKiller
Ghostery
Greasemonkey avec Anti-Adblock Killer
NoScript
Et pour le moteur de recherch Startpage.
Voilà, pas emm.... non plus, les sites commerçants n'aiment pas, tant mieux.
Et, truc pratique, ceux qui dans l'entourage utilisent un autre système
d'exploitation peuvent bénéficier du même service.
Pascal Hambourg
Le #26418205
Le 22/11/2016 à 00:47, Christophe PEREZ a écrit :
Personnellement, à l'époque où je devais modérer/censurer les
consultations de mes jeunes enfants, j'avais installé Squid & SuigGuard,
toujours en place, qui me permettent de bloquer certaines pubs.

(...)
Evidemment, c'est couplé avec une configuration du parefeu qui impose le
passage par squid en mode proxy transparent.

Et pour HTTPS, tu as fait comment ?
Christophe PEREZ
Le #26418307
Le Wed, 23 Nov 2016 19:13:07 +0100, Pascal Hambourg a écrit :
Et pour HTTPS, tu as fait comment ?

Honnêtement ? Je ne sais plus :D Il y a tellement lgtps que je n'y ai
plus mis le nez. Mais vu de loin, pourquoi ça ne passerait pas aussi par
le proxy ?
Nicolas George
Le #26418311
Christophe PEREZ , dans le message écrit :
Honnêtement ? Je ne sais plus :D Il y a tellement lgtps que je n'y ai
plus mis le nez. Mais vu de loin, pourquoi ça ne passerait pas aussi par
le proxy ?

Parce qu'un proxy transparent, ça s'appelle aussi une attaque
man-in-the-middle, et HTTPs est spécifiquement prévu pour empêcher ce
genre d'attaque.
Francois Lafont
Le #26418313
On 11/24/2016 04:23 PM, Nicolas George wrote:
Honnêtement ? Je ne sais plus :D Il y a tellement lgtps que je n'y ai
plus mis le nez. Mais vu de loin, pourquoi ça ne passerait pas aussi par
le proxy ?

Parce qu'un proxy transparent, ça s'appelle aussi une attaque
man-in-the-middle, et HTTPs est spécifiquement prévu pour empêcher ce
genre d'attaque.

Et du coup, qu'on m'arrête si je dis une bêtise, je dirais que le trafic
HTTPS de Christophe passe très certainement par son proxy mais celui ne
pourra pas analyser grand chose. Il verra juste les IPs et ports source
et destination mais part ça rien du tout.
--
François Lafont
Christophe PEREZ
Le #26418322
Le Thu, 24 Nov 2016 16:53:22 +0100, Francois Lafont a écrit :
Et du coup, qu'on m'arrête si je dis une bêtise, je dirais que le trafic
HTTPS de Christophe passe très certainement par son proxy

Il me semble bien :)
# grep REDIRECT /etc/shorewall/rules
REDIRECT loc 8080 tcp www - !192.168.0.102
Je présume (sans avoir encore trouvé la réponse dans les docs nombreuses
shorewall) que www = http+https
mais celui ne pourra pas analyser grand chose. Il verra juste les IPs
et ports source et destination mais part ça rien du tout.

C'est possible. Mais vu l'usage initial que j'avais de squig+squidguard
(= interdire l'accès simple d'un jeune ado à des sites que je considère
interdits), cela ne me gêne nullement.
Francois Lafont
Le #26418333
On 11/24/2016 06:09 PM, Christophe PEREZ wrote:
Il me semble bien :)
# grep REDIRECT /etc/shorewall/rules
REDIRECT loc 8080 tcp www - !192.168.0.102
Je présume (sans avoir encore trouvé la réponse dans les docs nombreuses
shorewall) que www = http+https

Là je passe, je ne sais pas.
mais celui ne pourra pas analyser grand chose. Il verra juste les IPs
et ports source et destination mais part ça rien du tout.

C'est possible. Mais vu l'usage initial que j'avais de squig+squidguard
(= interdire l'accès simple d'un jeune ado à des sites que je considère
interdits), cela ne me gêne nullement.

Ok mais quand tu dis "sites que je considère comme interdits", c'est suivant
quels critères techniques ? En fonction de l'url suivant qu'elle se trouve
oui ou non dans je ne sais quelle « liste noire » ? Parce que si c'est ça
par exemple, alors c'est pas possible car ton Squid qui voit passer la requête
ne sait pas quelle est url associée à cette requête (le ssl empêche d'avoir
cette information).
Ce n'est pas pour critiquer bien sûr, c'est juste pour t'avertir que, à mon
humble avis (et sauf erreur Nicolas et Pascal vont plutôt dans ce sens également)
ton Squid risque de ne rien filtrer du tout en https.
--
François Lafont
Publicité
Poster une réponse
Anonyme