firewall: rejeter la publicité.
Le
charlot

bj bj,
afin de rejeter les serveurs de publicité comme amazonaws.com, cette
plaie, j'ai trouvé l'idée de modifier mon fichier hosts, en y incluant
une lonnngue liste de serveurs à bannir, tout simplement.
il semble que ce soit radical
Les cookies radioactifs d'amazonaws, ça ouvre des myriades de
connections qui vous affichent toutes ces pubs
Ce coup là on est plus fort que ces pollueurs. Les addons pour firefox
n'ont pas réussis à me débarrasser de toute cette pub, et puis y'a
pas que firefox dans la vie.
Google n'apprécie pas, les liens publicitaires sur le moteur de
recherches deviennent incliquables, bravo ! :-)
ok merci.
La méthode est la plus simplissime que j'ai trouvé: hacker mon fichier
hosts .. (oui, il est unique, et locké en root).
Sous ubuntu . j'ai un script, il met à jour /etc/hosts, c'est:
/etc/cron.monthly/hosts
attention c'est un script, c'est un fichier texte avec l'attribut x;
il contient (ici je m'appelle ubuntu, pour l'exemple) :
#!/bin/bash
wget --directory-prefix=/tmp http://winhelp2002.mvps.org/hosts.txt ||
exit mv /tmp/hosts.txt /etc/hosts
echo "127.0.1.1 ubuntu" >> /etc/hosts
echo "::1 ip6-localhost ip6-loopback" >> /etc/hosts
echo "fe00::0 ip6-localnet" >> /etc/hosts
echo "ff00::0 ip6-mcastprefix" >> /etc/hosts
echo "ff02::1 ip6-allnodes" >> /etc/hosts
echo "ff02::2 ip6-alllrouters" >> /etc/hosts
et 'hop
Ce script modifie hosts pour y inclure le contenu de la page
http://winhelp2002.mvps.org/hosts.txt
PARCE QUE, j'ai essayé les antivirus les antipub pour le cas précis de
amazonaws (les cookies radioactifs!), y'a rien qui marche. Les petits
ADBlock ne marchent plus du tout, les cookies ont trop évolué ! sont
devenus radioactifs, de véritables virus qui passent à travers tous
les filtres de vos brouteurs en arriere-plan ils téléchargent UN
MAXIMUM de trucs ! :-) :-) C'est expliqué sur le web (évidemment).
Donc depuis ces petits virus par les cookies . on trouve de plus
en plus des solutions .. de plus en plus définitives comme hacker hosts,
point barré, c'est radical si c'est maintenu (d'où le classement
en cron, que j'ai recopié, copié-collé et zou' . svp) c'est
autant radioactif pour eux que eux le sont pour vous.
. J'ai voulu minimiser le travail à l'extreme .
merci etherape, par contre wireshark c'est un bordel .. c'est devenu
compliqué ! J'y comprend absolument rien, je voudrais par exemple
tracer la totalité du trafic sur base du mot clef "amazonaws.com", ça
fait pourtant des années que j'essaye, de temps en temps je retrouve
la solution un autre jour peut-être.
--
afin de rejeter les serveurs de publicité comme amazonaws.com, cette
plaie, j'ai trouvé l'idée de modifier mon fichier hosts, en y incluant
une lonnngue liste de serveurs à bannir, tout simplement.
il semble que ce soit radical
Les cookies radioactifs d'amazonaws, ça ouvre des myriades de
connections qui vous affichent toutes ces pubs
Ce coup là on est plus fort que ces pollueurs. Les addons pour firefox
n'ont pas réussis à me débarrasser de toute cette pub, et puis y'a
pas que firefox dans la vie.
Google n'apprécie pas, les liens publicitaires sur le moteur de
recherches deviennent incliquables, bravo ! :-)
ok merci.
La méthode est la plus simplissime que j'ai trouvé: hacker mon fichier
hosts .. (oui, il est unique, et locké en root).
Sous ubuntu . j'ai un script, il met à jour /etc/hosts, c'est:
/etc/cron.monthly/hosts
attention c'est un script, c'est un fichier texte avec l'attribut x;
il contient (ici je m'appelle ubuntu, pour l'exemple) :
#!/bin/bash
wget --directory-prefix=/tmp http://winhelp2002.mvps.org/hosts.txt ||
exit mv /tmp/hosts.txt /etc/hosts
echo "127.0.1.1 ubuntu" >> /etc/hosts
echo "::1 ip6-localhost ip6-loopback" >> /etc/hosts
echo "fe00::0 ip6-localnet" >> /etc/hosts
echo "ff00::0 ip6-mcastprefix" >> /etc/hosts
echo "ff02::1 ip6-allnodes" >> /etc/hosts
echo "ff02::2 ip6-alllrouters" >> /etc/hosts
et 'hop
Ce script modifie hosts pour y inclure le contenu de la page
http://winhelp2002.mvps.org/hosts.txt
PARCE QUE, j'ai essayé les antivirus les antipub pour le cas précis de
amazonaws (les cookies radioactifs!), y'a rien qui marche. Les petits
ADBlock ne marchent plus du tout, les cookies ont trop évolué ! sont
devenus radioactifs, de véritables virus qui passent à travers tous
les filtres de vos brouteurs en arriere-plan ils téléchargent UN
MAXIMUM de trucs ! :-) :-) C'est expliqué sur le web (évidemment).
Donc depuis ces petits virus par les cookies . on trouve de plus
en plus des solutions .. de plus en plus définitives comme hacker hosts,
point barré, c'est radical si c'est maintenu (d'où le classement
en cron, que j'ai recopié, copié-collé et zou' . svp) c'est
autant radioactif pour eux que eux le sont pour vous.
. J'ai voulu minimiser le travail à l'extreme .
merci etherape, par contre wireshark c'est un bordel .. c'est devenu
compliqué ! J'y comprend absolument rien, je voudrais par exemple
tracer la totalité du trafic sur base du mot clef "amazonaws.com", ça
fait pourtant des années que j'essaye, de temps en temps je retrouve
la solution un autre jour peut-être.
--
c'est le script en entier, à condition que la page web réponde.
Avant le 1er run du script il faut créer le fichier hosts, il
contiendra:
127.0.0.1 localhost
::1 localhost #[IPv6]
c tout. Et si on ne met rien .. j'ai pas essayé, peut-être qu'il va
buter sur ipv4.
et penser à mettre son petit nom de machine dans le script. On ne risque
rien, hosts c'est pas dangereux.
c'est fini tous ces sprites dans le radar ip ...
ne reste que les traces de rejet de tous ces serveurs de pub.
--
Et qu'est ce qui reste comme intruder principal du-moment ? Lui :
ec2-52-29-220-255.eu-central-1.compute.amazonaws.com
Celui-là ça fait des semaines que je le traque ! fdp ! :-)
Il mange ma connection des que je suis sur le web, il hacke firefox il
fait tout un tas de trucs, celui-là :-) :-) ..... il est MORT, coucou
t'es mort toi ! Il est le fantôme, la matrice de tous ces morts.
Voilà, si vous niquez la gueule à tous ces serveurs de merde il vous
reste les requetes qui viennent des grands patrons de ce bordel
publicitaire agressif et hackeur, le chef, eu-central NUMBER
ONE :-) :-) dehors fissa, fy fo bye bye .... ... wtf ?
Personnellement, à l'époque où je devais modérer/censurer les
consultations de mes jeunes enfants, j'avais installé Squid & SuigGuard,
toujours en place, qui me permettent de bloquer certaines pubs.
Par contre, ce n'est pas léger à configurer/adapter, mais quand c'est
fait, comme bcp d'outils linux, on ne s'en préoccupe plus pendant des
années.
Evidemment, c'est couplé avec une configuration du parefeu qui impose le
passage par squid en mode proxy transparent.
--cut--
Bonjour,
Sans aller mettre trop les mains dans le cambouis, et avec firefox:
Les modules suivants protègent bien mon système:
Adblock Edge
CookieKiller
Ghostery
Greasemonkey avec Anti-Adblock Killer
NoScript
Et pour le moteur de recherch Startpage.
Voilà, pas emm.... non plus, les sites commerçants n'aiment pas, tant mieux.
Et, truc pratique, ceux qui dans l'entourage utilisent un autre système
d'exploitation peuvent bénéficier du même service.
(...)
Et pour HTTPS, tu as fait comment ?
Honnêtement ? Je ne sais plus :D Il y a tellement lgtps que je n'y ai
plus mis le nez. Mais vu de loin, pourquoi ça ne passerait pas aussi par
le proxy ?
Parce qu'un proxy transparent, ça s'appelle aussi une attaque
man-in-the-middle, et HTTPs est spécifiquement prévu pour empêcher ce
genre d'attaque.
Et du coup, qu'on m'arrête si je dis une bêtise, je dirais que le trafic
HTTPS de Christophe passe très certainement par son proxy mais celui ne
pourra pas analyser grand chose. Il verra juste les IPs et ports source
et destination mais part ça rien du tout.
--
François Lafont
Il me semble bien :)
# grep REDIRECT /etc/shorewall/rules
REDIRECT loc 8080 tcp www - !192.168.0.102
Je présume (sans avoir encore trouvé la réponse dans les docs nombreuses
shorewall) que www = http+https
C'est possible. Mais vu l'usage initial que j'avais de squig+squidguard
(= interdire l'accès simple d'un jeune ado à des sites que je considère
interdits), cela ne me gêne nullement.
Là je passe, je ne sais pas.
Ok mais quand tu dis "sites que je considère comme interdits", c'est suivant
quels critères techniques ? En fonction de l'url suivant qu'elle se trouve
oui ou non dans je ne sais quelle « liste noire » ? Parce que si c'est ça
par exemple, alors c'est pas possible car ton Squid qui voit passer la requête
ne sait pas quelle est url associée à cette requête (le ssl empêche d'avoir
cette information).
Ce n'est pas pour critiquer bien sûr, c'est juste pour t'avertir que, à mon
humble avis (et sauf erreur Nicolas et Pascal vont plutôt dans ce sens également)
ton Squid risque de ne rien filtrer du tout en https.
--
François Lafont