Je recherche un logiciel qui me permeterais d'effacer mon disque dur au
complet, un effacement permanent pour qu'il soit impossible de retrouver le
moindre fichier, j'aimerais aussi qu'il soit possible de lancer l'effacement
avec un combinaison de touche.
Moi non plus mais je me souviens d'un rapport US qui parlait du fait que les têtes n'écrivent jamais exactement au même endroit et qu'il reste donc des traces des anciennes données sur les bords des blocs qui sont lisibles par des outils plus précis que les têtes.
Il est vieux ce rapport ?
Parce que une discussion que j'ai eu avec un expert en récupération physique de données, il apparaissait qu'aujourd'hui, avec l'énorme bond qui a été fait depuis ces 5 dernières années en densité de données rend la récupération de plus en plus difficile.
Pourquoi ? Parce que la densification, si elle passe évidemment par unr réduction de la taille des têtes, passe aussi par une amélioration des contraintes de fonctionnement du disque, en jouant en particulier sur les paramètres de tolérance et de sensibilité. Les disques devenant de plus en plus précis, la taille des zones de lecture/écriture diminue et avec la probabilité de pouvoir déceler des écriture résiduelles en dessous des données actuelles.
Bref, si ce genre de méthode était tout à fait envisageable avec un disque de 4Go en 1997, c'est beaucoup moins évident avec un disque de 160Go d'aujourd'hui qui présente à peu près la même surface de stockage... À noter cependant que si ce raisonnement s'applique au disques IDE, les disques SCSI restent encore des 9/18/36 Go, donc là, pas d'explosion en densité, donc retour à la case départ ;)
-- BOFH excuse #190:
Proprietary Information.
Dans sa prose, Benoit nous ecrivait :
Moi non plus mais je me souviens d'un rapport US qui parlait du fait que
les têtes n'écrivent jamais exactement au même endroit et qu'il reste
donc des traces des anciennes données sur les bords des blocs qui sont
lisibles par des outils plus précis que les têtes.
Il est vieux ce rapport ?
Parce que une discussion que j'ai eu avec un expert en récupération
physique de données, il apparaissait qu'aujourd'hui, avec l'énorme bond
qui a été fait depuis ces 5 dernières années en densité de données
rend la récupération de plus en plus difficile.
Pourquoi ? Parce que la densification, si elle passe évidemment par unr
réduction de la taille des têtes, passe aussi par une amélioration des
contraintes de fonctionnement du disque, en jouant en particulier sur les
paramètres de tolérance et de sensibilité. Les disques devenant de plus
en plus précis, la taille des zones de lecture/écriture diminue et avec
la probabilité de pouvoir déceler des écriture résiduelles en dessous
des données actuelles.
Bref, si ce genre de méthode était tout à fait envisageable avec un
disque de 4Go en 1997, c'est beaucoup moins évident avec un disque de
160Go d'aujourd'hui qui présente à peu près la même surface de
stockage... À noter cependant que si ce raisonnement s'applique au
disques IDE, les disques SCSI restent encore des 9/18/36 Go, donc là, pas
d'explosion en densité, donc retour à la case départ ;)
Moi non plus mais je me souviens d'un rapport US qui parlait du fait que les têtes n'écrivent jamais exactement au même endroit et qu'il reste donc des traces des anciennes données sur les bords des blocs qui sont lisibles par des outils plus précis que les têtes.
Il est vieux ce rapport ?
Parce que une discussion que j'ai eu avec un expert en récupération physique de données, il apparaissait qu'aujourd'hui, avec l'énorme bond qui a été fait depuis ces 5 dernières années en densité de données rend la récupération de plus en plus difficile.
Pourquoi ? Parce que la densification, si elle passe évidemment par unr réduction de la taille des têtes, passe aussi par une amélioration des contraintes de fonctionnement du disque, en jouant en particulier sur les paramètres de tolérance et de sensibilité. Les disques devenant de plus en plus précis, la taille des zones de lecture/écriture diminue et avec la probabilité de pouvoir déceler des écriture résiduelles en dessous des données actuelles.
Bref, si ce genre de méthode était tout à fait envisageable avec un disque de 4Go en 1997, c'est beaucoup moins évident avec un disque de 160Go d'aujourd'hui qui présente à peu près la même surface de stockage... À noter cependant que si ce raisonnement s'applique au disques IDE, les disques SCSI restent encore des 9/18/36 Go, donc là, pas d'explosion en densité, donc retour à la case départ ;)
-- BOFH excuse #190:
Proprietary Information.
Xavier Roche
Eric Belhomme wrote:
bof, la "carapace" n'est qu'une coque en aluminium ! apres 2 ou 3 coups dessus, elle doit vite sauter !
Tournevis + un coup sec pour faire sauter les disques sertis, ca va un peu plus vite (et c'est un peu moins "bourrin" :) )
Eric Belhomme wrote:
bof, la "carapace" n'est qu'une coque en aluminium ! apres 2 ou 3 coups
dessus, elle doit vite sauter !
Tournevis + un coup sec pour faire sauter les disques sertis, ca va un
peu plus vite (et c'est un peu moins "bourrin" :) )
bof, la "carapace" n'est qu'une coque en aluminium ! apres 2 ou 3 coups dessus, elle doit vite sauter !
Tournevis + un coup sec pour faire sauter les disques sertis, ca va un peu plus vite (et c'est un peu moins "bourrin" :) )
You
Eric Belhomme wrote:
bof, la "carapace" n'est qu'une coque en aluminium ! apres 2 ou 3 coups dessus, elle doit vite sauter ! au pire, en remplaçant la massette par une bonne masse, et en cognant sur le disque jusqu'a ce que son epaisseur soit réduite de moitié... ou moins fatiguant : une presse hydraulique d'établi pour applatir le disque !
S'il fallait vraiment prendre ce genre de précaution, pourquoi ne pas, écrire sans fichier temporaire, sur sur des cdrw ou autre support à moindre prix ? Quels seraient les risques ?
Chris.
Eric Belhomme wrote:
bof, la "carapace" n'est qu'une coque en aluminium ! apres 2 ou 3 coups
dessus, elle doit vite sauter !
au pire, en remplaçant la massette par une bonne masse, et en cognant sur
le disque jusqu'a ce que son epaisseur soit réduite de moitié... ou moins
fatiguant : une presse hydraulique d'établi pour applatir le disque !
S'il fallait vraiment prendre ce genre de précaution, pourquoi ne pas,
écrire sans fichier temporaire, sur sur des cdrw ou autre support à
moindre prix ? Quels seraient les risques ?
bof, la "carapace" n'est qu'une coque en aluminium ! apres 2 ou 3 coups dessus, elle doit vite sauter ! au pire, en remplaçant la massette par une bonne masse, et en cognant sur le disque jusqu'a ce que son epaisseur soit réduite de moitié... ou moins fatiguant : une presse hydraulique d'établi pour applatir le disque !
S'il fallait vraiment prendre ce genre de précaution, pourquoi ne pas, écrire sans fichier temporaire, sur sur des cdrw ou autre support à moindre prix ? Quels seraient les risques ?
Je recherche un logiciel qui me permeterais d'effacer mon disque dur au complet, un effacement permanent pour qu'il soit impossible de retrouver le moindre fichier, j'aimerais aussi qu'il soit possible de lancer l'effacement avec un combinaison de touche.
sous windows un truc pas mal : http://www.tolvanen.com/eraser/ proposé dans les liens de l'afil : www.vie-privee.org
Je recherche un logiciel qui me permeterais d'effacer mon disque dur au
complet, un effacement permanent pour qu'il soit impossible de retrouver le
moindre fichier, j'aimerais aussi qu'il soit possible de lancer l'effacement
avec un combinaison de touche.
sous windows un truc pas mal : http://www.tolvanen.com/eraser/
proposé dans les liens de l'afil : www.vie-privee.org
Je recherche un logiciel qui me permeterais d'effacer mon disque dur au complet, un effacement permanent pour qu'il soit impossible de retrouver le moindre fichier, j'aimerais aussi qu'il soit possible de lancer l'effacement avec un combinaison de touche.
sous windows un truc pas mal : http://www.tolvanen.com/eraser/ proposé dans les liens de l'afil : www.vie-privee.org
Emmanuel Priem
Je recherche un logiciel qui me permeterais d'effacer mon disque dur au
sinon l'utilisation de knoppix-mib peut permettre d'eviter le probleme a la base ... http://www.vie-privee.org/comm173
Je recherche un logiciel qui me permeterais d'effacer mon disque dur au
sinon l'utilisation de knoppix-mib peut permettre d'eviter le probleme a
la base ...
http://www.vie-privee.org/comm173
Je recherche un logiciel qui me permeterais d'effacer mon disque dur au
sinon l'utilisation de knoppix-mib peut permettre d'eviter le probleme a la base ... http://www.vie-privee.org/comm173
Shaft
Christophe Casalegno wrote:
Je crois que mise à part une destruction physique il n'existe pas de moyens permettant d'effacer définitivement toute données. Celles ci (ou du moins une partie) pouvant être récupérées en laboratoire).
Mais non c'est une legende.
Il me semble que le problème vient d'un très léger décalage à chaque écriture sur le disque, mais je ne me souviens pas avec exactitude du problème.
Alors il suffit d'y ecrire 2 fois :)
Christophe Casalegno wrote:
Je crois que mise à part une destruction physique il n'existe pas de
moyens permettant d'effacer définitivement toute données. Celles ci (ou du
moins une partie) pouvant être récupérées en laboratoire).
Mais non c'est une legende.
Il me semble que le problème vient d'un très léger décalage à chaque
écriture sur le disque, mais je ne me souviens pas avec exactitude du
problème.
Je crois que mise à part une destruction physique il n'existe pas de moyens permettant d'effacer définitivement toute données. Celles ci (ou du moins une partie) pouvant être récupérées en laboratoire).
Mais non c'est une legende.
Il me semble que le problème vient d'un très léger décalage à chaque écriture sur le disque, mais je ne me souviens pas avec exactitude du problème.
Alors il suffit d'y ecrire 2 fois :)
Shaft
Benoit wrote:
Christophe Casalegno wrote:
Maintenant, n'étant pas (encore ? ;)) spécialiste en la matière, je me tais :)
Moi non plus mais je me souviens d'un rapport US qui parlait du fait que les têtes n'écrivent jamais exactement au même endroit et qu'il reste donc des traces des anciennes données sur les bords des blocs qui sont lisibles par des outils plus précis que les têtes.
Tu temps des gros disque 5Mo 4 plateaux, peut etre. Mais maintenant on a des 100Go, Soit des millions de fois plus de densité.
Par contre si c'est pour effacer la comptabilité concernant les commandes, livraisons et payements de quelques tonnes de cocaïne ou l'attentat du 11 septembre à N.Y. je crois que les disques seront lisibles au bout de quelques temps par des gens très bien équipés.
Maintenant, n'étant pas (encore ? ;)) spécialiste en la matière, je me
tais :)
Moi non plus mais je me souviens d'un rapport US qui parlait du fait que
les têtes n'écrivent jamais exactement au même endroit et qu'il reste
donc des traces des anciennes données sur les bords des blocs qui sont
lisibles par des outils plus précis que les têtes.
Tu temps des gros disque 5Mo 4 plateaux, peut etre. Mais maintenant
on a des 100Go, Soit des millions de fois plus de densité.
Par contre si c'est pour effacer la comptabilité concernant les
commandes, livraisons et payements de quelques tonnes de cocaïne ou
l'attentat du 11 septembre à N.Y. je crois que les disques seront
lisibles au bout de quelques temps par des gens très bien équipés.
Maintenant, n'étant pas (encore ? ;)) spécialiste en la matière, je me tais :)
Moi non plus mais je me souviens d'un rapport US qui parlait du fait que les têtes n'écrivent jamais exactement au même endroit et qu'il reste donc des traces des anciennes données sur les bords des blocs qui sont lisibles par des outils plus précis que les têtes.
Tu temps des gros disque 5Mo 4 plateaux, peut etre. Mais maintenant on a des 100Go, Soit des millions de fois plus de densité.
Par contre si c'est pour effacer la comptabilité concernant les commandes, livraisons et payements de quelques tonnes de cocaïne ou l'attentat du 11 septembre à N.Y. je crois que les disques seront lisibles au bout de quelques temps par des gens très bien équipés.
1Go de disque en RAM c'est la bonne solution.
Shaft
You wrote:
S'il fallait vraiment prendre ce genre de précaution, pourquoi ne pas, écrire sans fichier temporaire, sur sur des cdrw ou autre support à moindre prix ? Quels seraient les risques ?
C'est *lent* et limité à 640Mo. Vive la RAM!
You wrote:
S'il fallait vraiment prendre ce genre de précaution, pourquoi ne pas,
écrire sans fichier temporaire, sur sur des cdrw ou autre support à
moindre prix ? Quels seraient les risques ?
S'il fallait vraiment prendre ce genre de précaution, pourquoi ne pas, écrire sans fichier temporaire, sur sur des cdrw ou autre support à moindre prix ? Quels seraient les risques ?
C'est *lent* et limité à 640Mo. Vive la RAM!
benoit.sansspam
Cedric Blancher wrote:
Il est vieux ce rapport ?
Je ne sais plus.
Parce que une discussion que j'ai eu avec un expert en récupération physique de données, il apparaissait qu'aujourd'hui, avec l'énorme bond qui a été fait depuis ces 5 dernières années en densité de données rend la récupération de plus en plus difficile.
Là on ne parle pas de récupération de données ;-)
Pourquoi ? Parce que la densification, si elle passe évidemment par unr réduction de la taille des têtes, passe aussi par une amélioration des contraintes de fonctionnement du disque, en jouant en particulier sur les paramètres de tolérance et de sensibilité. Les disques devenant de plus en plus précis, la taille des zones de lecture/écriture diminue et avec la probabilité de pouvoir déceler des écriture résiduelles en dessous des données actuelles.
Si les les zones sont plus petites quelle est la taille de la zone par rapport à la taille utilisée, je veux dire est-ce que les zones laissent une marge d'erreur de combien de % aux têtes ? 0% est impossible, donc il reste toujours de l'info résiduelle sur les bords de la zone, la tête faisant tout sont possible pour écrire au milieu afin de ne pas déborder sur une zone devant, derrière, au-dessus ou au-dessous pour ne pas mélanger les bits.
Même avec des bits de calcul de vérification des données (je ne connais plus le terme mais cf les protocoles réseau) sur le disque on garde des marges de sécurité et dans ces marges de sécurité il reste des données qui ne sont pas lisibles par des têtes de lectures mais par des outils beaucoup plus précis.
-- Benoît Leraillez
La douleur des autres est tout à fait supportable, hors les cris.
Parce que une discussion que j'ai eu avec un expert en récupération
physique de données, il apparaissait qu'aujourd'hui, avec l'énorme bond
qui a été fait depuis ces 5 dernières années en densité de données
rend la récupération de plus en plus difficile.
Là on ne parle pas de récupération de données ;-)
Pourquoi ? Parce que la densification, si elle passe évidemment par unr
réduction de la taille des têtes, passe aussi par une amélioration des
contraintes de fonctionnement du disque, en jouant en particulier sur les
paramètres de tolérance et de sensibilité. Les disques devenant de plus
en plus précis, la taille des zones de lecture/écriture diminue et avec
la probabilité de pouvoir déceler des écriture résiduelles en dessous
des données actuelles.
Si les les zones sont plus petites quelle est la taille de la zone par
rapport à la taille utilisée, je veux dire est-ce que les zones laissent
une marge d'erreur de combien de % aux têtes ? 0% est impossible, donc
il reste toujours de l'info résiduelle sur les bords de la zone, la tête
faisant tout sont possible pour écrire au milieu afin de ne pas déborder
sur une zone devant, derrière, au-dessus ou au-dessous pour ne pas
mélanger les bits.
Même avec des bits de calcul de vérification des données (je ne connais
plus le terme mais cf les protocoles réseau) sur le disque on garde des
marges de sécurité et dans ces marges de sécurité il reste des données
qui ne sont pas lisibles par des têtes de lectures mais par des outils
beaucoup plus précis.
--
Benoît Leraillez
La douleur des autres est tout à fait supportable, hors les cris.
Parce que une discussion que j'ai eu avec un expert en récupération physique de données, il apparaissait qu'aujourd'hui, avec l'énorme bond qui a été fait depuis ces 5 dernières années en densité de données rend la récupération de plus en plus difficile.
Là on ne parle pas de récupération de données ;-)
Pourquoi ? Parce que la densification, si elle passe évidemment par unr réduction de la taille des têtes, passe aussi par une amélioration des contraintes de fonctionnement du disque, en jouant en particulier sur les paramètres de tolérance et de sensibilité. Les disques devenant de plus en plus précis, la taille des zones de lecture/écriture diminue et avec la probabilité de pouvoir déceler des écriture résiduelles en dessous des données actuelles.
Si les les zones sont plus petites quelle est la taille de la zone par rapport à la taille utilisée, je veux dire est-ce que les zones laissent une marge d'erreur de combien de % aux têtes ? 0% est impossible, donc il reste toujours de l'info résiduelle sur les bords de la zone, la tête faisant tout sont possible pour écrire au milieu afin de ne pas déborder sur une zone devant, derrière, au-dessus ou au-dessous pour ne pas mélanger les bits.
Même avec des bits de calcul de vérification des données (je ne connais plus le terme mais cf les protocoles réseau) sur le disque on garde des marges de sécurité et dans ces marges de sécurité il reste des données qui ne sont pas lisibles par des têtes de lectures mais par des outils beaucoup plus précis.
-- Benoît Leraillez
La douleur des autres est tout à fait supportable, hors les cris.