Wipe für "leere" Sektoren

Du suchst ein Programm für einen bestimmten Zweck?
Antworten
Arrpork
Beiträge: 111
Registriert: 25.02.2004 13:42:17

Wipe für "leere" Sektoren

Beitrag von Arrpork » 05.08.2007 15:38:30

Hallo,

ich suche ein Programm welches die Sektoren die als gelöscht vermerkt sind nochmals sicher löscht (random überschreibt).
Unter Windows kann das Programm eraser diese Aufgabe übernehmen. Leider habe ich unter wipe keinen Befehl gefunden, welcher diese Aufgabe bewältigt.

Gruß Arrpork

Benutzeravatar
CrashMan
Beiträge: 340
Registriert: 07.04.2007 14:04:27
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: MD

Beitrag von CrashMan » 05.08.2007 15:42:13

Quick&Dirty:
dd if=/dev/urandom of=file

Bis der Datenträger voll ist, dann File wieder löschen. Bei Bedarf wiederholen.

mfg
debian stable + arch

Arrpork
Beiträge: 111
Registriert: 25.02.2004 13:42:17

Beitrag von Arrpork » 05.08.2007 15:50:28

Danke erstmal für den Tipp.

Das wäre schon möglich, würde jedoch bedeuten, das dieser Vorgang für ein sicheres Löschen ca. 35 mal (Peter Gutmann) wiederholt werden müsste.

Das wäre von Hand (Datei erstellen, Datei löschen, Datei erstellen .............) ziemlich viel Aufwand.

Benutzeravatar
Paty-17
Beiträge: 230
Registriert: 18.12.2005 17:03:32
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von Paty-17 » 05.08.2007 19:45:30

findest du nicht, dass 35mal überschreiben für den normalen gebrauch ein wenig übertrieben ist? Nach 1maligem überschreiben gestaltet es sich schon als schwierig wieder daten herzustellen. 3 durchläufe dürften für den heimgebrauch mehr als ausreichend sein. So sensible daten hat man auch wieder nicht drauf.
Evtl. is das paket secure-delete was für dich. Is in den offiziellen Debian-Repositories.

Benutzeravatar
TBT
Beiträge: 923
Registriert: 18.06.2003 08:39:36
Kontaktdaten:

Beitrag von TBT » 05.08.2007 20:18:26

Die tolle Aussage von Peter Gutmann geistert immer wieder durchs Netz.
Die ct' hat mal einige Tools ausprobiert, und dabei nachgewiesen, das ein einmaliges

dd if=/dev/zero of=/dev/hda bs=65535

reicht, damit keine Daten der Platte wiederhergestellt werden können.
Das 35-malige Überschreiben ist reine Augenwischerei.

Benutzeravatar
Paty-17
Beiträge: 230
Registriert: 18.12.2005 17:03:32
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von Paty-17 » 06.08.2007 00:30:19

Ich nehm an, du meinst den artikel hier: http://www.heise.de/ix/artikel/2003/05/072/
Bin da so ziemlich der gleichen Meinung wie TBT. Allerdings kann ich mir ein auslesen der Remanenz sehr gut vorstellen. Deshalb würde ich sagen, dass man statt Nullen lieber mit Zufallszahlen überschreiben sollte.

dd if=/dev/urandom of=/dev/hda

Gibt keinen größeren Aufwand und is imho ein wenig sicherer. Das Auslösen irgendwelcher Nebenspuren die noch restmagnetisiert von früheren Daten sind, ist bei der heutigen Speicherdichte meiner Meinung nach nur noch SEHR!!!! schwer möglich.

edit: seh ich mal als bestätigung: http://de.wikipedia.org/wiki/Gutmann-Methode

cosmac
Beiträge: 4573
Registriert: 28.03.2005 22:24:30

Beitrag von cosmac » 06.08.2007 02:08:44

TBT hat geschrieben:dd if=/dev/zero of=/dev/hda bs=65535
Tippfehler oder Magie?
Wenn's blöd geht, wird das merklich langsamer als 65536
Beware of programmers who carry screwdrivers.

Benutzeravatar
cirrussc
Beiträge: 6582
Registriert: 26.04.2007 19:47:06
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von cirrussc » 06.08.2007 02:40:22

Paty-17 hat geschrieben:Das Auslösen irgendwelcher Nebenspuren die noch restmagnetisiert von früheren Daten sind, ist bei der heutigen Speicherdichte meiner Meinung nach nur noch SEHR!!!! schwer möglich.
Ich halte auch nicht viel von diesem aufwändigen löschen.
Das ist nur notwendig wenn jemand die Festplatte (beziehe mich nur darauf) öffnet und mit anderen Methoden versucht sie zu lesen. Außerdem erhöht es die Schreibvorgänge auf dem Medium und verkürzt damit die Lebensdauer.
Um Restmagnetisierungen o.a. zu nutzen muss man schon die Firmware der HDD manipulieren um Kopfverstärkung, Modulation, Fehlerkorrektur und Servosteuerung zu beeinflussen.

Gruß cirrussc

Benutzeravatar
AK-Palme
Beiträge: 411
Registriert: 25.05.2004 15:38:30
Kontaktdaten:

Beitrag von AK-Palme » 06.08.2007 03:33:05

im notfall oder zeitüberschuss halt

Code: Alles auswählen

for i in `seq 0 35`; do echo "Durchgang $i..."; dd if=/dev/urandom of=file bs=65536; rm -f file; echo " Done"; done;
Aber ich schliesse mich meinen Vorrednern und dem Wikipedia-Artikel im Bereich wo es um gemountete Journaling-Dateisysteme an

Benutzeravatar
CrashMan
Beiträge: 340
Registriert: 07.04.2007 14:04:27
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: MD

Beitrag von CrashMan » 06.08.2007 17:04:35

Wikipedia hat geschrieben:Des Weiteren benutzen moderne Dateisysteme das so genannte Journaling, wodurch ein Benutzer nicht wissen kann, wo seine Daten geschrieben werden, so dass ein garantiertes Überschreiben der Datenblöcke einer Datei (ohne weitere Kernelerweiterungen) unmöglich ist.
Das ist soweit ja auch richtig - wird eine Datei überschrieben, speichert Journal das "neue" erstmal woanders, damit im Falle eines Absturzes die alte File nicht beschädigt ist (afaik). Ergo bringen shred usw nichts.
Wenn ich aber den kompletten leeren Bereich (mehrmals?) mit einer zufälligen Datei überschreibe - wo soll Journal denn etwas freilassen? Dann ist es imho recht sicher, dass alles "gelöscht" wird.
(Ich weiß jetzt nicht, wie das mit den 5% ist, die per default für root reserviert sind)

mfg
debian stable + arch

Antworten