df.de hakelt böse

Schreibt hier die Kategorien und Themen rein, die euch momentan hier noch fehlen.
Benutzeravatar
brill
Beiträge: 354
Registriert: 04.02.2005 10:37:34
Lizenz eigener Beiträge: GNU General Public License

Re: df.de hakelt böse

Beitrag von brill » 01.07.2008 17:14:12

Danke Feltel für deine Mühe.

vielleicht könnte man während das Backup läuft das Forum durch eine Statuspage ersetzt, auf der einfach steht Backup Läuft, Das Forum ist in ein paar Minuten wieder online.

Dann ist einfach jedem klar was los ist.

Brill

Benutzeravatar
Tintom
Moderator
Beiträge: 3033
Registriert: 14.04.2006 20:55:15
Wohnort: Göttingen

Re: df.de hakelt böse

Beitrag von Tintom » 01.07.2008 18:07:49

brill hat geschrieben:Danke Feltel für deine Mühe.

vielleicht könnte man während das Backup läuft das Forum durch eine Statuspage ersetzt, auf der einfach steht Backup Läuft, Das Forum ist in ein paar Minuten wieder online.

Dann ist einfach jedem klar was los ist.

Brill
Oder man lässt das Script einfach nachts laufen..

Gruß

jhr-online
Beiträge: 2186
Registriert: 18.09.2005 15:52:02
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von jhr-online » 01.07.2008 18:15:44

Wie wär's denn, wenn man bei der mittlerweile hohen Kapazität, die abgefragt wird, einen vServer hinzumietet und als Replikations-Slave einsetzt?

jhr
Desktop: Intel Core2Quad Q8300 2.5GHz, 256GB SSD + 1 TB HDD, 8 GB RAM, Debian Sid, Kernel 3.13

jhr-online
Beiträge: 2186
Registriert: 18.09.2005 15:52:02
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von jhr-online » 01.07.2008 18:16:31

Tintom hat geschrieben:Oder man lässt das Script einfach nachts laufen..
Nur ein mal nachts? Das find ich für die Aktivitäten hier ein bisschen wenig...

jhr
Desktop: Intel Core2Quad Q8300 2.5GHz, 256GB SSD + 1 TB HDD, 8 GB RAM, Debian Sid, Kernel 3.13

gms
Beiträge: 7798
Registriert: 26.11.2004 20:08:38
Lizenz eigener Beiträge: MIT Lizenz

Re: df.de hakelt böse

Beitrag von gms » 01.07.2008 19:22:25

feltel hat geschrieben: Die Ursache für die Lags um 12 und 00h ist definitv das Backupscript.
Das ist aber leider imho derzeit die einigste Möglichkeit ein Backup der DB zu ziehen. Replikation geht nicht da kein Replikationspartner vefügbar ist.
kann das Backupscript auch mit inkrementellen Backups umgehen ? Ein inkrementelles Backup dürfte eigentlich nicht solche Hänger verursachen (sollte nicht einmal bemerkbar sein) und es sollte dann genügen, wenn man einmal in der Woche ( oder in noch größeren Intervallen) ein Fullbackup fährt.
Eines verstehe ich auch noch nicht, diese Probleme sind doch in dieser Form erst in letzter Zeit aufgetreten, gibts dafür eine Erklärung warum gerade jetzt ?

Gruß
gms

Benutzeravatar
feltel
Webmaster
Beiträge: 10368
Registriert: 20.12.2001 13:08:23
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Leipzig, Germany
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von feltel » 01.07.2008 19:30:11

Das Backupscript ist in diesem Fall ein Durchlauf von mysqldump mit den folgenden Parametern:

Code: Alles auswählen

00 */12 * * * root              nice -n19 /usr/bin/mysqldump --extended-insert --quick --add-drop-table --add-locks -uUSERNAME -pPASSWORD debianforum_de > /backup/debianforum_de.sql
Es ist also schon heruntergeniced und zieht trotzdem viel Performance.

gms
Beiträge: 7798
Registriert: 26.11.2004 20:08:38
Lizenz eigener Beiträge: MIT Lizenz

Re: df.de hakelt böse

Beitrag von gms » 01.07.2008 19:38:25

Vielleicht fällt ja noch jemand etwas ein, wie dieses Fullbackup verbessert werden kann, meine Erfahrung beschränkt sich leider auf properitäre DBMS. :oops:
Hier habe ich die Beschreibung zum inkrementellen Backup herausgesucht ( http://dev.mysql.com/doc/refman/5.0/en/ ... olicy.html ). Am Ende befindet sich auch ein Beispielscript.

123456
Beiträge: 6126
Registriert: 08.03.2003 14:07:24

Re: df.de hakelt böse

Beitrag von 123456 » 01.07.2008 20:02:26

feltel hat geschrieben:Es ist also schon heruntergeniced und zieht trotzdem viel Performance.
Möglicherweise liegt das daran, das der dump noch andere mysql Prozesse anzieht, die dann eben nicht geniced sind. Ideen habe ich aber auch keine.

Mich würde auch mal interessieren, wieso das seit einiger Zeit nicht mehr richtig tut. Der Umfang der DB, etc. dürfte sich ja nicht gewaltig geändert haben.

Lösungen im Web schlagen auch das hier schon erwähnte Sichern auf einen anderen Server / V-Space vor.

Benutzeravatar
neuss
Beiträge: 2165
Registriert: 06.11.2004 17:56:02
Lizenz eigener Beiträge: MIT Lizenz

Re: df.de hakelt böse

Beitrag von neuss » 01.07.2008 20:04:07

Hallo,

genau wissen kann ich das natürlich nicht, also nur meine gefühlte Meinung.

Einerseits scheint es ja klar mit dem Backup zusammen zuhängen, andererseits scheint das Problem sich zu verstärken, je länger der Server bzw. das Forum läuft.
Sollte es so sein, würde ich nochmal in anderer Richtung suchen, denn der letztendliche Auslöser muss ja nicht die eigentliche Ursache sein.

gruss neuss
stell dir vor, es geht, und keiner kriegt es hin.

Benutzeravatar
whisper
Beiträge: 3193
Registriert: 23.09.2002 14:32:21
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von whisper » 02.07.2008 12:32:00

feltel hat geschrieben: Die vorgegebenen Vorschläge werde ich noch einpflegen.
Was mich außer der Anzahl der max Connections von 500 verblüfft ist der immense Arbeitsspeicher bedarf. Entweder das Script lügt, oder du hast wirklich ein Problem: 94Gig
Hast du mytop installiert?
Sagt das dasselbe zum Speicherverbrauch?
Die Maschine selbst hat wohl 2Gig Ram, oder?

Benutzeravatar
habakug
Moderator
Beiträge: 4313
Registriert: 23.10.2004 13:08:41
Lizenz eigener Beiträge: MIT Lizenz

Re: df.de hakelt böse

Beitrag von habakug » 02.07.2008 13:23:41

Hallo!

mysqldump ist mit Sicherheit das ungeeignetste und langsamste Backup-Tool das man sich vorstellen kann. Tiefergehende Kenntnisse über dieses Tool scheinen jedenfalls nicht vorhanden zu sein: mysqldump wird per default mit dem Parameter "--opt" gestartet, der die Parameter "--add-drop-table --add-locks --create-options --disable-keys --extended-insert --lock-tables --quick --set-charset" enthält. Um die in dem Cronjob angegebenen Parameter mit Wirksamkeit zu versehen, müsste ein "--skip-opt" vorangestellt werden.

Gruß, habakug
( # = root | $ = user | !! = mod ) (Vor der PN) (Debianforum-Wiki) (NoPaste)

Benutzeravatar
feltel
Webmaster
Beiträge: 10368
Registriert: 20.12.2001 13:08:23
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Leipzig, Germany
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von feltel » 02.07.2008 16:32:47

Das --opt default ist ist aber dann erst seit MySQL 5 so. In der 4er-Version, die ja bis letztes Jahr lief war das jedenfalls noch nicht so. Es sei mir verziehen das ich nicht die Relnotes gelesen hab. :oops:

Was für andere Backupmethoden wären denn Deiner Meinung nach mysqldump vorzuziehen unter Beachtung das wie schon vorab erwähnt kein zweiter Rechner zur Einrichtung einer Replikation zur Verfügung steht. mysqlhotcopy kopiert ja auch nur von DB zu DB und ich brauch die Daten aber in einem Format das man im Fall des Falles auch händisch bearbeiten und/oder fixen kann.

jhr-online
Beiträge: 2186
Registriert: 18.09.2005 15:52:02
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von jhr-online » 02.07.2008 17:10:06

Ganz im Ernst, Sebastian, meinst du nicht, dass es dann jetzt angemessen wäre, ein Zweitsystem für Backups zu halten? Ich würde stark zu einem vServer tendieren, der die DB als Slave halten kann...

jhr
Desktop: Intel Core2Quad Q8300 2.5GHz, 256GB SSD + 1 TB HDD, 8 GB RAM, Debian Sid, Kernel 3.13

Benutzeravatar
habakug
Moderator
Beiträge: 4313
Registriert: 23.10.2004 13:08:41
Lizenz eigener Beiträge: MIT Lizenz

Re: df.de hakelt böse

Beitrag von habakug » 02.07.2008 19:31:22

Hallo!

@feltel
Wenn du mysqldump nutzen willst, solltest du im mysql-Server das binary logging einschalten (--log-bin). Dann kannst du auf einfache Weise mit inkrementellen Backups arbeiten [1]. (Kapitel 6.2.1)
Eine andere Lösung wäre zmanda [2].

Gruß, habakug

[1] http://theoryx5.uwinnipeg.ca/mysql/back ... overy.html
[2] http://www.zmanda.com/backup-mysql.html
( # = root | $ = user | !! = mod ) (Vor der PN) (Debianforum-Wiki) (NoPaste)

gms
Beiträge: 7798
Registriert: 26.11.2004 20:08:38
Lizenz eigener Beiträge: MIT Lizenz

Re: df.de hakelt böse

Beitrag von gms » 02.07.2008 19:56:24

feltel hat geschrieben: ich brauch die Daten aber in einem Format das man im Fall des Falles auch händisch bearbeiten und/oder fixen kann.
das könntest du auch, wenn du das inkrementelle Backup verwendest
jhr-online hat geschrieben: Ganz im Ernst, Sebastian, meinst du nicht, dass es dann jetzt angemessen wäre, ein Zweitsystem für Backups zu halten? Ich würde stark zu einem vServer tendieren, der die DB als Slave halten kann...
das Backup wird aber dadurch schon ein bißerl teuer.
Es gibt ja noch nicht einmal eine Begründung, warum das Backup jetzt auf einmal solche Schwierigkeiten macht, vielleicht ist nicht einmal der Umstieg auf das inkrementelle Backup, mysqlhotcopy, o.ä notwendig.

Gruß
gms

jhr-online
Beiträge: 2186
Registriert: 18.09.2005 15:52:02
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von jhr-online » 02.07.2008 20:44:04

Wo ich so gerade drüber nachdenke... Ein Homeserver müsste es doch auch als Slave tun, oder nicht? Das wäre dann billiger, wobei ich mir sicher bin, dass sich auch eine kostengünstige vServer-Lösung einrichten lässt. Es gibt immer noch Anbieter, mit denen man reden kann...

jhr
Desktop: Intel Core2Quad Q8300 2.5GHz, 256GB SSD + 1 TB HDD, 8 GB RAM, Debian Sid, Kernel 3.13

Benutzeravatar
whisper
Beiträge: 3193
Registriert: 23.09.2002 14:32:21
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von whisper » 03.07.2008 10:04:29

Ausserdem gibt es viele Rootserverbesitzer, die hier angemeldet sind und dir kostenlos so etwas zur Verfügung stellen würden.
Ich bin bei Hetzner, du glaube ich auch. Traffic innerhalb der RZ sind frei, und einen DB Port für einen bestimmten Rechner freizuschalten würde ich mich auch trauen. Platz habe ich noch genug, wie wär das?

gms
Beiträge: 7798
Registriert: 26.11.2004 20:08:38
Lizenz eigener Beiträge: MIT Lizenz

Re: df.de hakelt böse

Beitrag von gms » 03.07.2008 15:22:51

whisper hat geschrieben:Ausserdem gibt es viele Rootserverbesitzer, die hier angemeldet sind und dir kostenlos so etwas zur Verfügung stellen würden.
Ich bin bei Hetzner, du glaube ich auch. Traffic innerhalb der RZ sind frei, und einen DB Port für einen bestimmten Rechner freizuschalten würde ich mich auch trauen. Platz habe ich noch genug, wie wär das?
auch wenn hinter diesem Angebot sicherlich eine gute Absicht dahinter steckt, hätte ich doch Bedenken, wenn die ganze Forums-DB ( inklusive den Userprofilen ) an eine dritte Person weitergegeben wird. Daher habe ich kurz mal nachgelesen, ob das rechtlich möglich wäre:
http://www.debianforum.de/forum/ucp.php?mode=privacy hat geschrieben: Regelungen bezüglich der Weitergabe deiner Daten

Der Betreiber wird diese Daten nur mit deiner Zustimmung an Dritte weitergeben, sofern er nicht auf Grund gesetzlicher Regelungen zur Weitergabe der Daten verpflichtet ist oder die Daten zur Durchsetzung rechtlicher Interessen erforderlich sind.
Gruß
gms

Benutzeravatar
whisper
Beiträge: 3193
Registriert: 23.09.2002 14:32:21
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von whisper » 04.07.2008 09:05:30

Ok, habe ich jetzt nicht bedacht, aber mit einer Verschlüsselung wäre es trotzdem möglich. Aber das geht wahrscheinlich nicht in direkter Datenbankverbindung?.
Ich glaube immer noch, das ein anheben der Parameter wie vom tuning-primer vorgeschalgen das einfachste wäre.

Benutzeravatar
feltel
Webmaster
Beiträge: 10368
Registriert: 20.12.2001 13:08:23
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Leipzig, Germany
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von feltel » 04.07.2008 09:12:23

Hier mal tuning-primer.sh nach den vorgeschlagenen Änderungen. Die Änderung der max-connections werde ich denke ich aber wieder zurück nehmen:

Code: Alles auswählen

leela:~# ./tuning-primer.sh

- INITIAL LOGIN ATTEMPT FAILED -

Testing Stored for passwords: None Found

- RETRY LOGIN ATTEMPT FAILED -

Could not auto detect login info!

Do you have your login handy ? [y/N] : y
User: xxxxxxxxxxxxx
Password:
Would you like me to create a ~/.my.cnf file for you? [y/N] :

        -- MYSQL PERFORMANCE TUNING PRIMER --
             - By: Matthew Montgomery -

MySQL Version 5.0.32-Debian_7etch5-log x86_64

Uptime = 2 days 1 hrs 24 min 58 sec
Avg. qps = 11
Total Questions = 1996800
Threads Connected = 22

Server has been running for over 48hrs.
It should be safe to follow these recommendations

To find out more information on how each of these
runtime variables effects performance visit:
http://dev.mysql.com/doc/refman/5.0/en/server-system-variables.html
Visit http://www.mysql.com/products/enterprise/advisors.html
for info about MySQL's Enterprise Monitoring and Advisory Service

SLOW QUERIES
The slow query log is NOT enabled.
Current long_query_time = 5 sec.
You have 531 out of 1996821 that take longer than 5 sec. to complete
Your long_query_time seems to be fine

BINARY UPDATE LOG
The binary update log is enabled

WORKER THREADS
Current thread_cache_size = 128
Current threads_cached = 40
Current threads_per_sec = 0
Historic threads_per_sec = 0
Your thread_cache_size is fine

MAX CONNECTIONS
Current max_connections = 600
Current threads_connected = 22
Historic max_used_connections = 62
The number of used connections is 10% of the configured maximum.
You are using less than 10% of your configured max_connections.
Lowering max_connections could help to avoid an over-allocation of memory
See "MEMORY USAGE" section to make sure you are not over-allocating

MEMORY USAGE
Max Memory Ever Allocated : 12 G
Configured Max Per-thread Buffers : 112 G
Configured Max Global Buffers : 538 M
Configured Max Memory Limit : 113 G
Physical Memory : 1.96 G

Max memory limit exceeds 90% of physical memory

Current MyISAM index space = 551 M
Current key_buffer_size = 512 M
Key cache miss rate is 1 : 54
Key buffer fill ratio = 51.00 %
Your key_buffer_size seems to be fine

QUERY CACHE
Query cache is enabled
Current query_cache_size = 16 M
Current query_cache_used = 3 M
Current query_cache_limit = 1 M
Current Query cache Memory fill ratio = 21.24 %
Current query_cache_min_res_unit = 4 K
Your query_cache_size seems to be too high.
Perhaps you can use these resources elsewhere
MySQL won't cache query results that are larger than query_cache_limit in size

SORT OPERATIONS
Current sort_buffer_size = 128 M
Current read_rnd_buffer_size = 256 K
Sort buffer seems to be fine

JOINS
Current join_buffer_size = 64.00 M
You have had 44 queries where a join could not use an index properly
join_buffer_size >= 4 M
This is not advised
You should enable "log-queries-not-using-indexes"
Then look for non indexed joins in the slow query log.

OPEN FILES LIMIT
Current open_files_limit = 4706 files
The open_files_limit should typically be set to at least 2x-3x
that of table_cache if you have heavy MyISAM usage.
Your open_files_limit value seems to be fine

TABLE CACHE
Current table_cache value = 2048 tables
You have a total of 182 tables
You have 303 open tables.
The table_cache value seems to be fine

TEMP TABLES
Current max_heap_table_size = 16 M
Current tmp_table_size = 96 M
Of 40224 temp tables, 7% were created on disk
Effective in-memory tmp_table_size is limited to max_heap_table_size.
Created disk tmp tables ratio seems fine

TABLE SCANS
Current read_buffer_size = 128 K
Current table scan ratio = 64 : 1
read_buffer_size seems to be fine

TABLE LOCKING
Current Lock Wait ratio = 1 : 372
You may benefit from selective use of InnoDB.
If you have long running SELECT's against MyISAM tables and perform
frequent updates consider setting 'low_priority_updates=1'
If you have a high concurrency of inserts on Dynamic row-length tables
consider setting 'concurrent_insert=2'.

leela:~#

Benutzeravatar
whisper
Beiträge: 3193
Registriert: 23.09.2002 14:32:21
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von whisper » 04.07.2008 10:45:59

Code: Alles auswählen

MEMORY USAGE
Max Memory Ever Allocated : 12 G
Configured Max Per-thread Buffers : 112 G
Configured Max Global Buffers : 538 M
Configured Max Memory Limit : 113 G
Physical Memory : 1.96 G
Wie schon mal angedeutet, das kann doch nicht sein. Obwohl dur nur max 62 concurrierende Sessions in den 2 Tagen hattest, wurden 12 GigaByte Memory allociert..
Ich hätte für deine Datenbank die Werte in etwa so erwartet:
Configured Max Per-thread Buffers : 512M
Configured Max Global Buffers : 512 M
Configured Max Memory Limit : 1.5 G

Weil: einer Datenbank mehr RAM zu zugestehen, als physikalisch abzüglich Betriebssystem da ist, ist doch unlogisch, oder? Du hast 6 mal so viel Eingestellt, wie vorhanden. Wenn aus irgendeinem Grunde die DB wirklich so viel benutzen wollen würde, wär's doch virtueller Speicher.

Benutzeravatar
feltel
Webmaster
Beiträge: 10368
Registriert: 20.12.2001 13:08:23
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Leipzig, Germany
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von feltel » 04.07.2008 10:52:41

Ich kann mir die hohen Werte auch nicht erklären. Ich hab das ganze mal spaßeshalber auf nem anderen DB-Server probiert, der bei weitem nicht so frequentiert wird wir der unseres Rooties, und da erhalte ich ähnliche Werte:

Code: Alles auswählen

Max Memory Ever Allocated : 97 G
Configured Max Per-thread Buffers : 109 G
Configured Max Global Buffers : 163 M
Configured Max Memory Limit : 109 G
Physical Memory : 885.15 M

Max memory limit exceeds 90% of physical memory

Benutzeravatar
habakug
Moderator
Beiträge: 4313
Registriert: 23.10.2004 13:08:41
Lizenz eigener Beiträge: MIT Lizenz

Re: df.de hakelt böse

Beitrag von habakug » 04.07.2008 11:27:45

Hallo!

Das "Configured Max Memory Limit" errechnet sich aus key_buffer + (sort_buffer + read_buffer) x max_connections = RAM. Setzt man die Zahlen aus der Script-Ausgabe ein ergibt sich folgendes:
512 Mb + (128 Mb + 256 kb) x 600 = ~ 384000 Mb
Andersherum: max-connctions = (RAM - key_buffer) : (read_buffer + sort_buffer) , in diesem Fall:
(1,96 Gb - 512 Mb) : (128 Mb + 256 kb) = ~ 1500 : ~ 128 = 11
"Normale" Wert wären m.E. read_buffer = 8 Mb, sort_buffer = 8 Mb, key_buffer = 128 Mb. Je mehr max_connections umso kleiner read, key und sort_buffer.

Gruß, habakug
( # = root | $ = user | !! = mod ) (Vor der PN) (Debianforum-Wiki) (NoPaste)

Benutzeravatar
whisper
Beiträge: 3193
Registriert: 23.09.2002 14:32:21
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von whisper » 05.07.2008 16:49:00

Ich habe zwar nur kleinere Sites auf meinen Server, aber durch die Menge kommt halt auch was zusammen. Hier mal zum Vergleich meine Werte.

Code: Alles auswählen

MAX CONNECTIONS
Current max_connections = 80
Current threads_connected = 2
Historic max_used_connections = 21
The number of used connections is 26% of the configured maximum.
Your max_connections variable seems to be fine.

MEMORY USAGE
Max Memory Ever Allocated : 257 M
Configured Max Per-thread Buffers : 212 M
Configured Max Global Buffers : 202 M
Configured Max Memory Limit : 414 M
Physical Memory : 1.94 G
Max memory limit seem to be within acceptable norms

KEY BUFFER
Current MyISAM index space = 120 M
Current key_buffer_size = 128 M
Key cache miss rate is 1 : 54695
Key buffer fill ratio = 73.00 %
Your key_buffer_size seems to be too high.
Perhaps you can use these resources elsewhere
Wobei ich die Key Buffer extra erhöht hatte, weil es schon mal kanpp war und ich ja ausreichend RAM habe
Deshalb versuche wirklich mal kleinere Einstellungen.

aspettl
Beiträge: 318
Registriert: 15.02.2006 22:05:37
Lizenz eigener Beiträge: MIT Lizenz
Kontaktdaten:

Re: df.de hakelt böse

Beitrag von aspettl » 06.07.2008 12:35:47

Ein Gedanke:
Soweit ich mich erinnere, hat feltel beim Umzug auf phpBB3 geschrieben, dass der Suchindex neu aufgebaut wird - also der von phpBB3 ("Fulltext Native"), nicht der "Fulltext MySQL".
Diese Suchindex-Tabellen sind wahrscheinlich sehr groß. Diese könnte man entweder vom Backup ausnehmen oder direkt leeren und den Suchindex in phpBB3 auf "Fulltext MySQL" wechseln.

Die MySQL-Konfiguration sollte überarbeitet werden, das ist denke ich schon nützlich - für den normalen Betrieb. Während dem Backup ist die Auswirkung nicht so groß, vermute ich...

Gruß
Aaron

Antworten