Durata dischi in un sistema raid5 Italiano
Ciao LIsta, dopo un po' di tempo, mi sono connesso al mio serverino HP, che da anni sta funzionando silenziosamente nello studio, fornendo i suoi servizi senza battere ciglio (è da un po' che non facevo neppure aggiornamenti, quindi ora sta lavorando come non faceva da tempo). sulla macchina sono installati 5 dischi in raid5 (4 attivi e 1 Hot Spare). oggi ho dato il comando per vedere lo stato del raid: sudo mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Fri Jun 29 21:09:02 2012 Raid Level : raid5 Array Size : 5860538880 (5589.05 GiB 6001.19 GB) Used Dev Size : 1953512960 (1863.02 GiB 2000.40 GB) Raid Devices : 4 Total Devices : 5 Persistence : Superblock is persistent Update Time : Wed May 22 17:08:04 2019 State : active Active Devices : 4 Working Devices : 5 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Name : imladris:0 UUID : bfe91baa:dc4c4025:b84e6d36:759afea7 Events : 60339 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1 4 8 65 - spare /dev/sde1 come potete vedere, è tutto perfettamente regolare, i dischi stanno facendo il loro lavoro e non sembrano avere problemi... però... guardando la data di creazione del raid, che è la stessa data di installazione dei 5 dischi (forse lo spare lo aggiunto qualche mese dopo), mi rendo conto che il tutto è in piedi e funzionante 24/7 da ben 7 anni circa... i dischi sono dei WD green (addiritura non sarebbero neppure i più adatti per i sistemi raid 24/7) Mi chiedevo... conviene che cominci a fare una opera di sostituzione programmata dei dischi, magari un disco al mese, nel giro di 5 mesi li ho sostituiti tutti... e distribuisco la spesa nel tempo. altra domanda... ora che i prezzi sono calati, se dovessi comprare dei dischi più capienti, so che la parte usata è sempre quella relativa al disco più piccolo, ma quando sarebbero sostituiti tutti e cinque con dischi di maggior capienza, uguali tra di loro, e visto che il sistema si appoggia su lvm+md+ext4, credete che sia poi possibile estendere lo spazio fino ad occupare l'intero spazio dato dalla maggior capacità dei dischi? mentre scrivo, mi viene da pensare, che la parte più sensibile per ora, potrebbe essere la chiavetta usb, su cui gira il sistema operativo... forse sarebbe la prima da sostituire (in realtà tutta la parte /var è sui dischi meccanici, quindi dovrebbe avere poche sollecitazioni in scrittura). grazie degli eventuali suggerimenti... Tnx&Byez -- Gollum1 - http://www.gollumone.it Tesssssoro, dov'é il mio tessssoro...
Il 22/05/19 17:19, Gollum1 ha scritto: > Mi chiedevo... conviene che cominci a fare una opera di sostituzione > programmata dei dischi, magari un disco al mese, nel giro di 5 mesi li > ho sostituiti tutti... e distribuisco la spesa nel tempo. intanto, ti suggerirei di utilizzare i tool per l'interrogazione dello stato dei dischi attraverso SMART. il raid restera' silente fino a che i dischi non daranno veramente i numeri. con smart puoi avere dettagli migliori e piu' approfonditi circa lo stato dell'hardware. Il fatto che tu abbiamo montato i dischi presi probabilmente dalla stessa partita, per quanto statisticamente una scelta non proprio perfetta e' un classico... arriva la macchina, arrivano i dischi, monto i dischi, via. I dischi vivono di vita propria e non si guastano tutti nello stesso periodo. ho visto dischi morire di vecchiaia dopo anni di onorato servizio, guando gli stessi modelli erano morti il giorno dopo essere stati montati. La tua idea di iniziare a sostituirli gradatamente e' decisamente valida. Per lo meno svecchi allegramente la parte piu' critica di tutto il sistema senza perarltro esporti a un costo e a tempi di fermo magari non accettabili. Magari per stringere i tempi, procedi a cambiarli ogni volta che la ricostruzione del raid e' completata, almeno due a ogni giro, cosi', anziche' rischiare per i prossimi quattro mesi, stringi a meno tempo e minor criticita'. MAuro.
Il 22 maggio 2019 17:48:05 CEST, Mauro <mauro@teppisti.it> ha scritto: > >Il 22/05/19 17:19, Gollum1 ha scritto: >> Mi chiedevo... conviene che cominci a fare una opera di sostituzione >> programmata dei dischi, magari un disco al mese, nel giro di 5 mesi >li >> ho sostituiti tutti... e distribuisco la spesa nel tempo. > > >intanto, ti suggerirei di utilizzare i tool per l'interrogazione dello >stato dei dischi attraverso SMART. > ok... questo è sicuramente un ottimo suggerimento, e così posso anche decidere quale sostituire per primo. >il raid restera' silente fino a che i dischi non daranno veramente i >numeri. con smart puoi avere dettagli migliori e piu' approfonditi >circa >lo stato dell'hardware. > >Il fatto che tu abbiamo montato i dischi presi probabilmente dalla >stessa partita, per quanto statisticamente una scelta non proprio no, dovrebbero essere partite diverse, in quanto acquistati in tempi diversi e poi montati (certamente non posso essere sicuro che gli stock di magazzino, venduti in tempi diversi, non siano in realtà dello stesso lotto, ma voglio sperare che con l'elevato numero di dischi che vengono venduti, non sia questo il caso) >perfetta e' un classico... arriva la macchina, arrivano i dischi, monto >i dischi, via. > >I dischi vivono di vita propria e non si guastano tutti nello stesso >periodo. ho visto dischi morire di vecchiaia dopo anni di onorato >servizio, guando gli stessi modelli erano morti il giorno dopo essere >stati montati. certamente... > >La tua idea di iniziare a sostituirli gradatamente e' decisamente >valida. Per lo meno svecchi allegramente la parte piu' critica di tutto >il sistema senza perarltro esporti a un costo e a tempi di fermo magari >non accettabili. Magari per stringere i tempi, procedi a cambiarli ogni >volta che la ricostruzione del raid e' completata, almeno due a ogni >giro, cosi', anziche' rischiare per i prossimi quattro mesi, stringi a >meno tempo e minor criticita'. > > bha... non è una macchina critica, anche a livello di accessi... è la mia nas casalinga... quindi posso dilungarmi nei tempi, per diluire i costi, posso anche permettermi un down per un po' di tempo. azz... ho appena finito l'aggiornamento... ho perso il contatto con la macchina... risulta proprio spenta (devo decidermi a scendere in studio a controllare). >MAuro. grazie. byez -- gollum1 Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità e gli errori, maledetto correttore automatico.
Ciao, sai che sono sempre contro corrente. Ti consiglierei di svecchiare la macchina usando lo storage in zfs (raid z, 2,3) beneficiando delle funzioni di scrub e di mille altre. Ciao Luca Il giorno 22 mag 2019, 18:05, alle ore 18:05, Gollum1 <gollum1.smeagol1@gmail.com> ha scritto: >Il 22 maggio 2019 17:48:05 CEST, Mauro <mauro@teppisti.it> ha scritto: >> >>Il 22/05/19 17:19, Gollum1 ha scritto: >>> Mi chiedevo... conviene che cominci a fare una opera di sostituzione >>> programmata dei dischi, magari un disco al mese, nel giro di 5 mesi >>li >>> ho sostituiti tutti... e distribuisco la spesa nel tempo. >> >> >>intanto, ti suggerirei di utilizzare i tool per l'interrogazione dello >>stato dei dischi attraverso SMART. >> > >ok... questo è sicuramente un ottimo suggerimento, e così posso anche >decidere quale sostituire per primo. > >>il raid restera' silente fino a che i dischi non daranno veramente i >>numeri. con smart puoi avere dettagli migliori e piu' approfonditi >>circa >>lo stato dell'hardware. >> >>Il fatto che tu abbiamo montato i dischi presi probabilmente dalla >>stessa partita, per quanto statisticamente una scelta non proprio > >no, dovrebbero essere partite diverse, in quanto acquistati in tempi >diversi e poi montati (certamente non posso essere sicuro che gli stock >di magazzino, venduti in tempi diversi, non siano in realtà dello >stesso lotto, ma voglio sperare che con l'elevato numero di dischi che >vengono venduti, non sia questo il caso) > >>perfetta e' un classico... arriva la macchina, arrivano i dischi, >monto >>i dischi, via. >> >>I dischi vivono di vita propria e non si guastano tutti nello stesso >>periodo. ho visto dischi morire di vecchiaia dopo anni di onorato >>servizio, guando gli stessi modelli erano morti il giorno dopo essere >>stati montati. > >certamente... > >> >>La tua idea di iniziare a sostituirli gradatamente e' decisamente >>valida. Per lo meno svecchi allegramente la parte piu' critica di >tutto >>il sistema senza perarltro esporti a un costo e a tempi di fermo >magari >>non accettabili. Magari per stringere i tempi, procedi a cambiarli >ogni >>volta che la ricostruzione del raid e' completata, almeno due a ogni >>giro, cosi', anziche' rischiare per i prossimi quattro mesi, stringi a >>meno tempo e minor criticita'. >> >> > >bha... non è una macchina critica, anche a livello di accessi... è la >mia nas casalinga... quindi posso dilungarmi nei tempi, per diluire i >costi, posso anche permettermi un down per un po' di tempo. > >azz... ho appena finito l'aggiornamento... ho perso il contatto con la >macchina... risulta proprio spenta (devo decidermi a scendere in studio >a controllare). > >>MAuro. > grazie. > >byez >-- >gollum1 > >Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità >e gli errori, maledetto correttore automatico.
Il giorno mer 22 mag 2019 alle ore 18:08 Luca De Andreis <dea@corep.it> ha scritto: > > Ciao, sai che sono sempre contro corrente. > Ti consiglierei di svecchiare la macchina usando lo storage in zfs (raid z, 2,3) beneficiando delle funzioni di scrub e di mille altre. > Che vantaggi avrei rispetto alla situazione attuale? presumo che per la conversione dovrei copiare tutto in un altro supporto, non credo che sia possibile farlo on the fly... zfs a che punto si inserisce? attualmente uso md+lvm+ext4... Tnx&Byez -- Gollum1 - http://www.gollumone.it Tesssssoro, dov'é il mio tessssoro...
Si, devi distruggere e ricreare. Zfs SOSTITUISCE md+lvm+ext4 in un sistema completamente integrato e con molte funzioni extra tipiche di un COW. Il giorno 22 mag 2019, 20:35, alle ore 20:35, Gollum1 <gollum1.smeagol1@gmail.com> ha scritto: >Il giorno mer 22 mag 2019 alle ore 18:08 Luca De Andreis ><dea@corep.it> ha scritto: >> >> Ciao, sai che sono sempre contro corrente. >> Ti consiglierei di svecchiare la macchina usando lo storage in zfs >(raid z, 2,3) beneficiando delle funzioni di scrub e di mille altre. >> > >Che vantaggi avrei rispetto alla situazione attuale? > >presumo che per la conversione dovrei copiare tutto in un altro >supporto, non credo che sia possibile farlo on the fly... > >zfs a che punto si inserisce? > >attualmente uso md+lvm+ext4... > >Tnx&Byez >-- >Gollum1 - http://www.gollumone.it >Tesssssoro, dov'é il mio tessssoro...
Il giorno mer 22 mag 2019 alle ore 20:52 Luca De Andreis <dea@corep.it> ha scritto: > > Si, devi distruggere e ricreare. > > Zfs SOSTITUISCE md+lvm+ext4 in un sistema completamente integrato e con molte funzioni extra tipiche di un COW. > ma adesso zfs è nativo su debian? nel senso, posso fare una installazione del sistema direttamente in zfs? se non ricordo male alcune info che avevo letto tempo fa, zfs non veniva usato per i dischi su cui è installato il sistema, ma per eventuali estensioni di FS, tipo appunto la parte resa "pubblica" di una NAS. Byez -- Gollum1 - http://www.gollumone.it Tesssssoro, dov'é il mio tessssoro...
Il giorno mer 22 mag 2019 alle ore 17:48 Mauro <mauro@teppisti.it> ha scritto: > > intanto, ti suggerirei di utilizzare i tool per l'interrogazione dello > stato dei dischi attraverso SMART. > Ho lanciato il comando per fare il controllo dei dischi con lo smarttools, ma sinceramente non so di preciso come interpretare i risultati. da quello che leggo, mi pare di vedere che non ci sono problemi, anche se qualcosina di strano forse in qualche cosa c'é... però non sono un esperto, e faccio fatica a interpretare i risultati. allego il file in cui ho rediretto il comanto "smartctl -a /dev/sdX" con X uguale ad ogni disco del raid (in realtà l'ultimo è quello della chiavetta USB, che non è supportata dagli smarttools). Dopo l'estate comincerò ad acquistare i dischi da sostituire... poi, da decidere se mi conviene mantenere la struttura attuale, o seguire il suggerimento di Luca e passare a zfs. Grazie Byez -- Gollum1 - http://www.gollumone.it Tesssssoro, dov'é il mio tessssoro...
Io non vedo nulla che non va. Domani ti invio il mio file e ti farò vedere cosa scrive quando sta per schiattare Il May 22, 2019 8:30:06 PM UTC, Gollum1 <gollum1.smeagol1@gmail.com> ha scritto: >ho dimenticato il file, sperando in un vostro intervento... > >Byez >-- >Gollum1 - http://www.gollumone.it >Tesssssoro, dov'é il mio tessssoro... -- Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità.
ZFS è più moderno, integra (espande e migliora) i layer md+lvm+ext4, layer che per loro natura sono asettici e tra loro non comunicanti in ZFS è tutto integrato ed i layer sanno cosa fanno tra loro. La funzione di crc continuo sui blocchi vi fa capire subito se qualcosa non va, come lo scrub periodico. Zfs è talmente autoconsistente che non esiste un tool di fsck. Ma è solo una piccola percentuale di quello che può fare. Unica nota negativa su server di vecchia impronta, ZFS è vorace di RAM, quindi se è poca potrebbe essere un problema. Su server performanti, anche con ssd da dedicare alla cache ZIL (funzione di accelerazione nativa) e RAM adeguata (sana, almeno di tipo ECC) la scelta in produzione per me è questa. Ciao Luca Il giorno 22 mag 2019, 22:06, alle ore 22:06, Gollum1 <gollum1.smeagol1@gmail.com> ha scritto: >Il giorno mer 22 mag 2019 alle ore 20:52 Luca De Andreis ><dea@corep.it> ha scritto: >> >> Si, devi distruggere e ricreare. >> >> Zfs SOSTITUISCE md+lvm+ext4 in un sistema completamente integrato e >con molte funzioni extra tipiche di un COW. >> > >ma adesso zfs è nativo su debian? nel senso, posso fare una >installazione del sistema direttamente in zfs? >se non ricordo male alcune info che avevo letto tempo fa, zfs non >veniva usato per i dischi su cui è installato il sistema, ma per >eventuali estensioni di FS, tipo appunto la parte resa "pubblica" di >una NAS. > >Byez >-- >Gollum1 - http://www.gollumone.it >Tesssssoro, dov'é il mio tessssoro...
Il 22/05/19 17:19, Gollum1 ha scritto: > [...] > grazie degli eventuali suggerimenti... Io non sostituirei nulla se non hai problemi di spazio[¹] o non pensi di voler passare a zfs, i tuoi dischi stanno bene in salute e non vedo problemi in caso di fallimento di uno dei dischi. Farei invece una copia del pendrive su cui hai installato il SO e lo terrei caro, caro nel caso in cui il pen drive si guastasse. Ciao Piviul [¹] Se sostituisci i dischi puoi certamente espandere la capacità del file system a caldo.
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256 Il 23/05/19 06:58, Luca De Andreis ha scritto: > ZFS è più moderno, integra (espande e migliora) i layer md+lvm+ext4, layer che per loro natura sono asettici e tra loro non comunicanti in ZFS è tutto integrato ed i layer sanno cosa fanno tra loro. Premetto che uso zfs su macchine freebsd in produzione, quindi ne sto' apprezzando le caratteristiche decisamente superiori alle altre soluzioni disponibili sia nel pinguino che in freebsd stesso. Ora, per quanto moderno, chiedere di sostituire md+lvm+ext su una macchina in produzione non risolve il problema di base e impone altre valutazioni non di poco conto. I dischi restano sempre da sostituire e va tutto riviste in chiave zfs. La logica dietro la soluzione di md+lvm è comunque valida. cambi un disco per volta, aspetti che risincronizzi, procedi col secondo. A malapena che effettui il riavvio. Nel mio sadismo, non riavvierei nemmeno. -----BEGIN PGP SIGNATURE----- Comment: GPGTools - http://gpgtools.org iQEzBAEBCAAdFiEEklR7hkX4M02p083YYEsbdHj78WUFAlzmVQ4ACgkQYEsbdHj7 8WU8RAf+PW0sGbwjDatlwOw8ITakEg9ZygscwgDxNoxPHKFcE34rgddB8RFel1i4 w1wu2TtCLvr29t0K7V4H+6+VWAM3cl6Oj2gymgYr86T3ThgOtjXEI3DzwGzyFg5R KF5ZsEV8+f6J8BVwF3saUuh84oeymZ4PZUgeHdQgmdS4dStnc/pxnYyEt9w3C6VT gdMxvcqTVfbt27B4BCbW7l2/uyKI8hNNIW5+LdbHfYi/zCYUIvNtNpqHSI3plEL0 Nw64jjhb12Bdjcl2RNSkO786fl8DOR5sE1uJ72pkw9ylKwopoyl4roaH6HKezvRZ aVDg3PCX6zkL4hcRR9GTGOLQx7x9Kw== =C0V8 -----END PGP SIGNATURE-----
Il 23/05/19 10:38, dea ha scritto: > >> Ora, per quanto moderno, chiedere di sostituire md+lvm+ext su una >> macchina in produzione non risolve il problema di base e impone altre >> valutazioni non di poco conto. I dischi restano sempre da sostituire e >> va tutto riviste in chiave zfs. > Si, avete ragione, la mia risposta è stata impropria, non coerente con > la domanda. pero' azzeccata in termini di suggerimenti per altri che stanno con l'orecchio appizzato tra mille dubbi se scegliere zfs (sotto freebsd e' veramente uno spettacolo, non ho abbastanza esperienza per dire lo stesso in ambito pinguino) o utilizzare i vecchi approcci ext+lvm+md. -- Mauro Morichi
Il 23 maggio 2019 10:38:20 CEST, dea <dea@corep.it> ha scritto: > >> Ora, per quanto moderno, chiedere di sostituire md+lvm+ext su una >> macchina in produzione non risolve il problema di base e impone altre >> valutazioni non di poco conto. I dischi restano sempre da sostituire >e >> va tutto riviste in chiave zfs. >Si, avete ragione, la mia risposta è stata impropria, non coerente con >la domanda. bhe... conoscere qualcosa in più, non è mai male. Non credo che, nel mio caso, convenga impegnarsi in un cambio così drastico, md+lvm+ext4, nel mio caso sta funzionando più che bene, e da come me lo hai descritto, la mia macchina non ha le caratteristiche fisiche adeguate per supportate questa tecnologia. grazie comunque. a breve comincio a procurarmi un disco, e poi attendo ancora un po' di tempo, prima di cominciare le sostituzioni, a quanto mi confermate, la situazione dei dischi è ancora buona, e posso quindi prorogate la sostituzione (però, tenermi un disco in casa, probabilmente non guasta) grazie a tutti. byez -- gollum1 Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità e gli errori, maledetto correttore automatico.
Il 22/05/2019 22:31 Paride Desimone ha scritto: > Io non vedo nulla che non va. Domani ti invio il mio file e ti farò > vedere cosa scrive quando sta per schiattare > Dal mio syslog: May 22 16:03:00 frodo smartd[443]: Device: /dev/sda [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 102 to 104 May 22 16:03:00 frodo smartd[443]: Device: /dev/sda [SAT], SMART Usage Attribute: 190 Airflow_Temperature_Cel changed from 55 to 54 May 22 16:03:00 frodo smartd[443]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 45 to 46 Paride
Il 23/05/2019 06:58, Luca De Andreis ha scritto: > Unica nota negativa su server di vecchia impronta, ZFS è vorace di > RAM, quindi se è poca potrebbe essere un problema. Ecco, questo ha sempre frenato anche me dall'adozione di ZFS. Ci sono speranze che in futuro la cosa migliori o è proprio così "by design"? -- Marco Bertorello https://www.marcobertorello.it
Il 23/05/19 14:15, Bertorello, Marco ha scritto: > Il 23/05/2019 06:58, Luca De Andreis ha scritto: >> Unica nota negativa su server di vecchia impronta, ZFS è vorace di >> RAM, quindi se è poca potrebbe essere un problema. > Ecco, questo ha sempre frenato anche me dall'adozione di ZFS. > Ci sono speranze che in futuro la cosa migliori o è proprio così "by > design"? > > -- > Marco Bertorello > https://www.marcobertorello.it > Ti rispondo, anche se sono OT. A dire il vero ZFS non è esoso di RAM è che per sua natura è fatto per ottimizzare al massimo, quindi più riesce a tenere in cache meglio è. Di fatto, quando la RAM non è usata è quella la natura, usarla come cache e ZFS la usa eccome. Poi, volendo, si può fare tuning limitandola a dovere, ma dipende quello che cerchi, se vuoi prestazioni, dai a ZFS degli SSD dove collocare la cache ZIL e dai RAM, il server volerà. In genere, su macchine "piccole" lo sconsiglio, ma basta un cubotto tipo il uHP con 16 Gbyte di RAM sopra per prestazioni decenti con 4 dischi SATA in raid-z1 Luca
Il 23 maggio 2019 14:22:31 CEST, dea <dea@corep.it> ha scritto: > >Il 23/05/19 14:15, Bertorello, Marco ha scritto: >> Il 23/05/2019 06:58, Luca De Andreis ha scritto: >>> Unica nota negativa su server di vecchia impronta, ZFS è vorace di >>> RAM, quindi se è poca potrebbe essere un problema. >> Ecco, questo ha sempre frenato anche me dall'adozione di ZFS. >> Ci sono speranze che in futuro la cosa migliori o è proprio così "by >> design"? >> >> -- >> Marco Bertorello >> https://www.marcobertorello.it >> > >Ti rispondo, anche se sono OT. > >A dire il vero ZFS non è esoso di RAM è che per sua natura è fatto per >ottimizzare al massimo, quindi più riesce a tenere in cache meglio è. > >Di fatto, quando la RAM non è usata è quella la natura, usarla come >cache e ZFS la usa eccome. > bhe... la filosofia Linux/unix dice: ram non usata, ram sprecata. > >il uHP con 16 Gbyte di RAM sopra per prestazioni decenti con 4 dischi >SATA in raid-z1 > il uHP è il mio caso, ma non ho 16 GB di ram, sopratutto non quella ECqualcosa >Luca avrò un po' di tempo per pensarci... tanto dovrei prima trovare i dischi... e soprattutto un posto dove fare il backup. byez -- gollum1 Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità e gli errori, maledetto correttore automatico.
Il 23/05/19 06:58, Luca De Andreis ha scritto: > [...] > Su server performanti, anche con ssd da dedicare alla cache ZIL > (funzione di accelerazione nativa) e RAM adeguata (sana, almeno di tipo > ECC) la scelta in produzione per me è questa. Io non ho mai avuto problemi con RAM non ECC e se devo risparmiare sull'acquisto di un server è una delle prime cose su cui lesino (dopo il controller RAID). Voi trovate invece che faccia differenza? Piviul
Il 30/05/19 11:06, Paolo Redælli ha scritto: > Il 23/05/19 06:58, Luca De Andreis ha scritto: >> .... >> >> Unica nota negativa su server di vecchia impronta, ZFS è vorace di >> RAM, quindi se è poca potrebbe essere un problema. > Premesso che ZFS mi ha sempre affascinato ma non ho mai avuto modo di > usarlo... cosa intendi per "vorace di RAM"? > Dipende da quanto è grande lo storage, se usi degli SSD di accelerazione per lo ZIL, soprattutto se usi la funzione di deduplica. Diciamo non meno di 1 Gbyte di RAM da dedicare per ogni Tbyte di storage, con la deduplicazione disattivata. Come minimo. Luca
Il 30/05/19 11:06, Paolo Redælli ha scritto: > Il 23/05/19 06:58, Luca De Andreis ha scritto: >> .... >> >> Unica nota negativa su server di vecchia impronta, ZFS è vorace di >> RAM, quindi se è poca potrebbe essere un problema. > Premesso che ZFS mi ha sempre affascinato ma non ho mai avuto modo di > usarlo... cosa intendi per "vorace di RAM"? Lo ha già spiegato nel suo messaggio del 23/05/19, 14:22 Piviul
89.2 MB 3,873 messages
Last sync: 15 July 2019 22:44

Move Messages

Save

Apply Labels


Warning: Unknown: write failed: No space left on device (28) in Unknown on line 0

Warning: Unknown: Failed to write session data (files). Please verify that the current setting of session.save_path is correct (/var/lib/php/sessions) in Unknown on line 0