Il consiglio di oggi non è indirizzato esclusivamente ai possessori di SSD, ma anche di dischi rigidi tradizionali. Con Snow Leopard è stato introdotto il supporto alla compressione dei file su HFS+, questo è uno dei motivi per cui le applicazioni installate con il sistema operativo occupano meno spazio rispetto a quelle installate con le precedenti versioni di Mac OS.
Ovviamente tutti i files copiati in seguito all'installazione di Snow Leopard non vengono compressi automaticamente, ma potete farlo voi.
Suggerisco di applicare la compressione alla cartella "Applicazioni" perché comprimere i dati non ha molto senso: eventuali nuovi documenti non verranno compressi e le prestazioni del sistema potrebbero diminuire comprimendo file che vengono modificati spesso.
In ogni caso, il procedimento è piuttosto semplice, ma come sempre non mi prendo responsabilità per qualsiasi problema possa incorrere nella procedura. Vi consiglio di fare un backup prima di eseguire la compressione!
Scaricate da qui l'ultima versione di afsctool, scompattate lo zip e copiate il file "afsctool" dove volete nel vostro disco.
Eseguite il seguente comando da terminale:
sudo du -sch /Applicazioni/
per vedere lo spazio occupato dalla directory che desiderate comprimere. Al posto di "Applications" potete metterci il nome di un'altra directory.
ora eseguite il seguente comando da terminale (dalla directory in cui si trova afsctool):
sudo ./afsctool -c /Applicazioni/
adesso ricontrollate lo spazio occupato dalla cartella, nuovamente con il comando:
sudo du -sch /Applicazioni/
Eseguendo la compressione in questo modo, sul mio disco ho risparmiato 4Gb passando da 18Gb a 14Gb. Per gli SSD, ma anche i normali dischi rigidi in misura minore, è fondamentale avere dello spazio libero per evitare il calo di prestazioni, quindi comprimere la cartella Applicazioni può essere una buona idea.
Ovviamente files già compressi (buona parte dei software Apple) non diminuiscono ulteriormente di dimensione. Per la cronaca anche la directory System ha files già con un risparmio di spazio del 40%.
Dopo aver seguito questo post e i due precedenti dovreste avere un SSD funzionante al massimo delle possibilità, ora godetevelo!
Ho seri dubbi che la compressione dei dati a livello di fs offra dei benefici con gli SSD basati su controller Sandforce: il controller stesso comprime i dati per occupare meno spazio e limitare l'usura della flash (in gergo, riduce la write amiplification), ogni compressione a priori abbassa o azzera quella effettuata dal controller.
L'unico vantaggio e' poter memorizzare piu' dati, ma questo avviene a scapito della durata del supporto (il controller deve scrivere piu' dati perche' li comprime molto meno -> scrive su piu' celle della memoria e riutilizza piu' frequentemente le stesse celle di memoria -> usura maggiore): se prevedi di sostituire il lettore dvd con un hdd per i dati e destinare il SSD al solo sistema, ti consiglio di togliere la compressione del fs.
Edward
@Edward:
Il commento era finito in coda per l'approvazione e l'ho visto solo ora… ;)
L'uso della compressione non è esplicitamente per offrire benefici diretti con l'SSD, ma perché, occupando un po' meno spazio, è più facile evitare che l'SSD si riempia del tutto, lasciando così un po' di largo per "l'over-provisioning user side". :)
La compressione applicata come suggerito sul post non è molto alta (da 1 a 10 il valore di default di afsctool è 5), quindi magari il Sandforce comprime lo stesso un po’, ma potrei sbagliarmi, non so per certo.
Comunque l’ho applicata alla cartella dei programmi che “teoricamente” vengono eseguiti in lettura… (se mi gira quasi quasi un controllino lo faccio cambiando i permessi).
P.S.: interessante l’articolo su Anand, grazie del link!
No problem per la coda di moderazione: serve proprio per casi come questi ;)
Quanto all'over provisioning "user side", puo' avere senso con i controller che non comprimono i dati; tuttavia il primo teorema di Shannon (o teorema della codifica del sorgente) afferma che esiste un limite alla compressione lossless effettuabile, ossia non puoi diminuire la dimensione dello stesso dato iterativamente e senza perdite di informazione perche' vi e' una dimensione minima ulteriormente incomprimibile: se e' vero che la bonta' dell'algoritmo di compressione dipende dal tipo di dato e dall'entropia, in generale le compressioni di dati gia' compressi sono molto spesso di efficacia bassa (comprimono meno), nulla o – peggio – negativa (ossia il risultato occupa piu' spazio della prima compressione).
In altri termini, il controller Sandforce comprime i dati a sua volta e lo spazio recuperato tramite compressione del fs e' quello che il controller non avrebbe comunque scritto proprio in virtu' della sua compressione interna: in questo caso non c'e' guadagno nell'over provisioning, per questo ritengo la compressione a livello di file system poco utile se non dannosa.
Anandtech e' il punto di riferimento per gli SSD in quanto ha pubblicato un articolo sui difetti dei primi modelli commerciali (2008-09: stuttering del controller JMicron JM601) e poi ha analizzato quelli successivi, coprendo tutti i controller e le implementazioni piu' significative: mi piace soprattutto per il livello di approfondimento.
Edward