Skip to Content

5 lecciones clave del éxodo de MinIO: qué nos enseñan realmente las alternativas a MinIO en el almacenamiento S3

2 February 2026 by
5 lecciones clave del éxodo de MinIO: qué nos enseñan realmente las alternativas a MinIO en el almacenamiento S3
Sergi Pinto

El món de l'emmagatzematge S3 autoallotjat (self-hosted) ha viscut una sacsejada recent. MinIO, que durant anys ha estat l'estàndard de facto per a molts de nosaltres, ha fet un gir brusc. Amb canvis en la seva llicència i l'eliminació de funcionalitats clau de la seva versió de codi obert, una gran part de la comunitat se sent abandonada i busca alternatives.

Però en lloc de veure-ho com un problema, aquest èxode és una oportunitat d'or. Ens obliga a aturar-nos i preguntar-nos: què necessitem realment d'una solució d'emmagatzematge? A través de cinc lliçons extretes de les trinxeres de la comunitat, descobrirem els principis fonamentals, sovint ignorats, que defineixen un sistema d'emmagatzematge realment resilient.


1. La simplicitat és una característica, no un defecte: La filosofia de Garage

En un sector obsessionat amb els benchmarks i les xifres de rendiment màxim, Garage arriba amb una proposta radicalment diferent: la simplicitat i la resiliència són prioritàries. A diferència d'altres sistemes que busquen esprémer cada gota de velocitat, Garage prioritza funcionar bé en condicions imperfectes.

De fet, a la seva documentació de "Goals and use cases", defineixen explícitament els seus "no-objectius": entre ells hi ha els "rendiments extrems" i l'"extensivitat de funcionalitats". El seu disseny està pensat per funcionar sobre "connexions d'Internet normals" i amb "maquinari heterogeni", una descripció que encaixa perfectament amb la realitat de molts projectes d'autoallotjament fora dels grans centres de dades.

Aquesta aposta per la robustesa per sobre del rendiment pur és una idea potent. En lloc de perseguir mètriques ideals, se centra a sobreviure i funcionar de manera fiable en el món real. Aquesta filosofia es reflecteix en el seu consum de recursos. Segons un usuari del fòrum LowEndTalk, la diferència és abismal: mentre MinIO consumia prop de 500 MB de RAM en repòs, Garage es mantenia en menys de 5 MB, una eficiència deu vegades superior a la que ja s'esperava.

2. El teu maquinari encara importa: El "secret" dels SSD amb Garage

Garage promet funcionar amb "qualsevol màquina de segona mà disponible", una idea molt atractiva per a la comunitat d'autoallotjament. No obstant això, una experiència compartida al fil de Reddit "Misadventures in Geo-replicated storage" revela un matís crucial.

Un usuari explica com la seva instal·lació de Garage era pràcticament inutilitzable, patint "errors constants" durant la transferència de dades. Després de múltiples proves i frustracions, la solució va ser sorprenentment simple: moure el directori de metadades (metadata_dir) a un disc SSD. El canvi va ser radical. Les operacions que abans fallaven ara funcionaven sense problemes, i va observar, mitjançant ztop, que el volum de metadades estava experimentant pics de "fins a 400 MB/s amb 100k IOPS de lectura".

Aquesta anècdota no és un cas aïllat; de fet, confirma la recomanació oficial de la documentació de Garage, que suggereix emmagatzemar el metadata_dir en un "disc SSD ràpid si és possible per maximitzar el rendiment".

Aquesta és la paradoxa de la simplicitat que Garage ens ensenya: en eliminar capes de complexitat, el rendiment de components individuals, com el disc de metadades, esdevé absolutament crític. No hi ha cap capa d'abstracció o memòria cau complexa per amagar un disc lent; la simplicitat exposa directament el coll d'ampolla.

3. Per què 3 nodes no són prou: La trampa de l'Alta Disponibilitat amb Ceph

Un dels objectius més comuns per als qui s'inicien en l'alta disponibilitat (HA) és construir un clúster resilient amb només 2 o 3 nodes. És una idea lògica per a entorns domèstics o petites empreses. No obstant això, quan intentem aplicar aquesta lògica a Ceph, podem estar creant una falsa sensació de seguretat.

Un fil al fòrum de Proxmox titulat "Minimal Ceph Cluster" il·lustra perfectament aquest perill. El problema rau en les configuracions amb un factor de rèplica baix, com Replica 2. Aquesta configuració funciona com un RAID 1: cada dada té dues còpies. Si un node està fora de servei per manteniment, només queda una còpia de les dades. En aquesta situació, si un sol disc falla a l'únic node restant, les dades es perden per sempre.

Un usuari del fòrum ho resumeix de manera contundent:

"With Replica 2, CEPH no longer has any option, one copy is gone due to maintenance and the other copy is smoked with the disk - so there is no longer a copy and the CEPH can no longer heal itself."

La implicació és profunda. Aquesta experiència no és un cas aïllat. En altres fils de discussió sobre el rendiment, la comunitat reitera constantment la mateixa màxima: Ceph "scales out not up" (escala horitzontalment, no verticalment). Està dissenyat per a molts nodes, no per a pocs nodes molt potents. Forçar-lo a operar en un clúster petit no només degrada el seu rendiment, sinó que pot ser activament perillós i soscavar el propòsit mateix de l'alta disponibilitat que preteníem aconseguir.

4. Més enllà dels Benchmarks: La lliçó de fragilitat de SeaweedFS

SeaweedFS és sovint una de les primeres alternatives a MinIO que apareix a la llista, i amb raó. És conegut pel seu alt rendiment i un conjunt de funcionalitats molt extens. Però la velocitat i les característiques no ho són tot, i les experiències de la comunitat ens adverteixen que la seva estabilitat pot ser fràgil.

Dues fonts ens donen pistes importants:

  1. Al fil de Reddit "Misadventures...", un usuari descriu un error crític en la rèplica entre llocs. Quan un node es desconnectava i tornava a estar en línia, no recuperava les dades que s'havia perdut, provocant inconsistències greus al clúster.
  2. Un informe d'error a GitHub titulat "We have lost data in a volume" és encara més preocupant. Un usuari hi explica com va perdre totes les dades d'un volum després que el sistema fallés durant un procés de manteniment (vacuum).

Aquests casos ens ensenyen una lliçó fonamental: les comparatives de rendiment i les llistes de funcionalitats són atractives, però la integritat de les dades i l'estabilitat davant de fallades són infinitament més importants. Abans de confiar les nostres dades a un sistema, és crucial investigar els informes d'errors reals i les experiències de la comunitat. La resiliència real es demostra quan les coses van malament, no només quan tot funciona perfectament.

5. La pregunta que ningú fa: El teu emmagatzematge és Autònom o Dependent?

Quan avaluem alternatives S3, sovint ens quedem a la superfície, comparant característiques i compatibilitat d'API. No obstant això, hi ha una distinció arquitectònica fonamental que ho canvia tot. L'article "JuiceFS vs SeaweedFS" ens ajuda a entendre aquesta divisió.

Models arquitectònics d’emmagatzematge S3

Podem classificar els sistemes d'emmagatzematge en dos models principals:

  • Autònom (com Garage i SeaweedFS): Aquests sistemes gestionen tot el cicle de vida de les dades. Són responsables tant de les metadades com de l'emmagatzematge físic dels blocs de dades als discs. Són solucions completes i autocontingudes.
  • Dependent (com JuiceFS): Aquests sistemes actuen com una capa de metadades intel·ligent que s'assenta sobre un altre sistema d'emmagatzematge d'objectes ja existent (com podria ser AWS S3, Google Cloud Storage, o fins i tot un altre clúster de MinIO). Com diu l'article, JuiceFS "Relies on object storage" per a la gestió de les dades.

El model autònom ofereix una sobirania total sobre les dades (control total), però també trasllada tota la responsabilitat de la gestió, la redundància i la seguretat a l'usuari. El model dependent, per contra, delega aquesta responsabilitat a un proveïdor subjacent, a canvi de perdre control i afegir una dependència externa. Aquesta és una decisió estratègica clau que sovint es passa per alt quan l'únic criteri de cerca és la "compatibilitat amb S3".


Conclusió

L'adeu a MinIO com a rei indiscutible del S3 autoallotjat ens ha obligat a mirar més enllà, i aquest viatge ens ha revelat lliçons crucials. Hem après que la simplicitat de Garage és una virtut, però que un simple SSD per a les metadades pot ser la clau del seu èxit. Hem vist els perills de forçar Ceph a clústers petits, on la promesa d'alta disponibilitat es pot convertir en un risc. Hem descobert que la velocitat de SeaweedFS pot amagar fragilitats en la integritat de les dades. I finalment, hem entès la divisió fonamental entre arquitectures autònomes i dependents, una decisió estratègica que va molt més enllà de la compatibilitat d'API.

Ara que el tron està buit, la pregunta no és només qui serà el successor. La veritable pregunta que ens hem de fer és: quines qualitats valorem realment en el nostre emmagatzematge de dades per construir sistemes més resilients i adaptats a les nostres necessitats reals?