Descentralización del almacenamiento: la evolución del concepto a la aplicación práctica
El almacenamiento ha sido una de las principales áreas de interés en la industria de blockchain. Filecoin, como el proyecto líder de la última bull market, tuvo una capitalización de mercado que superó los 10 mil millones de dólares en su momento. Arweave, con el almacenamiento permanente como su punto de venta, alcanzó una capitalización de mercado máxima de 3.5 mil millones de dólares. Sin embargo, a medida que la disponibilidad de almacenamiento de datos fríos fue cuestionada, el futuro del almacenamiento descentralizado se vio ensombrecido. Hasta que la aparición de Walrus reavivó el interés, y el proyecto Shelby, lanzado por Aptos y Jump Crypto, llevó el almacenamiento de datos calientes a nuevas alturas. Este artículo analizará las trayectorias de desarrollo de los cuatro proyectos: Filecoin, Arweave, Walrus y Shelby, explorando la evolución del almacenamiento descentralizado y tratando de responder a la pregunta: ¿cuánto tiempo más pasará hasta que el almacenamiento descentralizado se popularice realmente?
Filecoin: Nombre de almacenamiento, realidad de minería
Filecoin es uno de los primeros proyectos de blockchain que surgió, y su dirección de desarrollo gira en torno a la Descentralización. Filecoin combina almacenamiento con Descentralización, planteando cuestiones de confianza hacia los proveedores de servicios de almacenamiento de datos centralizados. Sin embargo, los sacrificios hechos para lograr la Descentralización también se convirtieron en los puntos críticos que proyectos posteriores como Arweave y Walrus intentaron resolver. Para entender por qué Filecoin es esencialmente una moneda minera, es necesario comprender las limitaciones objetivas de su tecnología subyacente IPFS en el procesamiento de datos calientes.
IPFS: Descentralización de la arquitectura del cuello de botella de transmisión
IPFS(Sistema de Archivos Interplanetario) apareció alrededor de 2015, con el objetivo de revolucionar el protocolo HTTP tradicional a través de la búsqueda por contenido. Sin embargo, la mayor desventaja de IPFS es su velocidad de obtención extremadamente lenta. En un contexto donde los servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo a través de IPFS aún puede tardar varios segundos, lo que limita seriamente su promoción en aplicaciones prácticas.
El protocolo P2P subyacente de IPFS es principalmente adecuado para "datos fríos", es decir, contenido estático que no cambia con frecuencia, como videos, imágenes y documentos. Sin embargo, al manejar datos dinámicos como páginas web dinámicas, juegos en línea o aplicaciones de inteligencia artificial, el protocolo P2P no presenta ventajas significativas en comparación con las CDN tradicionales.
A pesar de que IPFS en sí mismo no es una blockchain, su diseño de gráfico acíclico dirigido (DAG) se alinea estrechamente con muchas cadenas de bloques públicas y protocolos Web3, lo que lo convierte en un marco de construcción subyacente naturalmente adecuado para blockchain. Por lo tanto, incluso careciendo de valor práctico, ha sido suficiente como marco subyacente para albergar la narrativa de blockchain. Los primeros proyectos solo necesitaban un marco funcional para iniciar un gran plan, pero a medida que Filecoin ha evolucionado, las limitaciones que trae IPFS han comenzado a obstaculizar su progreso.
lógica de las monedas minadas bajo el almacenamiento
IPFS inicialmente concebía que los usuarios, al almacenar datos, también pudieran convertirse en parte de la red de almacenamiento. Pero en ausencia de incentivos económicos, a los usuarios les resulta difícil participar activamente en este sistema, y mucho menos convertirse en nodos de almacenamiento activos. Esto significa que la mayoría de las personas solo almacenarán archivos en IPFS, sin contribuir con su espacio de almacenamiento o almacenar los archivos de otros. Es en este contexto que nació Filecoin.
El modelo económico del token de Filecoin incluye principalmente tres roles: los usuarios pagan tarifas para almacenar datos; los mineros de almacenamiento reciben recompensas en tokens por almacenar datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen recompensas.
Este modelo presenta un espacio potencial para el fraude. Los mineros de almacenamiento pueden, después de proporcionar espacio de almacenamiento, llenar con datos basura para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización. Esto permite que los mineros de almacenamiento eliminen los datos basura y repitan este proceso. El consenso de prueba de replicación de Filecoin solo puede garantizar que los datos del usuario no han sido eliminados de forma privada, pero no puede evitar que los mineros llenen con datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, y no de la demanda real de almacenamiento distribuido por parte de los usuarios finales. A pesar de que el proyecto sigue iterando, en la etapa actual, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento basado en la "lógica de monedas mineras" que a la "impulsada por aplicaciones".
Arweave: ganancias y pérdidas del largo plazo
Si se dice que el objetivo de Filecoin es construir una "nube de datos" descentralizada, incentivada y verificable, Arweave se dirige hacia el otro extremo en el ámbito del almacenamiento: proporcionar capacidad de almacenamiento permanente para los datos. Arweave no intenta crear una plataforma de computación distribuida; todo su sistema se desarrolla en torno a una suposición central: los datos importantes deben ser almacenados una vez y permanecer en la red para siempre. Este extremo enfoque a largo plazo hace que Arweave sea muy diferente de Filecoin en cuanto a mecanismos, modelos de incentivos, requisitos de hardware y perspectivas narrativas.
Arweave toma a Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente en ciclos largos de años. Arweave no se preocupa por el marketing, ni por los competidores o las tendencias del mercado. Simplemente se centra en iterar la arquitectura de la red, sin importar si nadie se interesa, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy valorada en el último mercado alcista; y también por el largo plazo, incluso al caer en un valle, Arweave aún podría sobrevivir a varios ciclos de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento Descentralización? El valor de la existencia del almacenamiento permanente solo puede ser probado por el tiempo.
Desde la versión 1.5 hasta la reciente versión 2.9, aunque Arweave ha perdido atención del mercado, ha estado comprometido en permitir que un mayor número de mineros participe en la red con el menor costo posible, e incentivar a los mineros a almacenar datos al máximo, mejorando constantemente la robustez de toda la red. Arweave es plenamente consciente de que no se ajusta a las preferencias del mercado, por lo que ha adoptado un enfoque conservador, sin abrazar a la comunidad de mineros, y el desarrollo ecológico se ha estancado por completo, actualizando la red principal con el menor costo posible, mientras reduce continuamente el umbral de hardware sin comprometer la seguridad de la red.
Revisión de la ruta de actualización 1.5-2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permitía a los mineros depender de la apilación de GPU en lugar de almacenamiento real para optimizar la tasa de bloque. Para frenar esta tendencia, la versión 1.7 introdujo el algoritmo RandomX, limitando el uso de poder computacional especializado y requiriendo la participación de CPU generales en la minería, debilitando así la centralización del poder de cálculo.
La versión 2.0 utiliza SPoA, convirtiendo la prueba de datos en una ruta simplificada de estructura de árbol de Merkle e introduciendo transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión del ancho de banda de la red y mejora significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de poseer datos reales mediante estrategias de piscinas de almacenamiento centralizadas de alta velocidad.
Para corregir esta desviación, la versión 2.4 lanzó el mecanismo SPoRA, introduciendo un índice global y acceso aleatorio lento a hashes, exigiendo que los mineros deban poseer realmente bloques de datos para participar en la creación efectiva de bloques, debilitando así el efecto de acumulación de poder de cálculo desde el mecanismo. Como resultado, los mineros comenzaron a prestar atención a la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura/escritura de alta velocidad. La versión 2.6 introdujo la cadena de hashes para controlar el ritmo de creación de bloques, equilibrando la rentabilidad marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación justo para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en la red y la diversidad de almacenamiento: la versión 2.7 añade minería colaborativa y un mecanismo de grupos de minería, mejorando la competitividad de los pequeños mineros; la versión 2.8 lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de alta capacidad y baja velocidad participen de manera flexible; la versión 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave muestra claramente su estrategia a largo plazo orientada al almacenamiento: al resistir constantemente la tendencia de concentración de poder de cómputo, se reduce continuamente la barrera de entrada, garantizando la posibilidad de funcionamiento a largo plazo del protocolo.
Walrus: ¿Es una moda o una innovación en el almacenamiento de datos calientes?
El enfoque de diseño de Walrus es completamente diferente al de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el objetivo de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de manera permanente, a costa de tener casos de uso limitados; mientras que el núcleo de Walrus es optimizar la eficiencia de costos del almacenamiento de datos calientes.
Modificación mágica de código de borrado: ¿innovación en costos o vino viejo en botella nueva?
En cuanto al diseño de costos de almacenamiento, Walrus considera que los gastos de almacenamiento de Filecoin y Arweave son irrazonables. Ambos utilizan una arquitectura de replicación completa, cuya principal ventaja radica en que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y una independencia entre nodos. Esta arquitectura garantiza que, incluso si algunos nodos están fuera de línea, la red sigue teniendo disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que aumenta los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí fomenta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que parte del almacenamiento de bajo costo pueda tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras aumenta la disponibilidad a través de una forma de redundancia estructurada, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
Redstuff, creado por Walrus, es la tecnología clave para reducir la redundancia de nodos, y se basa en la codificación Reed-Solomon ( RS ). La codificación RS es un algoritmo tradicional de códigos de borrado que puede duplicar un conjunto de datos mediante la adición de fragmentos redundantes, utilizados para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones satelitales y códigos QR, se utiliza ampliamente en la vida cotidiana.
El código de borrado permite a los usuarios obtener un bloque de datos ( como 1MB), y luego "ampliarlo" a 2MB, donde el 1MB adicional es datos especiales de código de borrado. Si se pierde cualquier byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde hasta 1MB de datos, se puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos de un CD-ROM dañado.
Actualmente, el más utilizado es el código RS. La forma de implementación comienza con k bloques de información, construyendo un polinomio relacionado y evaluándolo en diferentes coordenadas x para obtener bloques codificados. Al utilizar códigos de borrado RS, la posibilidad de perder grandes bloques de datos mediante muestreo aleatorio es muy baja.
Ejemplo: Dividir un archivo en 6 bloques de datos y 4 bloques de verificación, un total de 10 partes. Conservar cualquiera de las 6 partes es suficiente para recuperar los datos originales de forma completa.
Ventajas: alta tolerancia a fallos, ampliamente utilizado en CD/DVD, arreglos de discos duros a prueba de fallos (RAID) y sistemas de almacenamiento en la nube ( como Azure Storage, Facebook F4).
Desventajas: la decodificación es compleja y los costos son más altos; no es adecuada para escenarios de datos que cambian con frecuencia. Por lo tanto, generalmente se utiliza para la recuperación y programación de datos en entornos centralizados fuera de la cadena.
En una arquitectura de Descentralización, Storj y Sia han ajustado la codificación RS tradicional para adaptarse a las necesidades reales de las redes distribuidas. Walrus también ha propuesto su propia variante basada en esto: el algoritmo de codificación RedStuff, para lograr un mecanismo de almacenamiento redundante más económico y flexible.
¿Cuál es la principal característica de Redstuff? A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en la red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. A diferencia de los códigos de borrado tradicionales ( como Reed-Solomon ), RedStuff ya no persigue una estricta consistencia matemática, sino que realiza un compromiso realista en relación con la distribución de datos, la verificación de almacenamiento y el costo de cálculo. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar verifica en la cadena si los nodos poseen copias de datos específicas mediante la prueba Proof, adaptándose así a una estructura de red más dinámica y marginal.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están estrictamente controladas, el umbral de recuperación es f+1, y se requieren 2f+1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan mediante operaciones simples como combinaciones XOR, y su función es proporcionar tolerancia a fallos elástica, mejorando la robustez general del sistema. Esta estructura, en esencia, reduce los requisitos de consistencia de datos - permitiendo que nodos diferentes almacenen diferentes versiones de datos a corto plazo, enfatizando un enfoque práctico de "consistencia eventual". Aunque es similar a los requisitos laxos sobre bloques de retroceso en sistemas como Arweave, al reducir la red.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
19 me gusta
Recompensa
19
7
Republicar
Compartir
Comentar
0/400
ShibaSunglasses
· 08-10 22:54
¿Cuándo volverá FIL después de su gran caída?
Ver originalesResponder0
DEXRobinHood
· 08-10 02:06
Yo también he jugado con fil, no sirve de nada.
Ver originalesResponder0
GateUser-1a2ed0b9
· 08-10 01:08
Ya no tengo interés en discutir el almacenamiento.
Evolución del almacenamiento descentralizado: de Filecoin a las iteraciones tecnológicas de Shelby y las percepciones de la industria
Descentralización del almacenamiento: la evolución del concepto a la aplicación práctica
El almacenamiento ha sido una de las principales áreas de interés en la industria de blockchain. Filecoin, como el proyecto líder de la última bull market, tuvo una capitalización de mercado que superó los 10 mil millones de dólares en su momento. Arweave, con el almacenamiento permanente como su punto de venta, alcanzó una capitalización de mercado máxima de 3.5 mil millones de dólares. Sin embargo, a medida que la disponibilidad de almacenamiento de datos fríos fue cuestionada, el futuro del almacenamiento descentralizado se vio ensombrecido. Hasta que la aparición de Walrus reavivó el interés, y el proyecto Shelby, lanzado por Aptos y Jump Crypto, llevó el almacenamiento de datos calientes a nuevas alturas. Este artículo analizará las trayectorias de desarrollo de los cuatro proyectos: Filecoin, Arweave, Walrus y Shelby, explorando la evolución del almacenamiento descentralizado y tratando de responder a la pregunta: ¿cuánto tiempo más pasará hasta que el almacenamiento descentralizado se popularice realmente?
Filecoin: Nombre de almacenamiento, realidad de minería
Filecoin es uno de los primeros proyectos de blockchain que surgió, y su dirección de desarrollo gira en torno a la Descentralización. Filecoin combina almacenamiento con Descentralización, planteando cuestiones de confianza hacia los proveedores de servicios de almacenamiento de datos centralizados. Sin embargo, los sacrificios hechos para lograr la Descentralización también se convirtieron en los puntos críticos que proyectos posteriores como Arweave y Walrus intentaron resolver. Para entender por qué Filecoin es esencialmente una moneda minera, es necesario comprender las limitaciones objetivas de su tecnología subyacente IPFS en el procesamiento de datos calientes.
IPFS: Descentralización de la arquitectura del cuello de botella de transmisión
IPFS(Sistema de Archivos Interplanetario) apareció alrededor de 2015, con el objetivo de revolucionar el protocolo HTTP tradicional a través de la búsqueda por contenido. Sin embargo, la mayor desventaja de IPFS es su velocidad de obtención extremadamente lenta. En un contexto donde los servicios de datos tradicionales pueden alcanzar tiempos de respuesta en milisegundos, obtener un archivo a través de IPFS aún puede tardar varios segundos, lo que limita seriamente su promoción en aplicaciones prácticas.
El protocolo P2P subyacente de IPFS es principalmente adecuado para "datos fríos", es decir, contenido estático que no cambia con frecuencia, como videos, imágenes y documentos. Sin embargo, al manejar datos dinámicos como páginas web dinámicas, juegos en línea o aplicaciones de inteligencia artificial, el protocolo P2P no presenta ventajas significativas en comparación con las CDN tradicionales.
A pesar de que IPFS en sí mismo no es una blockchain, su diseño de gráfico acíclico dirigido (DAG) se alinea estrechamente con muchas cadenas de bloques públicas y protocolos Web3, lo que lo convierte en un marco de construcción subyacente naturalmente adecuado para blockchain. Por lo tanto, incluso careciendo de valor práctico, ha sido suficiente como marco subyacente para albergar la narrativa de blockchain. Los primeros proyectos solo necesitaban un marco funcional para iniciar un gran plan, pero a medida que Filecoin ha evolucionado, las limitaciones que trae IPFS han comenzado a obstaculizar su progreso.
lógica de las monedas minadas bajo el almacenamiento
IPFS inicialmente concebía que los usuarios, al almacenar datos, también pudieran convertirse en parte de la red de almacenamiento. Pero en ausencia de incentivos económicos, a los usuarios les resulta difícil participar activamente en este sistema, y mucho menos convertirse en nodos de almacenamiento activos. Esto significa que la mayoría de las personas solo almacenarán archivos en IPFS, sin contribuir con su espacio de almacenamiento o almacenar los archivos de otros. Es en este contexto que nació Filecoin.
El modelo económico del token de Filecoin incluye principalmente tres roles: los usuarios pagan tarifas para almacenar datos; los mineros de almacenamiento reciben recompensas en tokens por almacenar datos de los usuarios; los mineros de recuperación proporcionan datos cuando los usuarios los necesitan y obtienen recompensas.
Este modelo presenta un espacio potencial para el fraude. Los mineros de almacenamiento pueden, después de proporcionar espacio de almacenamiento, llenar con datos basura para obtener recompensas. Dado que estos datos basura no serán recuperados, incluso si se pierden, no activarán el mecanismo de penalización. Esto permite que los mineros de almacenamiento eliminen los datos basura y repitan este proceso. El consenso de prueba de replicación de Filecoin solo puede garantizar que los datos del usuario no han sido eliminados de forma privada, pero no puede evitar que los mineros llenen con datos basura.
El funcionamiento de Filecoin depende en gran medida de la inversión continua de los mineros en la economía de tokens, y no de la demanda real de almacenamiento distribuido por parte de los usuarios finales. A pesar de que el proyecto sigue iterando, en la etapa actual, la construcción del ecosistema de Filecoin se ajusta más a la definición de un proyecto de almacenamiento basado en la "lógica de monedas mineras" que a la "impulsada por aplicaciones".
Arweave: ganancias y pérdidas del largo plazo
Si se dice que el objetivo de Filecoin es construir una "nube de datos" descentralizada, incentivada y verificable, Arweave se dirige hacia el otro extremo en el ámbito del almacenamiento: proporcionar capacidad de almacenamiento permanente para los datos. Arweave no intenta crear una plataforma de computación distribuida; todo su sistema se desarrolla en torno a una suposición central: los datos importantes deben ser almacenados una vez y permanecer en la red para siempre. Este extremo enfoque a largo plazo hace que Arweave sea muy diferente de Filecoin en cuanto a mecanismos, modelos de incentivos, requisitos de hardware y perspectivas narrativas.
Arweave toma a Bitcoin como objeto de estudio, intentando optimizar continuamente su red de almacenamiento permanente en ciclos largos de años. Arweave no se preocupa por el marketing, ni por los competidores o las tendencias del mercado. Simplemente se centra en iterar la arquitectura de la red, sin importar si nadie se interesa, porque esa es la esencia del equipo de desarrollo de Arweave: el largo plazo. Gracias al largo plazo, Arweave fue muy valorada en el último mercado alcista; y también por el largo plazo, incluso al caer en un valle, Arweave aún podría sobrevivir a varios ciclos de mercados alcistas y bajistas. Pero, ¿tendrá Arweave un lugar en el futuro del almacenamiento Descentralización? El valor de la existencia del almacenamiento permanente solo puede ser probado por el tiempo.
Desde la versión 1.5 hasta la reciente versión 2.9, aunque Arweave ha perdido atención del mercado, ha estado comprometido en permitir que un mayor número de mineros participe en la red con el menor costo posible, e incentivar a los mineros a almacenar datos al máximo, mejorando constantemente la robustez de toda la red. Arweave es plenamente consciente de que no se ajusta a las preferencias del mercado, por lo que ha adoptado un enfoque conservador, sin abrazar a la comunidad de mineros, y el desarrollo ecológico se ha estancado por completo, actualizando la red principal con el menor costo posible, mientras reduce continuamente el umbral de hardware sin comprometer la seguridad de la red.
Revisión de la ruta de actualización 1.5-2.9
La versión 1.5 de Arweave expuso una vulnerabilidad que permitía a los mineros depender de la apilación de GPU en lugar de almacenamiento real para optimizar la tasa de bloque. Para frenar esta tendencia, la versión 1.7 introdujo el algoritmo RandomX, limitando el uso de poder computacional especializado y requiriendo la participación de CPU generales en la minería, debilitando así la centralización del poder de cálculo.
La versión 2.0 utiliza SPoA, convirtiendo la prueba de datos en una ruta simplificada de estructura de árbol de Merkle e introduciendo transacciones de formato 2 para reducir la carga de sincronización. Esta arquitectura alivia la presión del ancho de banda de la red y mejora significativamente la capacidad de colaboración de los nodos. Sin embargo, algunos mineros aún pueden eludir la responsabilidad de poseer datos reales mediante estrategias de piscinas de almacenamiento centralizadas de alta velocidad.
Para corregir esta desviación, la versión 2.4 lanzó el mecanismo SPoRA, introduciendo un índice global y acceso aleatorio lento a hashes, exigiendo que los mineros deban poseer realmente bloques de datos para participar en la creación efectiva de bloques, debilitando así el efecto de acumulación de poder de cálculo desde el mecanismo. Como resultado, los mineros comenzaron a prestar atención a la velocidad de acceso al almacenamiento, impulsando la aplicación de SSD y dispositivos de lectura/escritura de alta velocidad. La versión 2.6 introdujo la cadena de hashes para controlar el ritmo de creación de bloques, equilibrando la rentabilidad marginal de los dispositivos de alto rendimiento y proporcionando un espacio de participación justo para los mineros pequeños y medianos.
Las versiones posteriores refuerzan aún más la capacidad de colaboración en la red y la diversidad de almacenamiento: la versión 2.7 añade minería colaborativa y un mecanismo de grupos de minería, mejorando la competitividad de los pequeños mineros; la versión 2.8 lanza un mecanismo de empaquetado compuesto, permitiendo que dispositivos de alta capacidad y baja velocidad participen de manera flexible; la versión 2.9 introduce un nuevo proceso de empaquetado en formato replica_2_9, mejorando significativamente la eficiencia y reduciendo la dependencia computacional, completando el ciclo del modelo de minería orientado a datos.
En general, la ruta de actualización de Arweave muestra claramente su estrategia a largo plazo orientada al almacenamiento: al resistir constantemente la tendencia de concentración de poder de cómputo, se reduce continuamente la barrera de entrada, garantizando la posibilidad de funcionamiento a largo plazo del protocolo.
Walrus: ¿Es una moda o una innovación en el almacenamiento de datos calientes?
El enfoque de diseño de Walrus es completamente diferente al de Filecoin y Arweave. El punto de partida de Filecoin es crear un sistema de almacenamiento descentralizado y verificable, a costa del almacenamiento de datos fríos; el objetivo de Arweave es construir una biblioteca de Alejandría en la cadena que pueda almacenar datos de manera permanente, a costa de tener casos de uso limitados; mientras que el núcleo de Walrus es optimizar la eficiencia de costos del almacenamiento de datos calientes.
Modificación mágica de código de borrado: ¿innovación en costos o vino viejo en botella nueva?
En cuanto al diseño de costos de almacenamiento, Walrus considera que los gastos de almacenamiento de Filecoin y Arweave son irrazonables. Ambos utilizan una arquitectura de replicación completa, cuya principal ventaja radica en que cada nodo posee una copia completa, lo que proporciona una fuerte capacidad de tolerancia a fallos y una independencia entre nodos. Esta arquitectura garantiza que, incluso si algunos nodos están fuera de línea, la red sigue teniendo disponibilidad de datos. Sin embargo, esto también significa que el sistema necesita redundancia de múltiples copias para mantener la robustez, lo que aumenta los costos de almacenamiento. Especialmente en el diseño de Arweave, el mecanismo de consenso en sí fomenta el almacenamiento redundante de nodos para mejorar la seguridad de los datos. En comparación, Filecoin tiene más flexibilidad en el control de costos, pero a costa de que parte del almacenamiento de bajo costo pueda tener un mayor riesgo de pérdida de datos. Walrus intenta encontrar un equilibrio entre ambos, su mecanismo controla los costos de replicación mientras aumenta la disponibilidad a través de una forma de redundancia estructurada, estableciendo así un nuevo camino de compromiso entre la disponibilidad de datos y la eficiencia de costos.
Redstuff, creado por Walrus, es la tecnología clave para reducir la redundancia de nodos, y se basa en la codificación Reed-Solomon ( RS ). La codificación RS es un algoritmo tradicional de códigos de borrado que puede duplicar un conjunto de datos mediante la adición de fragmentos redundantes, utilizados para reconstruir los datos originales. Desde CD-ROM hasta comunicaciones satelitales y códigos QR, se utiliza ampliamente en la vida cotidiana.
El código de borrado permite a los usuarios obtener un bloque de datos ( como 1MB), y luego "ampliarlo" a 2MB, donde el 1MB adicional es datos especiales de código de borrado. Si se pierde cualquier byte en el bloque, el usuario puede recuperar fácilmente esos bytes a través del código. Incluso si se pierde hasta 1MB de datos, se puede recuperar todo el bloque. La misma técnica permite a las computadoras leer todos los datos de un CD-ROM dañado.
Actualmente, el más utilizado es el código RS. La forma de implementación comienza con k bloques de información, construyendo un polinomio relacionado y evaluándolo en diferentes coordenadas x para obtener bloques codificados. Al utilizar códigos de borrado RS, la posibilidad de perder grandes bloques de datos mediante muestreo aleatorio es muy baja.
Ejemplo: Dividir un archivo en 6 bloques de datos y 4 bloques de verificación, un total de 10 partes. Conservar cualquiera de las 6 partes es suficiente para recuperar los datos originales de forma completa.
Ventajas: alta tolerancia a fallos, ampliamente utilizado en CD/DVD, arreglos de discos duros a prueba de fallos (RAID) y sistemas de almacenamiento en la nube ( como Azure Storage, Facebook F4).
Desventajas: la decodificación es compleja y los costos son más altos; no es adecuada para escenarios de datos que cambian con frecuencia. Por lo tanto, generalmente se utiliza para la recuperación y programación de datos en entornos centralizados fuera de la cadena.
En una arquitectura de Descentralización, Storj y Sia han ajustado la codificación RS tradicional para adaptarse a las necesidades reales de las redes distribuidas. Walrus también ha propuesto su propia variante basada en esto: el algoritmo de codificación RedStuff, para lograr un mecanismo de almacenamiento redundante más económico y flexible.
¿Cuál es la principal característica de Redstuff? A través de la mejora del algoritmo de codificación de borrado, Walrus puede codificar rápidamente y de manera robusta bloques de datos no estructurados en fragmentos más pequeños, que se almacenan distribuidos en la red de nodos de almacenamiento. Incluso si se pierden hasta dos tercios de los fragmentos, se puede reconstruir rápidamente el bloque de datos original utilizando fragmentos parciales. Esto se hace posible manteniendo un factor de replicación de solo 4 a 5 veces.
Por lo tanto, es razonable definir a Walrus como un protocolo ligero de redundancia y recuperación rediseñado en torno a un escenario de Descentralización. A diferencia de los códigos de borrado tradicionales ( como Reed-Solomon ), RedStuff ya no persigue una estricta consistencia matemática, sino que realiza un compromiso realista en relación con la distribución de datos, la verificación de almacenamiento y el costo de cálculo. Este modelo abandona el mecanismo de decodificación instantánea requerido por la programación centralizada, y en su lugar verifica en la cadena si los nodos poseen copias de datos específicas mediante la prueba Proof, adaptándose así a una estructura de red más dinámica y marginal.
El núcleo del diseño de RedStuff es dividir los datos en dos categorías: fragmentos principales y fragmentos secundarios. Los fragmentos principales se utilizan para recuperar los datos originales, su generación y distribución están estrictamente controladas, el umbral de recuperación es f+1, y se requieren 2f+1 firmas como respaldo de disponibilidad; los fragmentos secundarios se generan mediante operaciones simples como combinaciones XOR, y su función es proporcionar tolerancia a fallos elástica, mejorando la robustez general del sistema. Esta estructura, en esencia, reduce los requisitos de consistencia de datos - permitiendo que nodos diferentes almacenen diferentes versiones de datos a corto plazo, enfatizando un enfoque práctico de "consistencia eventual". Aunque es similar a los requisitos laxos sobre bloques de retroceso en sistemas como Arweave, al reducir la red.