Divulgación: Los puntos de vista y opiniones expresados aquí pertenecen únicamente al autor y no representan los puntos de vista y opiniones del editorial de crypto.news.
Internet creció porque la propiedad intelectual creó un tejido universal para los datos. Web3 nunca tuvo ese lujo. En cambio, heredó las redes de la década de 1980 y un mosaico de protocolos ad hoc que se ralentizan y congestionan en el momento en que se intenta ejecutar transacciones reales a escala, por no hablar de miles de millones de agentes de inteligencia artificial, capas de liquidación global o una red de sensores de infraestructura física descentralizada a escala planetaria. Ya hemos superado el punto en el que las cadenas más rápidas o los bloques más grandes pueden ayudar.
Resumen
- Web3 no puede escalar con su red fragmentada y obsoleta. Necesita un protocolo de datos universal y descentralizado (su propio TCP/IP) para lograr un rendimiento global y sin confianza.
- Los avances matemáticos como RLNC muestran que las redes descentralizadas pueden igualar el rendimiento centralizado si el movimiento de datos se rediseña desde los primeros principios.
- Una capa de datos codificados universal desbloquearía la escala real, solucionaría la fragmentación de la cadena, permitiría DeFi de billones de dólares, respaldaría redes globales DePIN e impulsaría la IA descentralizada.
Web3 necesita su propio momento TCP/IP: un protocolo de Internet descentralizado construido sobre los principios que hicieron imparable el Internet original, pero diseñado para preservar lo que hace que blockchain importe: falta de confianza, resistencia a la censura y participación sin permiso que finalmente funcione a escala.
También te puede interesar: El problema del procesador de 1984: el escalado de Web3 exige limpieza P2P, no cadenas de bloques más grandes | Opinión
Lo que la industria sigue perdiendo
Antes de IP, las computadoras no podían comunicarse a través de redes. IP creó un estándar universal para enrutar datos entre dos puntos cualesquiera de la Tierra, convirtiendo los sistemas aislados en Internet. Se convirtió en uno de los tres pilares de la infraestructura de Internet (junto con la informática y el almacenamiento). Cada aplicación web2 se ejecuta en TCP/IP. Es el protocolo que hizo posible la comunicación a escala planetaria.
Web3 está repitiendo los mismos errores iniciales. Cada blockchain inventó su propia capa de red, incluidos protocolos de chismes, Turbine, Snow, Narwhal, mempools y muestreo DA. Ninguno de ellos es universal y son innecesariamente restrictivos. Todo el mundo persigue la velocidad con bloques más grandes, más acumulaciones y más paralelización. Pero todos utilizan modelos de redes fundamentalmente defectuosos.
Si realmente queremos escalar web3, necesitamos un protocolo de Internet confiable, rápido, confiable, tolerante a fallas y, lo más importante, modular.
Dos décadas en el MIT, resolviendo el problema más difícil de la descentralización
Durante más de dos décadas, mi investigación en el MIT se ha centrado en una pregunta: ¿pueden los sistemas descentralizados mover información tan rápido y confiablemente como los centralizados, y podemos hacerlo matemáticamente demostrable?
Para responder a eso, combinamos dos campos que rara vez se habían cruzado: la teoría de la codificación de redes, que optimiza matemáticamente el movimiento de datos, y los algoritmos distribuidos, liderados por el trabajo fundamental de Nancy Lynch sobre el consenso y la tolerancia a fallas bizantinas.
Lo que encontramos fue claro: los sistemas descentralizados pueden alcanzar un rendimiento de nivel centralizado, pero solo si rediseñamos el movimiento de datos desde los primeros principios. Después de años de pruebas y experimentos, la codificación de red lineal aleatoria (RLNC) surgió como el método matemáticamente óptimo para hacer esto en redes descentralizadas.
Una vez que llegaron las cadenas de bloques, la aplicación se volvió obvia. La Internet que tenemos fue creada para intermediarios confiables. La web descentralizada necesita su propio protocolo: uno diseñado para resistir fallas y ataques mientras escala globalmente. El cambio arquitectónico es tal que:
- el rendimiento proviene de las matemáticas, no del hardware;
- la coordinación proviene del código, no de los servidores;
- y la red se vuelve más fuerte a medida que se descentraliza.
Al igual que el Protocolo de Internet original, no pretende reemplazar lo que existe, sino permitir lo que vendrá después.
Los casos de uso que rompen la infraestructura actual
Los sistemas descentralizados están alcanzando sus límites en el momento exacto en que el mundo necesita que crezcan. Están surgiendo cuatro macrotendencias, y cada una expone el mismo cuello de botella: Web3 todavía funciona con supuestos de red heredados de sistemas centralizados.
1. La fragmentación de L1 y L2 significa que las cadenas de bloques escalan localmente, pero fallan globalmente.
Ahora tenemos más de cien cadenas de bloques y, si bien cada una puede optimizar su propia ejecución local, en el momento en que estas redes necesitan coordinarse globalmente, todas enfrentan los mismos desafíos: el movimiento de datos es restringido, ineficiente y fundamentalmente subóptimo.
Lo que les falta a las cadenas de bloques es el equivalente a una red eléctrica, una capa compartida que enruta el ancho de banda donde sea necesario. Un Protocolo de Internet descentralizado daría a cada cadena acceso al mismo tejido de datos codificados, acelerando la propagación de bloques, la recuperación de DA y el acceso estatal sin tocar el consenso. Y como toda buena red, cuando funciona, la congestión se minimiza.
2. Tokenización y DeFi en mercados de billones de dólares
DeFi no puede liquidar billones en redes donde la propagación es lenta, colapsa bajo carga o donde los cuellos de botella de RPC centralizan el acceso. Si varias cadenas estuvieran conectadas mediante una red codificada compartida, los picos de propagación probablemente no abrumarían a ninguna cadena: serían absorbidos y redistribuidos por toda la red.
En los sistemas tradicionales, se construyen centros de datos más grandes para absorber los picos de carga. Estos son costosos y conducen a puntos únicos de falla. En los sistemas descentralizados, no podemos depender de los megacentros; debemos confiar en la distribución codificada.
3. DePIN a escala global
Una red global con millones de dispositivos y máquinas autónomas no puede funcionar si cada nodo espera una comunicación lenta y de una sola ruta. Estos dispositivos deben comportarse como un organismo único y coherente.
En los sistemas energéticos, las rejillas flexibles absorben tanto las operaciones mineras comerciales como un solo secador de pelo. En el ámbito de las redes, un protocolo descentralizado debe hacer lo mismo con los datos: absorber cada fuente de manera óptima y entregarla donde más se necesita. Eso requiere almacenamiento codificado, recuperación codificada y la capacidad de hacer uso de todos los caminos disponibles en lugar de depender de unos pocos predeterminados.
4. IA descentralizada
La IA distribuida, ya sea entrenando en fragmentos cifrados o coordinando flotas de agentes de IA, depende de un movimiento de datos de alto rendimiento y tolerante a fallas. Hoy en día, el almacenamiento descentralizado y la computación están separados; el acceso es lento; la recuperación depende de puertas de enlace centralizadas. Lo que la IA necesita es logística de datos, no simple almacenamiento: lo que significa que los datos se codifican mientras están en movimiento, se almacenan en fragmentos codificados, se recuperan desde donde sea más rápido en ese momento y se recombinan instantáneamente sin depender de una sola ubicación.
El próximo salto de Web3
Cada gran salto en la evolución de Internet comenzó con un gran avance en la forma en que se mueven los datos. IP proporcionó conectividad global. La banda ancha permitió Netflix y la computación en la nube. 4G y 5G hicieron posible Uber, TikTok y las redes sociales en tiempo real. Las GPU provocaron la revolución del aprendizaje profundo. Los contratos inteligentes desbloquearon las finanzas programables.
Una capa de datos universal y codificada haría por las cadenas de bloques lo que la IP hizo por los inicios de Internet: crear las condiciones para aplicaciones que aún no podemos imaginar. Es la base que transforma la Web3 de experimental a inevitable.
Leer más: Web3 tiene un problema de control | Opinión
Muriel Médard
Muriel Médard es cofundador y director ejecutivo de Optimum y profesor de ciencia e ingeniería de software del MIT, y dirige el grupo de comunicaciones confiables y codificación de redes. Como co-inventora de Random Linear Network Coding (RLNC), su investigación sustenta el trabajo de Optimum sobre el escalamiento descentralizado. Médard es miembro de la Academia Nacional de Ingeniería de EE. UU., la Real Academia de Ingeniería y ex presidente de la Sociedad de Teoría de la Información del IEEE.
