Berkeley RDI y Polyhedra han realizado una colaboración estratégica para presentar un innovador zkML listo para producción. Esta producción pretende marcar un salto transformador en la fusión de la IA y la verificación criptográfica. Las organizaciones ahora están entregando una aplicación del mundo real, cuatro años después de ser pioneras en el concepto. La aplicación tiene como objetivo capacitar a los desarrolladores de inteligencia artificial para que utilicen zkML sin requerir experiencia específica en pruebas de conocimiento cero.
El viaje comenzó en 2020 cuando el equipo de investigación de Polyhedra, incluidos Jiaheng Zhang, Dawn Song y Yupeng Zhang, publicaron un artículo en colaboración con Berkeley RDI. El artículo se tituló “Pruebas de conocimiento cero para predicciones y precisión de árboles de decisión” y presenta un zkML, aprendizaje automático de conocimiento cero. El concepto del documento tenía como objetivo generar confianza en la IA garantizando resultados verificables y manteniendo al mismo tiempo la privacidad de los datos y modelos subyacentes.
Polyhedra prioriza los sistemas sin confianza para minimizar el error humano en incidentes tecnológicos. El modelo zkML, en esencia, permite a los desarrolladores demostrar la precisión de las predicciones del modelo de IA en una muestra de datos específica sin exponer ninguna información confidencial.
zkML Polyhedra: Avanzando en la confianza y la transparencia en la IA
A través de pruebas de conocimiento cero, un proveedor de servicios puede demostrar que un resultado específico se produjo realmente al ejecutar un modelo determinado en una entrada. La tecnología zkML proporciona una solución eficaz a uno de los desafíos más apremiantes de la IA: la confianza y la transparencia. El modelo zkML, al permitir cálculos verificables, garantiza que los resultados generados por los modelos de IA sean precisos y confiables. Este enfoque aborda las preocupaciones sobre la naturaleza opaca de la IA, donde los resultados no verificados pueden conducir a decisiones erróneas.
El CTO de la organización, Tiancheng Xie, compartió que: “Hemos pasado toda la vida de la empresa construyendo sistemas que puedan funcionar sin intervención humana, que estén verificados mediante matemáticas y sean criptográficamente seguros”.
Las aplicaciones de zkML van más allá de la verificación de inferencias y abarcan áreas como la autenticación del origen de los datos, el etiquetado preciso de los datos y la verificación de los procesos de entrenamiento de la IA. Esto garantiza que cada paso del ciclo de vida de la IA cumpla con estrictos estándares de integridad.
El modelo zkML elimina altas barreras computacionales, basado en el innovador sistema Expander-proof, haciendo realidad las soluciones listas para producción. Este avance no sólo fortalece la confianza en la IA, sino que también garantiza el cumplimiento de las normas de privacidad.
El futuro de la IA verificable
Dawn Song, directora de Berkeley RDI, destaca: “Berkeley RDI y Polyhedra están estableciendo un nuevo estándar de confianza y transparencia en inteligencia artificial con la innovadora tecnología de aprendizaje automático de conocimiento cero (zkML), un enfoque innovador que combina el aprendizaje automático con la verificación criptográfica”.
Esta colaboración establece un nuevo punto de referencia para la transparencia y la responsabilidad en la IA. Song enfatizó que el objetivo es garantizar que la eficiencia que aporta la IA no comprometa la confianza y la seguridad.
De cara al futuro, zkML está preparado para transformar el panorama de la IA al permitir una implementación segura, ecosistemas descentralizados y aplicaciones innovadoras. Con zkML, Berkeley RDI y Polyhedra pretenden construir un futuro en el que la confianza esté en el centro de la innovación en IA.