Son tiempos interesantes para la IA y la confianza. Un número cada vez mayor de empresas de inversión están utilizando agentes de inteligencia artificial para revisar notas de investigación y presentaciones de empresas. Se pide a los humanos que entreguen datos biométricos cada vez más invasivos, como escaneos faciales, muestras de voz y patrones de comportamiento, sólo para demostrar que no son robots. Una vez en la naturaleza, estos datos pueden ser utilizados como armas por robots impulsados por IA para falsificar de manera convincente a personas reales, derrotando a los mismos sistemas diseñados para mantenerlas alejadas. Eso nos deja en una nueva y extraña carrera armamentista: cuanto más invasiva sea la verificación, mayor será el riesgo de que inevitablemente se filtre. Entonces, ¿cómo verificamos con quién (o qué) estamos tratando realmente?
Es inconcebible exigir transparencia a los humanos y aceptar opacidad de las máquinas. Tanto los robots como los humanos en línea necesitan mejores formas de verificar su identidad. No podemos resolver este problema simplemente recopilando más datos biométricos, ni creando registros centralizados que representen enormes trampas para los ciberdelincuentes. Las pruebas de conocimiento cero ofrecen un camino a seguir en el que tanto los humanos como la IA pueden demostrar sus credenciales sin exponerse a la explotación.
El déficit de confianza bloquea el progreso
La ausencia de una identidad de IA verificable crea riesgos de mercado inmediatos. Cuando los agentes de IA pueden hacerse pasar por humanos, manipular mercados o ejecutar transacciones no autorizadas, las empresas dudan con razón en implementar sistemas autónomos a escala. Da la casualidad de que los LLM que han sido “afinados” en un conjunto de datos más pequeño para mejorar el rendimiento tienen 22 veces más probabilidades de producir resultados dañinos que los modelos base, y las tasas de éxito de eludir las barreras de seguridad y éticas del sistema (un proceso conocido como “jailbreaking”) se triplican en comparación con los sistemas listos para producción. Sin una verificación de identidad confiable, cada interacción con la IA se acerca un paso más a una posible violación de la seguridad.
El problema no es tan obvio como impedir que actores maliciosos implementen agentes maliciosos, porque no es como si nos enfrentáramos a una única interfaz de IA. El futuro verá cada vez más agentes de IA autónomos con mayores capacidades. En tal mar de agentes, ¿cómo sabemos a qué nos enfrentamos? Incluso los sistemas de IA legítimos necesitan credenciales verificables para participar en la economía emergente de agente a agente. Cuando un robot comercial de IA ejecuta una transacción con otro robot, ambas partes necesitan estar seguros de la identidad, la autorización y la estructura de responsabilidad del otro.
El lado humano de esta ecuación está igualmente roto. Los sistemas tradicionales de verificación de identidad exponen a los usuarios a violaciones masivas de datos, permiten con demasiada facilidad una vigilancia autoritaria y generan miles de millones en ingresos para grandes corporaciones por la venta de información personal sin compensar a las personas que la generan. La gente se muestra, con razón, reacia a compartir más datos personales, pero los requisitos reglamentarios exigen procedimientos de verificación cada vez más invasivos.
Conocimiento cero: el puente entre privacidad y responsabilidad
Las pruebas de conocimiento cero (ZKP) ofrecen una solución a este problema aparentemente intratable. En lugar de revelar información confidencial, las ZKP permiten que entidades, ya sean humanas o artificiales, prueben afirmaciones específicas sin exponer datos subyacentes. Un usuario puede demostrar que tiene más de 21 años sin revelar su fecha de nacimiento. Un agente de IA puede demostrar que fue capacitado en conjuntos de datos éticos sin exponer algoritmos propietarios. Una institución financiera puede verificar que un cliente cumple con los requisitos reglamentarios sin almacenar información personal que pueda ser violada.
Para los agentes de IA, las ZKP pueden permitir los profundos niveles de confianza necesarios, ya que necesitamos verificar no solo la arquitectura técnica sino también los patrones de comportamiento, la responsabilidad legal y la reputación social. Con los ZKP, estas afirmaciones se pueden almacenar en un gráfico de confianza verificable en la cadena.
Piense en ello como una capa de identidad componible que funciona en plataformas y jurisdicciones. De esa manera, cuando un agente de IA presenta sus credenciales, puede demostrar que sus datos de capacitación cumplen con estándares éticos, sus resultados han sido auditados y sus acciones están vinculadas a entidades humanas responsables, todo sin exponer información de propiedad exclusiva.
Las ZKP podrían cambiar completamente las reglas del juego, permitiéndonos demostrar quiénes somos sin tener que entregar datos confidenciales, pero su adopción sigue siendo lenta. Los ZKP siguen siendo un nicho técnico, desconocido para los usuarios y enredado en áreas regulatorias grises. Para colmo, las empresas que se benefician de la recopilación de datos tienen pocos incentivos para adoptar la tecnología. Sin embargo, eso no impide que las empresas de identidad más ágiles los aprovechen y, a medida que surjan estándares regulatorios y mejore la conciencia, los ZKP podrían convertirse en la columna vertebral de una nueva era de inteligencia artificial e identidad digital confiables, brindando a individuos y organizaciones una forma de interactuar de manera segura y transparente a través de plataformas y fronteras.
Implicaciones de mercado: desbloquear la economía de los agentes
La IA generativa podría agregar billones anualmente a la economía global, pero gran parte de este valor permanece encerrado detrás de barreras de verificación de identidad. Hay varias razones para esto. Una es que los inversores institucionales necesitan un cumplimiento sólido de KYC/AML antes de desplegar capital en estrategias impulsadas por la IA. Otra es que las empresas requieren identidades de agentes verificables antes de permitir que los sistemas autónomos accedan a la infraestructura crítica. Y los reguladores exigen mecanismos de rendición de cuentas antes de aprobar el despliegue de IA en dominios sensibles.
Los sistemas de identidad basados en ZKP abordan todos estos requisitos y al mismo tiempo preservan la privacidad y la autonomía que hacen que los sistemas descentralizados sean valiosos. Al permitir la divulgación selectiva, satisfacen los requisitos reglamentarios sin crear trampas de datos personales. Al proporcionar verificación criptográfica, permiten interacciones sin confianza entre agentes autónomos. Y al mantener el control del usuario, se alinean con las regulaciones emergentes de protección de datos como GDPR y las leyes de privacidad de California.
La tecnología también podría ayudar a abordar la creciente crisis de los deepfakes. Cuando cada contenido pueda vincularse criptográficamente a un creador verificado sin revelar su identidad, podremos combatir la desinformación y proteger la privacidad. Esto es particularmente crucial a medida que el contenido generado por IA se vuelve indistinguible del material creado por humanos.
El camino ZK
Algunos argumentarán que cualquier sistema de identidad representa un paso hacia el autoritarismo, pero ninguna sociedad puede funcionar sin una forma de identificar a sus ciudadanos. La verificación de identidad ya se está realizando a gran escala, aunque de manera deficiente. Cada vez que subimos documentos para KYC, nos sometemos a reconocimiento facial o compartimos datos personales para verificar la edad, participamos en sistemas de identidad que son invasivos, inseguros e ineficientes.
Las pruebas de conocimiento cero ofrecen un camino a seguir que respeta la privacidad individual y al mismo tiempo permite la confianza necesaria para interacciones económicas complejas. Nos permiten construir sistemas donde los usuarios controlan sus datos, la verificación no requiere vigilancia y tanto los humanos como los agentes de IA pueden interactuar de forma segura sin sacrificar la autonomía.
