La senadora Cynthia Lummis (R-WY) ha introducido la Ley de Innovación Responsable y Experiencia Segura (Rise) de 2025, una propuesta legislativa diseñada para aclarar los marcos de responsabilidad para la inteligencia artificial (IA) utilizada por los profesionales.
El proyecto de ley podría traer transparencia de los desarrolladores de IA, lo que no exige que los modelos sean de código abierto.
En un comunicado de prensa, Lummis dijo que la Ley de Aumento significaría que los profesionales, como médicos, abogados, ingenieros y asesores financieros, siguen siendo legalmente responsables del asesoramiento que brindan, incluso cuando está informado por AI Systems.
En ese momento, los desarrolladores de IA que crean los sistemas solo pueden protegerse de la responsabilidad civil cuando las cosas salen mal si lanzan públicamente tarjetas modelo.
El proyecto de ley propuesto define las tarjetas modelo como documentos técnicos detallados que divulgan las fuentes de datos de capacitación de un sistema de IA, los casos de uso previstos, las métricas de rendimiento, las limitaciones conocidas y los posibles modos de falla. Todo esto está destinado a ayudar a los profesionales a evaluar si la herramienta es apropiada para su trabajo.
“Wyoming valora tanto la innovación como la responsabilidad; la Ley de Rise crea estándares predecibles que fomentan el desarrollo de IA más seguro al tiempo que preservan la autonomía profesional”, dijo Lummis en un comunicado de prensa.
“Esta legislación no crea inmunidad general para la IA”, continuó Lummis.
Sin embargo, la inmunidad otorgada bajo esta Ley tiene límites claros. La legislación excluye la protección para los desarrolladores en casos de imprudencia, mala conducta intencional, fraude, conociendo tergiversación o cuando las acciones quedan fuera del alcance definido del uso profesional.
Además, los desarrolladores enfrentan un deber de responsabilidad continua bajo la Ley de Aumento. La documentación y las especificaciones de la IA deben actualizarse dentro de los 30 días posteriores a la implementación de nuevas versiones o descubrir modos de falla significativos, reforzar las obligaciones de transparencia continua.
Se detiene por debajo del código abierto
La Ley Rise, tal como está escrita ahora, se detiene en exigir que los modelos de IA se conviertan en un código abierto completamente abiertos.
Los desarrolladores pueden retener información patentada, pero solo si el material redactado no está relacionado con la seguridad, y cada omisión se acompaña de una justificación escrita que explica la exención secreta comercial.
En una entrevista previa con Coindesk, Simon Kim, el CEO de Hashed, uno de los principales fondos de capital de riesgo de Corea, habló sobre el peligro de la IA centralizada y de código cerrado que es efectivamente una caja negra.
“OpenAi no está abierto, y está controlado por muy pocas personas, por lo que es bastante peligroso. Hacer este tipo de [closed source] El modelo fundamental es similar a hacer un ‘Dios’, pero no sabemos cómo funciona “, dijo Kim en ese momento.