Australia ha introducido normas voluntarias de seguridad de la IA destinadas a promover el uso ético y responsable de la inteligencia artificial, que incluyen diez principios clave que abordan las preocupaciones en torno a la implementación de la IA.
El pautaspublicado el miércoles por la noche, enfatiza la gestión de riesgos, la transparencia, la supervisión humana y la equidad para garantizar que los sistemas de inteligencia artificial funcionen de manera segura y equitativa.
Si bien no son legalmente vinculantes, los estándares del país se basan en marcos internacionales, particularmente los de la UE, y se espera que guíen las políticas futuras.
Dean Lacheca, analista vicepresidente de Gartner, reconoció que los estándares son un paso positivo, pero advirtió sobre los desafíos en su cumplimiento.
“El estándar voluntario de seguridad de la IA es un buen primer paso para brindar a las agencias gubernamentales y a otros sectores industriales cierta certeza sobre el uso seguro de la IA”, dijo Lacheca. Descifrar.
“Las… barreras son todas buenas prácticas recomendadas para las organizaciones que buscan ampliar su uso de la IA. Pero no se deben subestimar el esfuerzo y las habilidades necesarios para adoptar estas barreras”.
Los estándares exigen procesos de evaluación de riesgos para identificar y mitigar peligros potenciales en los sistemas de IA y garantizar la transparencia en el funcionamiento de los modelos de IA.
Se hace hincapié en la supervisión humana para evitar una dependencia excesiva de los sistemas automatizados, y la equidad es un enfoque clave, lo que insta a los desarrolladores a evitar sesgos, particularmente en áreas como el empleo y la atención médica.
El informe señala que los enfoques inconsistentes en toda Australia han creado confusión para las organizaciones.
“Si bien hay ejemplos de buenas prácticas en toda Australia, los enfoques son inconsistentes”, notas del informe del gobierno.
“Esto está causando confusión en las organizaciones y dificultando que comprendan lo que deben hacer para desarrollar y utilizar la IA de forma segura y responsable”, se lee.
El marco destaca la no discriminación e insta a los desarrolladores a garantizar que la IA no perpetúe los sesgos, particularmente en áreas sensibles como el empleo o la atención médica.
La protección de la privacidad también es un enfoque clave, ya que requiere que los datos personales utilizados en los sistemas de inteligencia artificial se manejen de conformidad con las leyes de privacidad australianas, salvaguardando los derechos individuales.
Además, se exigen medidas de seguridad sólidas para defender los sistemas de inteligencia artificial del acceso no autorizado y el posible uso indebido.
Editado por Sebastián Sinclair.