Desde que se lanzó ChatGPT de OpenAI en noviembre de 2022, los expertos en tecnología, los medios y los gobiernos han expresado su preocupación por lo que podría llegar a ser en manos de malos actores. Como resultado, algunos países se han inclinado hacia una regulación excesiva, sofocando el desarrollo (la UE), mientras que otros, como Estados Unidos, han adoptado un enfoque más no intervencionista con respecto a la industria.
A partir de diciembre de 2024, varios países han asediado legalmente a nuevas empresas de inteligencia artificial como OpenAI por acusaciones de violaciones de las políticas y regulaciones de privacidad de datos.
Más recientemente, los medios de comunicación canadienses, incluidos Toronto Star, Metroland Media, Postmedia, The Globe and Mail, The Canadian Press y CBC, se unieron a una pleitosupuestamente el primero de su tipo en el país. Todos demandaron a OpenAI por supuestamente ignorar salvaguardias como muros de pago o exenciones de responsabilidad de derechos de autor destinadas a evitar la copia no autorizada de contenido.
“El periodismo es de interés público. OpenAI no utiliza el periodismo de otras empresas para su propio beneficio comercial. Es ilegal”, afirmaron los medios de comunicación en un comunicado conjunto.
El grupo, que incluye a los editores de los principales periódicos de Canadá, exige una indemnización de 20.000 dólares canadienses por artículo (14.300 dólares, 11.000 libras esterlinas) que OpenAI supuestamente utilizó para entrenar ilegalmente ChatGPT. El total podría ascender a miles de millones de dólares en compensación.
Las organizaciones de noticias también quieren una orden que obligue a la empresa a compartir las ganancias obtenidas por el uso de sus artículos, así como una orden judicial que prohíba a OpenAI usarlos en el futuro.
Mientras tanto, OpenAI dice que sus modelos están “entrenados con datos disponibles públicamente” y que el software está “basado en el uso legítimo y los principios internacionales de derechos de autor relacionados que son justos para los creadores y apoyan la innovación”.
“Colaboramos estrechamente con los editores de noticias, incluso en la visualización, la atribución y los enlaces a su contenido en la búsqueda de ChatGPT, y les ofrecemos formas sencillas de optar por no participar si así lo desean”, dijo la compañía.
El New York Times y otros editores presentaron una demanda similar contra OpenAI y Microsoft en Estados Unidos el año pasado.
OpenAI enfrenta diferentes estándares regulatorios en todo el mundo
China fue uno de los primeros países en establecer un marco regulatorio para la tecnología de IA generativa cuando publicó la versión final de sus Medidas de IA generativa el 10 de julio de 2023.
Siete agencias del gobierno central chino juntas adoptado las Medidas de IA Generativa, que entraron en vigor el 15 de agosto de 2023. En comparación con el primer borrador de las Medidas de IA Generativa publicado para consulta pública en abril de 2023, las nuevas Medidas de IA Generativa alentaron el desarrollo y la inversión en tecnología y servicios de IA generativa.
Sin embargo, ChatGPT de OpenAI y servicios similares están prohibidos debido a las leyes de censura y al temor a la desinformación. Esto empujó a los desarrolladores chinos, muchos de los cuales utilizaban la API de OpenAI en sus productos, a buscar alternativas nacionales de IA.
El gobierno también ha apoyado estas alternativas ya que se alinean con sus regulaciones.
Por otro lado, Rusia ha adoptado una postura más reservada respecto a la inteligencia artificial. El país ahora tiene restricciones para contrarrestar lo que percibe como riesgos de influencia estadounidense a través de la IA. También cita preocupaciones de ciberseguridad.
En los meses previos a las elecciones estadounidenses, hubo varios informes que afirmaban que Rusia estaba utilizando la IA para influir en la perspectiva, aunque muchos lo descartaron como propaganda.
En Corea del Norte, el gobierno trata a la IA con sospecha y gran cautela, como lo hace con muchas innovaciones externas. El gobierno ha prohibido ChatGPT y tecnologías similares en un intento por mantener un control estricto sobre la información y evitar posibles usos indebidos.
La UE va por detrás en la carrera de la IA
Muchos expertos han acusado a Europa de sofocar la innovación en IA a través de su Ley de IA de la UE. La Ley de IA de la UE es el reglamento creado para armonizar el marco legal para los sistemas de IA en toda la UE.
Según la ley, las aplicaciones de IA se dividen en tres niveles de riesgo: riesgo inaceptable (prohibidas), alto riesgo (sujetas a requisitos estrictos) y bajo riesgo (en gran medida no reguladas). La Ley prohíbe las prácticas de IA que sean manipuladoras o engañosas, pero existen excepciones para ciertos usos policiales.
Incumplir la ley puede dar lugar a multas de hasta 35 millones de euros o el 7% del volumen de negocios global. El enfoque cauteloso de Europa hacia la IA se puso de manifiesto cuando el regulador de privacidad de datos de Italia chocaron con OpenAI por el acceso al contenido de una de sus casas de medios.
El objetivo principal de la asociación era utilizar contenido en italiano del portafolio de noticias de GEDI para capacitar y mejorar los productos de OpenAI, un paso para capacitar modelos ChatGPT en contenido italiano.
En respuesta, GEDI declaró: “El proyecto aún no se ha lanzado, por lo que no se ha puesto a disposición de OpenAI ningún contenido editorial en este momento y no lo estará hasta que se completen las revisiones en curso”.
El choque se produce casi un año después de que otra autoridad italiana, conocida como Garante, una de las más proactivas de la Unión Europea en la evaluación del cumplimiento de la plataforma de IA con el régimen de privacidad de datos del bloque, prohibiera ChatGPT.
Supuso incumplimientos de las normas de privacidad de la Unión Europea (UE), pero el servicio se reactivó después de que OpenAI abordara cuestiones como el derecho de los usuarios a negarse a dar su consentimiento para el uso de datos personales para entrenar algoritmos.
En una declaración por correo electrónico, OpenAI dijo que cree que sus prácticas están alineadas con las leyes de privacidad de la UE. “Trabajamos activamente para reducir los datos personales en la capacitación de nuestros sistemas como ChatGPT”, dijo, y agregó que “planea continuar trabajando de manera constructiva con Garante”.
Europa está rezagada en la carrera de la IA, mientras que lugares como Estados Unidos siguen avanzando. Actualmente, las empresas estadounidenses, incluida la empresa matriz de OpenAI, Microsoft, dominan las filas del más grande Empresas de IA por valoración de mercado. La respuesta mesurada del país sin duda ha dado sus frutos para sus negocios de IA, al menos en el corto plazo.
Muy recientemente, Kanye West, un rapero estadounidense ganador de un Grammy, se convirtió en el último en adoptar la tecnología mientras debutó un vídeo musical creado utilizando IA generativa para su sencillo titulado BOMB.
Si bien muchos lugares citan preocupaciones sobre la ética del uso de la IA como razón fundamental para sus estrictas restricciones, también parecen deberse a tensiones políticas y esfuerzos para proteger los intereses nacionales. Si nada cambia, el mundo puede estar muy por delante cuando Europa finalmente se dé cuenta del virus de la IA.