Meta ha pedido a un tribunal estadounidense que desestime una demanda que la acusaba de descargar y distribuir ilegalmente miles de vídeos pornográficos para entrenar sus sistemas de inteligencia artificial.
Presentada el lunes en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California, la moción de desestimación argumenta que no hay evidencia de que los modelos de IA de Meta contengan o hayan sido entrenados con el material protegido por derechos de autor, calificando las acusaciones de “sin sentido y sin fundamento”.
La moción fue reportada por primera vez por Ars Técnica el jueves, y Meta emitió una negación directa diciendo que las afirmaciones son “falsas”.
Los demandantes han hecho “todo lo posible para unir esta narrativa con conjeturas e insinuaciones, pero sus afirmaciones no son convincentes ni están respaldadas por hechos bien alegados”, se lee en la moción.
La denuncia original fue presentada en julio por Strike 3 Holdings y alegaba que Meta había utilizado direcciones IP corporativas y ocultas para descargar torrents de casi 2.400 películas para adultos desde 2018 como parte de un esfuerzo más amplio para construir sistemas de inteligencia artificial multimodal.
Strike 3 Holdings es un holding de películas para adultos con sede en Miami que distribuye contenido bajo marcas como Vixen, Blacked y Tushy, entre otras.
Descifrar se ha comunicado con Meta y Strike 3 Holdings, así como con sus respectivos asesores legales, y actualizará este artículo si responden.
Escala y patrón
La moción de Meta sostiene que la escala y el patrón de supuestas descargas contradicen la teoría del entrenamiento de IA de Strike 3.
Durante siete años, sólo 157 de las películas de Strike 3 supuestamente se descargaron utilizando las direcciones IP corporativas de Meta, con un promedio de aproximadamente 22 por año en 47 direcciones diferentes.
La metaabogada Angela L. Dunning caracterizó esto como “actividad escasa y descoordinada” de “individuos dispares” que lo hacían para “uso personal” y, por lo tanto, no fue, como alega Strike 3, parte de un esfuerzo del gigante tecnológico para recopilar datos para el entrenamiento de IA.
La moción también rechaza la afirmación de Strike 3 de que Meta utilizó más de 2.500 direcciones IP de terceros “ocultas” y afirma que Strike 3 no verificó quién era el propietario de esas direcciones y, en cambio, hizo “correlaciones” vagas.
Uno de los rangos de IP supuestamente está registrado a nombre de una organización sin fines de lucro hawaiana sin vínculo con Meta, mientras que otros no tienen un propietario identificado.
Meta también argumenta que no hay pruebas de que supiera o hubiera podido detener las supuestas descargas, y agrega que no ganó nada con ellas y que monitorear cada archivo en su red global no sería simple ni requerido por la ley.
Entrenar de forma segura
Si bien la defensa de Meta parece “inusual” al principio, aún puede tener peso dado que el reclamo principal se basa en cómo “el material no se usó en ningún modelo de capacitación”, dijo Dermot McGrath, cofundador de la firma de capital de riesgo Ryze Labs. Descifrar.
“Si Meta admitiera que los datos se usaron en modelos, tendrían que argumentar el uso justo, justificar la inclusión de contenido pirateado y abrirse al descubrimiento de sus sistemas internos de capacitación y auditoría”, dijo McGrath, y agregó que en lugar de defender cómo supuestamente se usaron los datos, Meta negó que “alguna vez se hayan usado en absoluto”.
Pero si los tribunales admiten que esa defensa es válida, podría abrirse “un enorme vacío legal”, afirmó McGrath. Podría “socavar efectivamente la protección de los derechos de autor para los casos de datos de entrenamiento de IA”, de modo que los casos futuros necesitarían “pruebas más sólidas de la dirección corporativa, que las empresas simplemente mejorarían en ocultar”.
Aún así, existen razones legítimas para procesar material explícito, como el desarrollo de herramientas de seguridad o moderación.
“La mayoría de las principales empresas de IA tienen ‘equipos rojos’ cuyo trabajo es investigar los modelos en busca de debilidades mediante el uso de indicaciones dañinas y tratar de lograr que la IA genere contenido explícito, peligroso o prohibido”, dijo McGrath. “Para crear filtros de seguridad eficaces, es necesario entrenarlos en ejemplos de lo que se intenta bloquear”.
