Anthropic ha resuelto en parte un desacuerdo legal que hizo que la startup de IA provocara la ira de la industria musical. En octubre de 2023, un grupo de editores de música, incluidos Universal Music y ABKCO, presentaron una denuncia por infracción de derechos de autor contra Anthropic. El grupo alegó que la compañía había entrenado su modelo Claude AI en al menos 500 canciones sobre las cuales tenían derechos y que, cuando se promocionaba, Claude podía reproducir las letras de esas pistas parcial o totalmente. Entre las letras de las canciones que los editores dijeron que Anthropic había infringido se encontraban “Halo” de Beyoncé y “Moves Like Jagger” de Maroon 5.
en un estipulación aprobada por el tribunal Como llegaron las dos partes el jueves, Anthropic acordó mantener sus barreras de seguridad existentes contra productos que reproduzcan, distribuyan o muestren material con derechos de autor propiedad de los editores e implementar esas mismas medidas al entrenar sus futuros modelos de IA.
Al mismo tiempo, la compañía dijo que respondería “rápidamente” a cualquier inquietud sobre derechos de autor del grupo y prometió proporcionar respuestas por escrito detallando cómo y cuándo planea abordar sus inquietudes. En los casos en que la empresa tenga la intención de no abordar un tema, debe manifestar claramente su intención de hacerlo.
«Claude no está diseñado para ser utilizado para infringir los derechos de autor, y contamos con numerosos procesos diseñados para evitar dicha infracción», dijo un portavoz de Anthropic a Engadget. «Nuestra decisión de celebrar esta estipulación es consistente con esas prioridades. Seguimos esperando demostrar que, de acuerdo con la ley de derechos de autor existente, el uso de material potencialmente protegido por derechos de autor en el entrenamiento de modelos generativos de IA es un uso legítimo por excelencia».
Como se mencionó, el pacto del jueves no resuelve completamente el desacuerdo original entre Anthropic y el grupo de editores de música que demandó a la compañía. Esta última parte todavía está solicitando una orden judicial contra Anthropic para evitar que utilice copias no autorizadas de letras de canciones para entrenar futuros modelos de IA. Una decisión sobre ese asunto podría llegar en algún momento de los próximos meses.
Si compra algo a través de un enlace de este artículo, es posible que ganemos una comisión.