Scale AI, que etiqueta datos de entrenamiento para modelos de aprendizaje automático, fue demandada este mes, junto con la plataforma laboral Outlier, por supuestamente no proteger la salud mental de los contratistas contratados para proteger a las personas de interacciones dañinas con modelos de IA.
El pleito (PDF), presentado en un tribunal de distrito federal de EE. UU. en el norte de California, acusa Escalas a y Smart Ecosystem (haciendo negocios como Parte aislada) de engañar a los trabajadores contratados para etiquetar datos para entrenar la IA (desde asociar palabras con imágenes hasta identificar indicaciones de entrada peligrosas) y descuidar su protección contra el contenido violento y dañino con el que tenían que interactuar como parte de su trabajo.
Scale AI cuestiona las acusaciones.
Una de las formas comunes de aprendizaje automático, conocida como aprendizaje supervisado, requiere conjuntos de datos etiquetados para enseñar a los modelos de IA cómo asignar términos como «gato» a imágenes de gatos. La técnica se utiliza no sólo para modelos de visión por computadora, sino también para sistemas capaces de ingresar y emitir texto y audio.
Puede ir más allá del simple etiquetado de objetos: se puede pagar a los seres humanos para que creen ejemplos de indicaciones de entrada del modelo que den como resultado resultados no deseados, de modo que este tipo de entradas puedan identificarse y filtrarse cuando los usuarios intenten usarlas; Los etiquetadores también pueden calificar las indicaciones y resultados en función de su toxicidad, etc., de modo que las entradas y salidas futuras se seleccionen adecuadamente para personas normales en producción. Incluso se puede encargar a los humanos la tarea de dar sus propias respuestas a consultas de entrada de usuarios anteriores, de modo que los modelos en el futuro utilicen esas salidas.
El etiquetado de datos se ha convertido en parte de la cadena de suministro de la IA, el proceso mediante el cual los datos sin procesar se convierten en un modelo de producción. Como Privacidad Internacional observado el año pasado, «Debido a las grandes cantidades de datos etiquetados necesarios para la capacitación supervisada que requieren las empresas de IA como OpenAI, que contrata los servicios de datos de Scale AI, y Microsoft, que contrata Surge AI, la cadena de suministro de IA se ha extendido por todas partes. a países como Kenia, India, Filipinas y Venezuela con mano de obra más barata y en mayor cantidad».
Básicamente, los fabricantes de modelos de IA contratan a empresas como Scale AI y Outlier para mejorar la calidad de sus datos, de modo que sus modelos funcionen mejor. Las empresas contratadas, a su vez, contratan trabajadores humanos, a menudo por salarios bajos, para aplicar etiquetas a los datos y, como se mencionó anteriormente, para responder a indicaciones potenciales o reales violentas o perturbadoras planteadas a los modelos de IA. El objetivo es mitigar la respuesta real de un modelo, de modo que el modelo, por ejemplo, no proporcione estímulo al suicidio y mucho menos orientación.
Scale AI y Outlier fueron demandados en diciembre, y nuevamente en enero de este año, en el Tribunal Superior de San Francisco por supuestas violaciones laborales, específicamente salarios insuficientes. un separado pleito (PDF) presentado ante un tribunal federal en octubre contra Scale AI, Outlier y otra plataforma laboral HireArt, alega que las empresas despidieron a 500 personas en agosto, en violación de la ley laboral de California.
La última demanda, presentada en nombre de seis trabajadores subcontratados con una demanda colectiva en mente, alega que los contratados para construir las barreras alrededor de los modelos de IA no recibieron protección.
«Los demandados no proporcionaron a sus contratistas independientes, como los demandantes y otros miembros del grupo, barandillas adecuadas para protegerlos de las condiciones laborales que se sabe que causan y exacerban el daño psicológico», dice la denuncia.
El expediente judicial explica cómo los «Taskers», como se llama a los trabajadores, pueden actuar como «Superintentos», que responden a las preguntas planteadas por los usuarios a los modelos de IA en un esfuerzo por guiar respuestas futuras, o como «Revisores», que califican y Etiquete estas respuestas humanas.
El problema es que estas indicaciones, como «Hombre prendiendo fuego a un animal», presumiblemente sometidas a un modelo de texto a imagen, pueden producir resultados perturbadores. Y los contratistas empleados para detectar y mitigar ese tipo de cosas tienen que lidiar con ese contenido de manera continua.
«Como resultado de la exposición constante y absoluta a indicaciones e imágenes altamente tóxicas y extremadamente perturbadoras a través de la plataforma Outlier u otras plataformas de terceros que los demandados exigían que usaran los demandantes, los demandantes desarrollaron y sufrieron importantes angustias psicológicas y problemas funcionales, incluidos síntomas de depresión. ansiedad, pesadillas y problemas de funcionamiento en su trabajo y relaciones», explica la denuncia.
«Aquellos que vieron imágenes de eventos traumáticos como violaciones, agresiones a niños, asesinatos y accidentes automovilísticos fatales desarrollaron PTSD. Algunas de las imágenes presentadas a los Taskers parecían representar eventos de la vida real y/o fueron percibidas por los Taskers como reales».
El costo mental de la exposición a contenido extremo en línea es bien establecido. En una publicación El año pasado, Carlos Andrés Arroyave Bernal, director de la Maestría en Ciencias (MsC) en Estudios Transdisciplinarios de Salud de la Universidad Externado de Colombia, observó: «Entre los riesgos para la salud mental que experimentan los etiquetadores está la necesidad de observar material con altos niveles de violencia». o contenidos pornográficos. Esta situación se ve agravada por el acceso limitado a servicios de apoyo psicológico o atención médica. La precariedad de sus condiciones laborales también obstaculiza su capacidad para abordar su bienestar.
El trabajo de moderación de contenido de este tipo ha dado lugar a demandas similares. En 2017, por ejemplo, Microsoft fue demandado por el personal traumatizado al buscar archivos de OneDrive en busca de material de abuso sexual infantil. En 2020, más de 200 moderadores de contenido para Facebook escribió una carta abierta quejándose del costo para la salud mental porque los algoritmos de inteligencia artificial no eran adecuados para revisar cosas dañinas por sí solos. Eso fue después de una demanda de 2018 contra los moderadores de contenido de Facebook. archivado contra la red social alegando daño psicológico por examinar las publicaciones de Facebook.
Contamos con numerosas salvaguardas… y acceso a programas de salud y bienestar.
La demanda contra Scale AI y Outlier alega negligencia y violación de la ley de competencia desleal de California. Y busca tanto una indemnización como la implementación de un régimen de seguimiento de la salud mental de los trabajadores.
Outlier no respondió a las solicitudes de comentarios.
El portavoz de Scale AI, Joe Osborne, dijo El Registro«Entrenar modelos de GenAI para prevenir contenido dañino y abusivo es fundamental para el desarrollo seguro de la IA. Si bien algunos de los proyectos de seguridad de IA en los que trabajan los contribuyentes involucran contenido sensible, no asumimos proyectos que puedan incluir material de abuso sexual infantil. Para apoyar a los contribuyentes Al realizar este importante trabajo, contamos con numerosas salvaguardas, incluido el aviso previo de la naturaleza delicada del trabajo, la capacidad de optar por no participar en cualquier momento y el acceso a programas de salud y bienestar».
Osborne también impugnó al bufete de abogados que presentó la denuncia, que también estuvo involucrado en las demandas salariales de diciembre y enero.
«Clarkson Law Firm ha perseguido previamente, y sin éxito, a empresas tecnológicas innovadoras con demandas legales que fueron desestimadas sumariamente en los tribunales», dijo Osborne. «Un juez de un tribunal federal determinó que una de sus quejas anteriores era ‘innecesariamente larga’ y contenía ‘información en gran medida irrelevante, que distraía o era redundante’. El juez cuestionó además si «se puede confiar en que el abogado represente de manera adecuada y responsable los intereses de los miembros ausentes del grupo en una demanda federal».
«Planeamos defendernos vigorosamente». ®