Los despidos tecnológicos afectan a los equipos de «confianza y seguridad», lo que genera temores de una reacción violenta en los esfuerzos para abordar el abuso en línea

Las empresas de redes sociales han recortado cientos de trabajos de moderación de contenido durante la ola continua de despidos tecnológicos, avivando los temores entre los trabajadores de la industria y los defensores de la seguridad en línea de que las principales plataformas son menos capaces de frenar el abuso que hace unos meses.

Las empresas tecnológicas han anunciado más de 101.000 recortes de empleo solo este año, además de los casi 160.000 durante 2022, según el rastreador Layoffs.fyi. Entre la amplia gama de funciones laborales afectadas por estos recortes se encuentran los equipos de “confianza y seguridad”, las unidades dentro de los principales operadores de plataformas y las empresas contratistas que contratan para hacer cumplir las políticas de contenido y luchar contra el discurso, el odio y la desinformación.

A principios de este mes, se informó que Alphabet rompecabezas de tamaño reducidouna unidad de Google que crea herramientas de moderación de contenido y se describe a sí mismo como el seguimiento de «amenazas a las sociedades públicas», como la supervisión civil, de al menos un tercio en las últimas semanas. El contratista principal de Meta para la moderación de contenido en África dijo en enero que era retiro de 200 empleados a medida que se alejaba de los servicios de revisión de contenido. En noviembre, los despidos masivos de Twitter afectaron a muchos empleados encargados de tomar medidas enérgicas contra el contenido prohibido, como la incitación al odio y el acoso dirigido, y la empresa disolvió su Consejo de Confianza y Seguridad al mes siguiente.

Las publicaciones en Indeed con «confianza y seguridad» en sus títulos de trabajo se redujeron un 70% el mes pasado en comparación con enero de 2022 entre los empleadores de todas las industrias, dijo la bolsa de trabajo a NBC News. Y en el sector tecnológico, ZipRecruiter dijo que las ofertas de trabajo en su plataforma relacionadas con la «seguridad de las personas» fuera de los roles de ciberseguridad se redujeron a la mitad entre octubre y enero.

Si bien el reclutamiento de tecnología en particular se ha retirado en general a medida que la industria se encoge de su frenesí de contratación pandémico, los defensores dijeron que la necesidad global de moderación de contenido sigue siendo aguda.

«Los mercados suben y bajan, pero la necesidad de prácticas de confianza y seguridad es constante o, cuando corresponde, aumenta con el tiempo», dijo Charlotte Willner, directora ejecutiva de Trust & Safety Professional Association, una organización global para trabajadores que desarrollan y hacen cumplir políticas de la plataforma digital con respecto al comportamiento en línea.

Un empleado de Twitter que todavía trabaja en las operaciones de confianza y seguridad de la empresa y pidió no ser identificado por temor a represalias describió sentirse preocupado y abrumado desde los recortes del departamento el otoño pasado.

“Ya estábamos subrepresentados a nivel mundial. Estados Unidos tenía mucho más personal que fuera de Estados Unidos”, dijo el empleado. «En lugares como la India, que están realmente marcados por complicadas divisiones religiosas y étnicas, esta conducta de odio y potencialmente violenta realmente ha aumentado. Menos personas significa que se hace menos trabajo en muchos espacios diferentes.

Las cuentas de Twitter que ofrecían intercambiar o vender material de abuso sexual infantil permanecieron en la plataforma durante meses después de que el CEO Elon Musk se comprometiera en noviembre a tomar medidas enérgicas contra la explotación infantil, informó NBC News en enero. “Ciertamente sabemos que todavía tenemos trabajo por hacer en el espacio, y ciertamente creemos que hemos mejorado rápidamente”, dijo Twitter en ese momento en respuesta a los hallazgos.

Twitter no respondió a las solicitudes de comentarios. Un portavoz de Alphabet no hizo comentarios sobre Jigsaw.

Un vocero de Meta dijo que la compañía «respeta[s] La decisión de Sama de abandonar los servicios de revisión de contenido que brinda a las plataformas de redes sociales. Estamos trabajando con nuestros socios durante esta transición para garantizar que nuestra capacidad para revisar el contenido no se vea afectada. Meta tiene más de 40.000 personas «trabajando en seguridad y protección», incluidos 15.000 revisores de contenido, dijo el vocero.

Las preocupaciones sobre los recortes de confianza y seguridad coinciden con el creciente interés de Washington en una regulación más estricta de Big Tech en múltiples frentes.

En su discurso sobre el Estado de la Unión del martes, el presidente Biden instó al Congreso a “aprobar una legislación bipartidista para fortalecer la aplicación de las normas antimonopolio y evitar que las principales plataformas en línea den a sus propios productos una ventaja injusta”, y a “imponer límites más estrictos a los datos personales que Biden y los legisladores de ambos partidos también han señalado su disposición a reformar la Sección 230, una medida que durante mucho tiempo ha protegido a las empresas tecnológicas de cualquier responsabilidad por el discurso y la actividad en sus plataformas.

“Varios gobiernos buscan obligar a las grandes empresas tecnológicas y plataformas de redes sociales [to become more] responsable del contenido ‘dañino’”, dijo Alan Woodward, experto en seguridad cibernética y profesor de la Universidad de Surrey en el Reino Unido.

Además de exponer a las empresas tecnológicas a un mayor riesgo regulatorio, cualquier revés en la moderación del contenido “debería ser motivo de preocupación para todos”, dijo. «No se trata solo de eliminar material inapropiado de abuso infantil, sino que cubre áreas sutiles de información errónea que sabemos que están destinadas a influir en nuestra democracia».