La subcontratación de trabajadores en el desarrollo de inteligencia artificial es una práctica que se ha vuelto cada vez más común en los últimos años. Las empresas tecnológicas recurren a empresas de subcontratación en países con bajos salarios para realizar tareas como la etiquetación de datos, la transcripción de audio y video, y el desarrollo de software.
Esta práctica plantea una serie de cuestiones éticas, entre ellas:
Explotación laboral: Los trabajadores de las empresas de subcontratación suelen tener bajos salarios y condiciones laborales precarias. En muchos casos, trabajan por horas y no tienen acceso a beneficios como seguro médico o pensión.
Impacto psicológico: Los trabajadores que se dedican a etiquetar datos de contenido tóxico y ofensivo pueden sufrir un impacto psicológico negativo. En algunos casos, pueden desarrollar estrés postraumático u otros trastornos mentales.
Responsabilidad ética: Las empresas tecnológicas que subcontratan el trabajo de etiquetado de datos tienen una responsabilidad ética de garantizar que los trabajadores sean tratados de manera justa y que se les proteja de los daños psicológicos.

El caso de OpenAI con ChatGPT OpenAI se enfrentó a un dilema ético con su predecesor, GPT-3, que, si bien demostró habilidades impresionantes para generar texto, también mostró tendencias a producir comentarios violentos, sexistas y racistas. Esto se debió a que GPT-3 se entrenó con un vasto conjunto de datos de Internet, que incluía áreas problemáticas llenas de toxicidad y sesgos. La eliminación de estas partes problemáticas del entrenamiento era un desafío y OpenAI implementó un mecanismo de seguridad adicional, impulsado por la inteligencia artificial, para mitigar estos problemas y hacer que ChatGPT fuera adecuado para el uso público.
Para construir este sistema de seguridad, OpenAI siguió el ejemplo de las redes sociales al entrenar una IA en ejemplos etiquetados de contenido tóxico, como discurso de odio. Esto permitió que la IA aprendiera a detectar y filtrar la toxicidad en el lenguaje. OpenAI envió miles de fragmentos de texto a una empresa de subcontratación en Kenia para obtener etiquetas, y parte de este contenido era altamente perturbador.
Estos trabajadores, que desempeñaron un papel esencial en el desarrollo de ChatGPT, ganaban menos de 2 dólares por hora. En su trabajo, se enfrentaron a contenido perturbador y gráfico, como abuso sexual, violencia y otros temas delicados, lo que plantea preocupaciones éticas y cuestiones sobre las condiciones laborales en la industria de la inteligencia artificial.
Esta industria depende en gran medida de un trabajo humano oculto, casi siempre en países en vías de desarrollo, para etiquetar datos y entrenar modelos, a pesar de las ganancias multimillonarias que genera. Esta situación genera cuestiones éticas y laborales sobre la dependencia de trabajadores con salarios bajos para impulsar el avance tecnológico.
El caso de ChatGPT destaca la importancia de considerar el impacto humano y las condiciones laborales en el avance de la inteligencia artificial. Las empresas tecnológicas deben tomar medidas para garantizar que los trabajadores que se dedican al etiquetado de datos sean tratados de manera justa y que se les proteja de los daños psicológicos.
Algunas recomendaciones Para abordar las cuestiones éticas relacionadas con la subcontratación de trabajadores en el desarrollo de inteligencia artificial, las empresas tecnológicas pueden tomar las siguientes medidas:
Pagar salarios justos y proporcionar condiciones laborales dignas: Las empresas tecnológicas deben garantizar que los trabajadores que se dedican al etiquetado de datos reciban un salario justo y que trabajen en condiciones dignas.
Evitar la exposición a contenido dañino: Las empresas tecnológicas deben tomar medidas para evitar que los trabajadores se expongan a contenido dañino, como imágenes o videos de violencia o abuso sexual.
Proporcionar apoyo psicológico: Las empresas tecnológicas deben proporcionar apoyo psicológico a los trabajadores que se dedican al etiquetado de datos para ayudarles a afrontar los posibles efectos psicológicos negativos de su trabajo.
Ampliación de la información Además de las cuestiones éticas mencionadas anteriormente, la subcontratación de trabajadores en el desarrollo de inteligencia artificial también plantea una serie de desafíos prácticos.
Por ejemplo, puede ser difícil garantizar la calidad del trabajo realizado por trabajadores subcontratados. Las empresas tecnológicas suelen depender de las empresas de subcontratación para garantizar que los datos estén correctamente etiquetados, pero puede ser difícil controlar la calidad del trabajo realizado por trabajadores que se encuentran en países remotos.
Además, la subcontratación puede dificultar el cumplimiento de las regulaciones locales. En algunos países, las empresas tecnológicas están sujetas a estrictas regulaciones sobre el uso de datos personales. La subcontratación de trabajadores en otros países puede dificultar el cumplimiento de estas regulaciones.
Recomendaciones adicionales Para abordar los desafíos prácticos de la subcontratación de trabajadores en el desarrollo de inteligencia artificial, las empresas tecnológicas pueden tomar las siguientes medidas:
Desarrollar procesos de control de calidad sólidos: Las empresas tecnológicas deben desarrollar procesos de control de calidad sólidos para garantizar que los datos estén correctamente etiquetados.
Tratar directamente con los trabajadores subcontratados: Las empresas tecnológicas deben tratar directamente con los trabajadores subcontratados para garantizar que se cumplan las regulaciones locales.
Fuente de los datos: Time