OpenAI mejoró ChatGPT mediante la explotación laboral en Kenia
Según reporte de la revista Time, OpenAI ha estado subcontratando trabajadores en Kenia para tratar que ChatGPT sea menos tóxico.
Según una investigación, se reveló que OpenAI, a través de una compañía de subcontratación, se ha beneficiado de la explotación laboral en Kenia para mejorar la eficiencia de ChatGPT. Los trabajadores, responsables de etiquetar palabras de textos sobre situaciones estremecedoras, cobraban por sus servicios un salario inferior a US $2 la hora.
“En su búsqueda por hacer que ChatGPT sea menos tóxico, OpenAI utilizó trabajadores kenianos subcontratados que ganan menos de US $2 por hora”, señala un informe de la revista Time.
En el artículo, se refiere que el predecesor de ChatGPT, GPT-3 tenía una capacidad impresionante para unir oraciones, pero su aplicación era propensa a hacer comentarios racistas, sexistas y violentos, por lo que su comercialización fue difícil en su momento. “Esto se debe a que la Inteligencia Artificial (IA) había sido entrada en cientos de miles de millones de palabras extraídas de Internet, un vasto depósito de lenguaje humano”, se lee.
Como medida se realizó un proceso de etiquetado para identificar palabras ofensivas o no deseadas, de este modo ChatGPT evitaría su uso. Para llegar a implementar este sistema de seguridad eficaz, OpenAI tomó como referencia la estrategia utilizada por otras compañías de redes sociales como Facebook, quienes habían creado una IA capaz de detectar y eliminar discurso de odio en sus plataformas. El objetivo era proporcionar a la IA ejemplos de etiquetados de violencia, odio y abuso sexual, y de esta manera la herramienta aprendería a identificar formas de toxicidad en un contexto real.
No obstante, esta acción lo realizan personas, ya que deben discernir en un mar de palabras. “Para obtener esas etiquetas, OpenAI envió decenas de miles de fragmentos de texto a una empresa de subcontratación en Kenia a partir de noviembre de 2021. Gran parte de ese texto parecía haber sido extraído de los rincones más oscuros de Internet. Algunos describían situaciones con detalles gráficos como abuso sexual infantil, bestialidad, asesinato, suicidio, tortura, autolesiones e incesto”, asevera Time.
Para aligerar este trabajo, OpenAI contrató a SAMA, una empresa especializada en IA con sede en San Francisco (California). Esta última, entre sus diversos servicios, ofrece la búsqueda de trabajadores en países como Kenia, India y Uganda, para que realicen trabajos de etiquetado con el fin de mejorar las herramientas de IA de las empresas de Silicon Valley. Por extraño que parezca, estos tres países tienen los salarios más bajos en comparación con los salarios en la industria de IT (Information Techonology, por sus siglas en inglés) en los Estados Unidos.
Aunque los trabajadores debían leer textos desagradables y quedar expuestos a descripciones aterradoras como situaciones de abuso sexual infantil, homicidios, suicidios, tortura e incesto, su remuneración era una miseria. “A los etiquetadores de datos empleados por Sama en nombre de OpenAI se les pagó un salario neto de entre US $1,32 y US $2 por hora, según la antigüedad y el rendimiento”, registra el informe.
Por último, Time descubrió que Sama también operaba con Microsoft y Google para contratar empleados en los países mencionados. Y no solo porque su contratación significaba un evidente ahorro de costos, sino que también por el hecho de deslindar responsabilidades del daño mental en los trabajadores.