Chat GPT

Aunque algunos trabajadores evitan la ayuda de los chatbots, las plataformas colaborativas están adoptando políticas o tecnología para disuadir el uso de la inteligencia artificial (IA), lo que podría dificultar el trabajo en estos espacios.

Estudiantes , oficinistas, codificadores y maestros recurren a herramientas de IA generativa como ChatGPT para optimizar su trabajo en plataformas colaborativas de maneras que han provocado tanto elogios como sospechas.

Ante esto, algunas plataformas de trabajo colaborativo adoptan políticas o tecnología diseñada para disuadir o detectar el uso de modelos de lenguaje como ChatGPT.

Un estudio de académicos del Instituto Federal Suizo de Tecnología (https://arxiv.org/abs/2306.07899 )se volvió viral este año después de estimar que más de un tercio de Amazon Mechanical Turk, una plataforma de crowdsourcing que requiere inteligencia humana, había usado ChatGPT para completar una tarea de resumen de texto destinada a medir la comprensión humana.

Su afirmación de que los trabajadores de este tipo de plataformas colaborativas multitud usan ampliamente modelos de lenguaje de inteligencia artificial inspiró a algunos investigadores a rechazarlo, defendiendo el honor de estos trabajadores y diciendo que las instrucciones más claras podrían frenar el problema.

CloudResearch, https://www.cloudresearch.com/ una empresa que ayuda a los investigadores a reclutar participantes de estudios en línea, realizó su propia versión del estudio y descubrió que sus trabajadores preseleccionados usaban ChatGPT solo una quinta parte del tiempo. El uso casi desapareció por completo cuando la compañía le pidió a la gente que no usara IA.

El trabajo colectivo puede proporcionar un refugio para las personas a las que les gusta organizar el trabajo en sus propios términos, como las personas introvertidas o neurodivergentes.

Si bien algunos trabajadores pueden evitar la IA, la tentación de usarla es muy real para otros. Herramientas como ChatGPT que ahorran mano de obra sean atractivas.

Para encontrar los trabajos mejor pagados, los trabajadores de plataformas colaborativas usan con frecuencia guiones que marcan tareas lucrativas, revisan reseñas de solicitantes de tareas o se unen a plataformas mejor pagadas que examinan a los trabajadores y solicitantes.

CloudResearch comenzó a desarrollar un detector ChatGPT interno el año pasado después de que sus fundadores vieron el potencial de la tecnología para socavar su negocio.

La herramienta implica capturar pulsaciones de teclas, hacer preguntas a las que ChatGPT responde de manera diferente a las personas y vincular a los humanos para revisar las respuestas de texto de forma libre.

Otros argumentan que los investigadores deberían encargarse de establecer la confianza. Si los trabajadores confían en que aún recibirán el pago, los solicitantes podrían simplemente preguntar al final de una encuesta si el participante usó ChatGPT.

Podría ser más productivo considerar cómo los trabajadores de plataformas colaborativas mal pagados podrían incentivar el uso de herramientas como ChatGPT.

Por ejemplo, investigadores de la Universidad californiana de Stanford https://hci.stanford.edu/publications/2019/fairwork/fairwork-hcomp2019.pdf desarrollaron una línea de código que rastrea cuánto tiempo lleva una micro tarea, para que los solicitantes puedan calcular cómo pagar un salario mínimo.

La sospecha inspirada en ChatGPT podría dificultar las cosas para los trabajadores de las plataformas colaborativas, que ya deben estar atentos a las estafas de phishing que recopilan datos personales a través de tareas falsas y dedican tiempo no remunerado a realizar pruebas de calificación.

Después de que un repunte en los datos de baja calidad en 2018 desencadenara el pánico de los bots en Mechanical Turk, aumentó la demanda de herramientas de vigilancia para garantizar que los trabajadores fueran quienes decían ser.

Plataformas de trabajo colectivo que examinan a los participantes y solicitantes comenzaron a trabajar en un producto para identificar a los usuarios de ChatGPT y educarlos o eliminarlos.

Sin embargo, en el caso de estas plataformas que se encuentran en Europa, deben mantenerse dentro de los límites de las leyes de privacidad del Reglamento General de Protección de Datos de la UE.

Algunas herramientas de detección podrían ser bastante invasivas si no se realizan con el consentimiento de los participantes.

Los detectores también pueden ser inexactos y pueden volverse menos efectivos a medida que los generadores de texto de ChatGPT y similares siguen mejorando.

Las herramientas populares a menudo no identifican correctamente el texto escrito por IA y los falsos positivos corren el riesgo de castigar a los trabajadores honestos.

Los académicos suizos detrás del reciente estudio viral sobre trabajadores de plataformas colaborativas y ChatGPT descubrieron que un detector funcionó mal y, en cambio, construyeron su propio sistema para detectar el uso de ChatGPT que involucraba el registro de pulsaciones de teclas, que, según reconocieron, podría infringir la privacidad del usuario si no se maneja adecuadamente.

La sospecha o la incertidumbre acerca de que los trabajadores de las plataformas colaborativas recurran a la IA en busca de ayuda podría incluso hacer que disminuya la cantidad de trabajo.

Si los tramposos que usan IA producen datos que satisfacen lo que busca un investigador, es posible que los estudios deban rediseñarse o realizarse fuera de línea.

Las consecuencias de no detectar las trampas asistidas por IA pueden ser significativas. Los datos erróneos podrían distorsionar nuestra comprensión del mundo al ingresar en investigaciones publicadas, o incluso distorsionar los futuros sistemas de inteligencia artificial, que a menudo se crean utilizando datos de trabajadores de plataformas colaborativas que se supone que son precisos.

La solución puede estar en gran medida en el ámbito humano. Generar confianza es mucho más simple que participar en una carrera armamentista de IA con algoritmos más sofisticados para detectar texto generado por IA cada vez más sofisticado.

Los entrenadores de su principal amenaza laboral

Los datos de los empleados con mejor desempeño pueden crear ayudantes de IA que aumenten la productividad de todos, pero también generen nuevas preocupaciones sobre el pago justo.

En el año 2020, agentes de un servicio al cliente, en su mayoría con sede en Filipinas, se convirtieron en conejillos de indias en un experimento que ponía a prueba una pregunta que para 2023 es urgente: ¿puede un asistente de IA basado en la tecnología de generación de texto de OpenAI hacer que los trabajadores sean más productivos?

El asistente automatizado ofreció a los agentes respuestas sugeridas a los propietarios de pequeñas empresas que buscaban soporte técnico.

El bot había sido entrenado en chats de clientes anteriores, con un énfasis especial en las respuestas de los mejores.

Cuando los investigadores del Instituto de Tecnología de Massachusetts (MIT, sigla en inglés) y Stanford analizaron los resultados, la herramienta de IA había aumentado la productividad del equipo de soporte en un 14 por ciento.

Los investigadores que realizaron el estudio advirtieron que los resultados plantearon una nueva pregunta provocativa: ¿deberían ser compensados ​​los mejores trabajadores cuyos chats entrenaron al bot?

En un mundo sin chatbots de IA, eso crearía lo que los economistas llaman productividad. Pero en la era ChatGPT también produce datos valiosos.

Ahora que los datos se pueden usar para resolver los problemas de otras personas, la misma respuesta ha generado más resultados. Es importante encontrar una manera de medir y compensar eso.

Sería de interés para un empleador encontrar una manera de recompensar a los trabajadores cuyos datos permiten sistemas de inteligencia artificial que aumentan la productividad.

Después de todo, los empleadores necesitarán mentes agudas para quedarse y continuar alimentando el modelo.

Casi no hay situación comercial en la que no haya nuevos problemas. Por lo tanto, se necesita a esos empleados de alto rendimiento para continuar generando esas mejores prácticas en el futuro.

La cuestión de si los trabajadores deben ser compensados ​​cuando sus datos ayudan a entrenar un sistema de IA para hacer su trabajo es un ejemplo de las preocupaciones sobre la forma en que se crean las herramientas de IA generativa como ChatGPT o los generadores de imágenes como Dall-E.

Las palabras o imágenes necesarias para entrenar estos sistemas fueron creadas por personas que pueden perder cuando el sistema de IA está completo.

Programadores y artistas demandan a las empresas de inteligencia artificial, alegando que su trabajo con derechos de autor se utilizó sin su permiso.

Pero, ¿qué sucede si la empresa que captura el valor de sus datos es su propio empleador? ¿Y si cuanto mejor sea en su trabajo, más valiosos se vuelven sus datos?

El estudio del MIT y Stanford muestra cómo podrían surgir tensiones similares dentro de las empresas que utilizan herramientas de IA generativa, e incluso entre los trabajadores.

Los agentes de servicio al cliente trabajaban para una empresa de software empresarial Fortune 500 que los investigadores no tenían permiso para nombrar.

Los empleados brindaron soporte basado en chat a las pequeñas y medianas empresas de EE. UU. para lidiar con problemas administrativos como la nómina y los impuestos, un trabajo que era estresante e involucraba interacciones frecuentes con clientes molestos, lo que provocaba una alta rotación en el equipo de soporte.

Como resultado, la empresa dedicó mucho tiempo a capacitar a los nuevos trabajadores contratados para reemplazar a los que renunciaron.

Muchas de las habilidades necesarias eran lo que los investigadores llamaron “conocimiento tácito”, un conocimiento experiencial que no se puede codificar fácilmente pero que los grandes modelos de lenguaje pueden absorber de los registros de chat y luego imitar.

El bot de la empresa ayudó con las habilidades técnicas y sociales, señalando a los agentes documentos técnicos relevantes y sugiriendo frases ingeniosas para calmar a los clientes furiosos. Por ejemplo, “¡feliz de ayudarlo a solucionar esto lo antes posible!”

Después de que el bot comenzó a ayudar, la cantidad de problemas que el equipo resolvió por hora aumentó un 14 por ciento.

Además, las probabilidades de que un trabajador renuncie en un mes determinado se redujeron en un 9 por ciento, y las actitudes de los clientes hacia los empleados también mejoraron.

La compañía también vio una disminución del 25 por ciento en los clientes que solicitaron hablar con un gerente.

Pero cuando los investigadores desglosaron los resultados por nivel de habilidad, encontraron que la mayoría de los beneficios del chatbot se acumularon para los trabajadores menos calificados, quienes vieron un aumento de productividad del 35 por ciento.

Los trabajadores más calificados no vieron ganancias e incluso vieron que sus puntajes de satisfacción del cliente bajaron levemente, lo que sugiere que el bot puede haber sido una distracción.

Mientras tanto, el valor de ese trabajo altamente calificado se multiplicó a medida que el asistente de IA dirigía a los trabajadores menos calificados a usar las mismas técnicas.

Hay razones para dudar de que los empleadores recompensen ese valor por su propia cuenta. Existe el antecedente histórico del taylorismo, un sistema de productividad desarrollado a fines del siglo XIX por un ingeniero mecánico llamado Frederick Taylor y luego adoptado en las fábricas de automóviles de Henry Ford.

Usando un cronómetro, Taylor dividió los procesos físicos en sus componentes para determinar la forma más eficiente de completarlos.

Prestó especial atención a los trabajadores más calificados en un oficio para poder lograr que los trabajadores menos calificados trabajen de la misma manera.

Ahora, en lugar de un ingeniero exigente con un cronómetro, las herramientas de aprendizaje automático pueden recopilar y difundir las mejores prácticas de los trabajadores.

Eso no funcionó tan bien para algunos empleados en la era de Taylor. Sus métodos se asociaron con la disminución de los ingresos de los trabajadores más calificados, porque las empresas podían pagar a los empleados menos calificados para que hicieran el mismo tipo de trabajo.

Incluso si seguían siendo necesarios algunos trabajadores de alto rendimiento, las empresas necesitaban menos y la competencia entre ellos aumentó.

Según algunas versiones, eso desempeñó un papel bastante importante en el desencadenamiento de la sindicalización entre todos estos trabajadores menos calificados o medianamente calificados en la década de 1930.

Sin embargo, surgieron algunos esquemas menos punitivos. Uno de los partidarios de Taylor, el ingeniero mecánico Henry Gantt (el creador de los famosos gráficos ) creó un sistema que pagaba a todos los trabajadores un salario mínimo pero ofrecía bonificaciones a aquellos que también alcanzaban objetivos adicionales.

Incluso si los empleadores se sienten incentivados a pagar una prima a los empleados de alto rendimiento por enseñar sistemas de IA, o si los empleados lo ganan por sí mismos, dividir el premio de manera justa puede ser complicado.

Por un lado, los datos pueden agruparse desde varios lugares de trabajo y enviarse a una empresa de inteligencia artificial que construye un modelo y lo vende a empresas individuales.

Pero una empresa que quisiera intentarlo podría recurrir a un concepto de la teoría de juegos. Se puede usar para determinar la participación justa en las ganancias cuando varios jugadores contribuyen con diferentes cantidades a un logro grupal y se ha usado para compensar a los pacientes por compartir datos médicos de diferentes valores con los investigadores.

Esta técnica es costosa y por esa razón aún no se ha aplicado a un modelo de lenguaje como el sistema complejo de aprendizaje automático detrás de bots como ChatGPT.

Si los chatbots como el que se probó en el estudio del MIT y Stanford se vuelven comunes, algunos trabajadores podrían usar su propio poder para impulsar nuevos enfoques de compensación.

Para más info: https://www.telextorage.com/contacto/