En un artículo de opinión publicado el 10 de julio en la revista Patrones, los investigadores muestran que los programas informáticos comúnmente utilizados para determinar si un texto fue escrito por IA tienden a etiquetar falsamente los artículos escritos por hablantes no nativos como generados por IA. Los investigadores advierten contra el uso de tales detectores de texto de IA debido a su falta de confiabilidad, lo que podría tener un impacto negativo en las personas, incluidos los estudiantes y los solicitantes de empleo.
“Ahora recomendamos que tengamos mucho cuidado y tal vez tratemos de evitar el uso de estos detectores tanto como sea posible”, dice el autor principal James Zou de la Universidad de Stanford. “Esto puede tener graves consecuencias si estos detectores se utilizan para revisar cosas como solicitudes de empleo, ensayos de ingreso a la universidad o tareas de la escuela secundaria”.
Las herramientas de IA como el chatbot ChatGPT OpenAI pueden editar ensayos, resolver problemas de ciencias y matemáticas y crear código de computadora. Los docentes de los EE. UU. están cada vez más preocupados por el uso de la IA en el trabajo de los alumnos, y muchos han comenzado a utilizar detectores GPT para verificar el trabajo de los alumnos. Estos detectores son plataformas que afirman poder determinar si el texto es generado por IA, pero su confiabilidad y efectividad aún no se han probado.
Zou y su equipo probaron siete detectores GPT populares. Ejecutaron 91 ensayos en inglés escritos por hablantes no nativos de inglés a través de detectores como parte de una prueba de dominio del inglés ampliamente reconocida llamada Test of English as a Foreign Language, o TOEFL. Estas plataformas etiquetaron erróneamente más de la mitad de los ensayos como generados por IA, y un detector marcó casi el 98 % de esos ensayos como escritos por IA. En comparación, los detectores pudieron clasificar correctamente más del 90% de los ensayos escritos por estudiantes de octavo grado en los EE. UU. como hechos por el hombre.
Zou explica que los algoritmos de estos detectores funcionan evaluando la vergüenza del texto, que es una sorprendente elección de palabras en el ensayo. “Si usa palabras comunes en inglés, los detectores darán una puntuación de perplejidad baja, lo que significa que mi ensayo probablemente se marcará como generado por IA. Si usa palabras complejas y más elegantes, es más probable que los algoritmos las clasifiquen como escritas por humanos, dice. Esto se debe a que los modelos de idiomas grandes como ChatGPT están capacitados para generar texto de baja confusión para simular mejor la forma en que habla la persona promedio, agrega Zou.
Como resultado, las elecciones de palabras más simples adoptadas por escritores no nativos en inglés harían más probable que se los etiquetara como usuarios de IA.
Luego, el equipo colocó ensayos TOEFL escritos por personas en ChatGPT y los alentó a editar el texto usando un lenguaje más sofisticado, incluido el reemplazo de palabras simples con vocabulario complejo. Los detectores GPT marcaron estos ensayos editados por IA como escritos por un humano.
“Debemos tener mucho cuidado al usar cualquiera de estos detectores en un entorno escolar porque todavía hay muchos sesgos y es fácil engañarlos con una cantidad mínima de diseño rápido”, dice Zou. El uso de detectores GPT también puede tener implicaciones más allá del sector educativo. Por ejemplo, los motores de búsqueda como Google están devaluando el contenido generado por IA, lo que puede silenciar inadvertidamente a los escritores que no hablan inglés.
Si bien las herramientas de IA pueden tener un impacto positivo en el aprendizaje de los estudiantes, los detectores GPT deben mejorarse y evaluarse aún más antes de usarlos. Zou dice que entrenar estos algoritmos con tipos de escritura más diversos podría ser una forma de mejorar estos detectores.
Más información:
James Zou, los detectores GPT están sesgados hacia los escritores no nativos de inglés, Patrones (2023). DOI: 10.1016/j.patter.2023.100779. www.cell.com/patterns/fulltext … 2666-3899(23)00130-7