El reto de probar plagio con IA

Caso de universitaria en Puerto Rico

por: Glorimar Velázquez
El Vocero

Académicos coinciden en que las herramientas digitales
pueden fallar, por lo que aconsejan tener cuidado al evaluar a estudiantes

 

María (nombre ficticio para proteger su identidad) asegura que terminó en el hospital luego de que su profesora la acusara de plagio en un trabajo como parte de su bachillerato en línea.

“Quiero comunicarle que todos sus trabajos han sido procesados por una plataforma de inteligencia artificial y se ha encontrado que tiene un 93% de plagio”, fue la comunicación que la universitaria alega que recibió a través de Blackboard, una plataforma de tecnología educativa.

“Yo no sé ni navegar en las redes. Yo regreso a la universidad después de 28 años a terminar mi bachillerato y desconozco de esas tecnologías”, asegura la mujer de 56 años.

Tras la comunicación, dijo que comenzó un intercambio de mensajes con la profesora durante tres horas: desde las 6:30 de la tarde hasta las 9:30 de la noche. Entonces decidió contactar a su consejera de rehabilitación vocacional y a varios directores de la institución para plantearles la situación.

“Fue bien fuerte. A las 10 de la noche me subió la presión”, contó, y señaló que tuvo que recibir atención médica.

Explicó que al día siguiente, la profesora le envió una disculpa “comprendiendo que era yo quien realizaba mis tareas porque de la forma que procedí a escribirle y comunicarme con los diferentes directores, entendió que utilizaba el mismo lenguaje, pero fue un mal rato”.

Para María, todo esto sucedió porque, a su juicio, hay profesores que no quieren pasar trabajo de evaluar a sus alumnos y prefieren utilizar una plataforma.

Por su parte, el catedrático en tecnología educativa en el Recinto Universitario de Mayagüez José Ferrer aclaró que identificar el uso de inteligencia artificial en un escrito no es plagio, porque ese concepto se refiere a utilizar las palabras o ideas de una persona sin darles crédito. Recalcó que la inteligencia artificial no es una persona.

“Legalmente, plagio no es, puede ser una falta ética si la universidad prohibió el uso de inteligencia artificial, pero el problema es que el estudiante sale con deficiencias, no domina una tecnología que ahora es estándar en el mercado y se crea esa brecha entre los que la usan para aprender versus los que no la usan”, señaló el también autor del libro: Cómo diseñar experiencias de aprendizaje en la era de inteligencia artificial.

Según Ferrer, no existe una tecnología o aplicación fiable que identifique inteligencia artificial en el texto. “Los documentos de investigación dicen que no sirven. Y esa acusación no se sostiene en ningún tribunal”, alertó el catedrático del RUM.

Agregó que los sistemas disponibles utilizan patrones, eso significa que, “por ejemplo, los seres humanos cometemos errores, si la persona escribe muy bien, la tecnología de detección va a decir que hay una alta incidencia de que se utilizó inteligencia artificial”.

Por esa razón, relató que lleva un año recomendándole a los docentes que no utilicen ese tipo de plataformas para detectar uso de inteligencia artificial bajo ninguna circunstancia y que no acusen directamente a un estudiante porque en los términos y condiciones de esas plataformas dice que se pueden equivocar.

En caso de que un estudiante sea acusado injustamente, Ferrer indicó que la Middle States Commission on Higher Education establece que todas las universidades deben tener un área visible en las páginas web sobre querellas o reclamaciones que pueden hacer los estudiantes.

Las plataformas de inteligencia artificial siguen aprendiendo, la forma en que estas plataformas funcionan es que se han alimentado de lo que hay en internet y han aprendido cómo los seres humanos escriben y siguen alimentando los patrones y cada vez es más difícil porque incluso hasta entienden nuestros errores. Va aprendiendo nuestras virtudes y defectos, por lo tanto, identificar que salió de algún lugar es más difícil porque cada vez se parece más a nosotros y va personalizándose dependiendo del usuario. Mientras más yo utilice la plataforma, más me va a conocer y a parecerse a mí”, apuntó.

En ese sentido, recalcó que es necesario educar sobre el uso ético de estas herramientas.

“Ir detrás de un sistema que identifique el uso de IA es la estrategia equivocada porque hoy adquirimos un software, pero mañana aparece otra tecnología para burlar esa detección. Nuestra prioridad no está en la detección a través de un software, sino promover la honestidad académica de los estudiantes y que los profesores enseñen a hacer un buen uso de la inteligencia artificial, que es el mejor enfoque para trabajar con ella”, mencionó Vélez.

De manera similar se expresó la profesora de la Escuela de Derecho de la Universidad de Puerto Rico Paola Zaragoza.

“Conozco que existen herramientas para identificar plagio, pero no son las mejores porque te detectan plagio hasta en tu nombre. Es un arma de doble filo, donde en el intento de identificar el uso de inteligencia artificial, puede cometer errores”, apuntó la profesora.

La educadora agregó que es indispensable que los profesores sean empáticos con los estudiantes antes de tomar alguna determinación.

“Yo le recomiendo a los profesores que lo tomen con mucha inteligencia emocional y lo digo en el sentido de ser empáticos. Uno rápido asume que los estudiantes son vagos, pero quizá están pasando por una situación que no le quedó de otra que utilizar la inteligencia artificial, o porque es su manera de estudiar porque es más visual o auditiva. Hay que ver las circunstancias y si fue de mala fe, pues que se tomen las sanciones necesarias”, puntualizó Zaragoza, quien se especializa en cursos de derechos de autor.

Enlace a la noticia

Deja un comentario

Gracias por usar este servicio