Cuando el profesor de filosofía Darren Hick se encontró con otro caso de trampa en su salón de clases en la Universidad de Furman el semestre pasado, publicó una actualización para sus seguidores en las redes sociales: “Aaaay, atrapé a mi segundo plagiario de ChatGPT”.
Amigos y colegas respondieron, algunos con emojis de ojos abiertos. Otros expresaron sorpresa.
“¡¿Solo 2?! He atrapado docenas”, dijo Timothy Main, profesor de escritura en Conestoga College en Canadá. “Estamos en modo de crisis total”.
Prácticamente de la noche a la mañana, ChatGPT y otros chatbots de inteligencia artificial se han convertido en la fuente de referencia para hacer trampa en la universidad.
Ahora, los educadores están reconsiderando cómo impartirán cursos este otoño, desde Escritura 101 hasta Ciencias de la Computación. Los educadores dicen que quieren aprovechar el potencial de la tecnología para enseñar y aprender de nuevas maneras pero cuando se trata de evaluar a los estudiantes, ven la necesidad de hacer preguntas y tareas de prueba “a prueba de ChatGPT”.
Para algunos instructores, eso significa volver a los exámenes en papel, después de años de pruebas solo digitales. Algunos profesores requerirán que los estudiantes muestren el historial de edición y los borradores para probar su proceso de pensamiento. Otros instructores están menos preocupados. Algunos estudiantes siempre han encontrado formas de hacer trampa, dicen, y esta es solo la última opción.
Una explosión de chatbots generados por IA, incluido ChatGPT, que se lanzó en noviembre, planteó nuevas preguntas para los académicos dedicados a asegurarse de que los estudiantes no solo obtengan la respuesta correcta, sino que también entiendan cómo hacer el trabajo. Los educadores dicen que hay acuerdo al menos en algunos de los desafíos más apremiantes.
¿Son confiables los detectores de ChatGPT?
Todavía no, dice Stephanie Laggini Fiore, vicerrectora asociada de la Universidad de Temple. Este verano, Fiore formó parte de un equipo en Temple que probó el detector utilizado por Turnitin, un popular servicio de detección de plagio, y descubrió que era “increíblemente inexacto”. Funcionó mejor para confirmar el trabajo humano, dijo, pero fue irregular para identificar el texto generado por chatbot y menos confiable con el trabajo híbrido.
¿Se acusará a los estudiantes de usar chatbots como ChatGPT para hacer trampa?
Absolutamente. En un caso el semestre pasado, un profesor de Texas A&M acusó erróneamente a toda una clase de usar ChatGPT en las tareas finales. La mayor parte de la clase fue posteriormente exonerada.
Entonces, ¿cómo pueden estar seguros los educadores si un estudiante ha usado un chatbot impulsado por IA de manera deshonesta? Es casi imposible a menos que un estudiante confiese, como lo hicieron los dos estudiantes de Hicks. A diferencia del plagio de la vieja escuela, donde el texto coincide con la fuente de la que se extrajo, el texto generado por IA es único cada vez.
En algunos casos, las trampas son obvias, dice Main, el profesor de redacción, que ha hecho que los estudiantes entreguen tareas que claramente eran trabajos de cortar y pegar. “Recibí respuestas que decían: ‘Solo soy un modelo de lenguaje de IA, no tengo una opinión al respecto’”, dijo.
En su clase de escritura obligatoria de primer año el semestre pasado, Main registró 57 problemas de integridad académica, una explosión de deshonestidad académica en comparación con los ocho casos en cada uno de los dos semestres anteriores. El engaño de la IA representó aproximadamente la mitad de ellos.
Este otoño, Main y sus colegas están revisando el curso de escritura requerido por la escuela para estudiantes de primer año. Las asignaciones de escritura serán más personalizadas para alentar a los estudiantes a escribir sobre sus propias experiencias, opiniones y perspectivas. Todas las tareas y los programas del curso tendrán reglas estrictas que prohíban el uso de Inteligencia Artificial.
Los administradores universitarios han estado alentando a los instructores a aclarar las reglas básicas.
Muchas instituciones están dejando la decisión de usar chatbots o no en el aula a los instructores, dijo Hiroano Okahana, director del Laboratorio de Futuros de la Educación en el Consejo Estadounidense de Educación.
En la Universidad Estatal de Michigan, los docentes reciben “una pequeña biblioteca de enunciados” para elegir y modificar los planes de estudio como mejor les parezca, dijo Bill Hart-Davidson, decano asociado de la Facultad de Artes y Letras de la MSU, quien dirige talleres de IA para docentes para ayudar a dar forma a nuevas asignaciones y políticas.
“Hacer preguntas a los estudiantes como, ‘Dime en tres oraciones, ¿cuál es el ciclo de Krebs en química?’ Eso ya no va a funcionar, porque ChatGPT dará una respuesta perfecta a esa pregunta”, dijo Hart-Davidson, quien sugiere hacer las preguntas de manera diferente. Por ejemplo, proporcione una descripción que tenga errores y pida a los alumnos que los señalen.
ChatGPT ha transformado la forma de buscar información
Se está acumulando evidencia de que los chatbots han cambiado los hábitos de estudio y la forma en que los estudiantes buscan información.
Chegg Inc., una empresa en línea que ofrece ayuda con la tarea y ha sido citada en numerosos casos de trampas, vio caer sus acciones casi un 50 por ciento en un solo día en mayo después de que su director ejecutivo, Dan Rosensweig, advirtiera que ChatGPT estaba perjudicando su crecimiento. Dijo que los estudiantes que normalmente pagan por el servicio de Chegg ahora estaban usando la plataforma AI de ChatGPT de forma gratuita.
En Temple esta primavera, el uso de herramientas de investigación, como las bases de datos de las bibliotecas, disminuyó notablemente tras la aparición de los chatbots, dijo Joe Lucia, decano de bibliotecas de la universidad.
“Parecía que los estudiantes estaban viendo esto como una forma rápida de encontrar información que no requería el esfuerzo o el tiempo que se necesita para ir a un recurso dedicado y trabajar con ella”, dijo.
Atajos como ese son una preocupación en parte porque los chatbots son propensos a inventar cosas, un problema técnico conocido como “alucinación”. Los desarrolladores dicen que están trabajando para hacer que sus plataformas sean más confiables, pero no está claro cuándo o si eso sucederá. Los educadores también se preocupan por lo que los estudiantes pierden al saltarse pasos.
“Va a haber un gran cambio hacia las pruebas en papel”, dijo Bonnie MacKellar, profesora de informática en la Universidad de St. John en la ciudad de Nueva York. La disciplina ya tenía un “problema de plagio masivo” con estudiantes que tomaban prestado el código de computadora de amigos o lo copiaban de Internet, dijo MacKellar. Le preocupa que los estudiantes de nivel introductorio que toman atajos de IA se estén engañando a sí mismos con las habilidades necesarias para las clases de nivel superior.
“Escucho a colegas en cursos de humanidades decir lo mismo: se volvió a los libros azules”, dijo MacKellar. Además de exigir a los estudiantes en sus cursos de introducción que escriban a mano su código, los exámenes en papel contarán para un mayor porcentaje de la calificación este otoño, dijo.
Ronan Takizawa, estudiante de segundo año en Colorado College, nunca ha oído hablar de un libro azul. Como estudiante de ciencias de la computación, eso se siente como retroceder, pero está de acuerdo en que obligaría a los estudiantes a aprender el material. “La mayoría de los estudiantes no son lo suficientemente disciplinados como para no usar ChatGPT”, dijo. Los exámenes en papel “realmente te obligarían a comprender y aprender los conceptos”.
Takizawa dijo que los estudiantes a veces están confundidos acerca de cuándo está bien usar IA y cuándo es trampa. Usar ChatGPT para ayudar con ciertas tareas, como resumir la lectura, no parece diferente de ir a YouTube u otros sitios que los estudiantes han usado durante años, dijo.
Otros estudiantes dicen que la llegada de ChatGPT los ha vuelto paranoicos acerca de ser acusados de hacer trampa cuando no lo han hecho.
El estudiante de segundo año de la Universidad Estatal de Arizona, Nathan LeVang, dice que ahora verifica dos veces todas las tareas al pasarlas por un detector de IA.
Para un ensayo de 2000 palabras, el detector marcó ciertos párrafos como “22 por ciento escritos por un humano, en su mayoría con voz de IA”.
“Yo estaba como, ‘Eso definitivamente no es cierto porque simplemente me senté aquí y lo escribí palabra por palabra’”, dijo LeVang. Pero reescribió esos párrafos de todos modos. “Si me toma 10 minutos después de escribir mi ensayo para asegurarme de que todo sale bien, está bien. Es trabajo extra, pero creo que esa es la realidad en la que vivimos”.