
La inteligencia artificial ya forma parte de las aulas universitarias. Herramientas como ChatGPT se han convertido en compañeras habituales de estudio: ayudan a redactar textos, generar ideas o entender conceptos complejos. ¿Quiénes no la usan todavía, y por qué?
En nuestro estudio con 737 estudiantes de grado comprobamos que un 70 % de ellos ya lo están usando cotidianamente. Aprecian especialmente la rapidez y la facilidad de la herramienta. Les ayuda a organizar ideas, aclarar dudas y ahorrar tiempo en tareas que de otro modo serían más largas o tediosas. La perciben como un tutor disponible las 24 horas, capaz de explicar de otra manera lo que no entienden en clase.
Los riesgos que frenan su uso
La mayoría del alumnado que participó en la encuesta percibe riesgos en el uso de ChatGPT, tanto a ser acusado de plagio como a recibir información dudosa o falsa o infringir las normas académicas de su universidad. Otras cuestiones que preocupan en menor medida a los estudiantes son el hecho de que la utilización de esta herramienta no esté regulada y la falta de protección de datos y privacidad.
Estos riesgos percibidos resultan decisivos a la hora de optar por usar o no usar ChatGPT. Para el alumnado más consciente de los riesgos, la herramienta deja de percibirse como una ayuda y se convierte en algo que prefieren mantener a distancia. Cuanto más conscientes son de los riesgos, menos la utilizan.
Leer más: ¿Tienen los días contados los trabajos fin de estudio tal y como los conocemos?
La importancia de la honestidad académica
¿Por qué hay estudiantes que son más sensibles a estos riesgos? En la universidad española, por ejemplo, todavía no existen normas claras ni formación específica sobre el uso de la IA, como hemos analizado en un trabajo reciente. Sin embargo, nuestra hipótesis es que la diferencia no se explica solo por factores externos como la falta de regulación, sino también por algo más interno: la propia percepción del alumnado sobre lo que es honesto y lo que no lo es en el ámbito académico.
La llamada percepción de deshonestidad académica se refiere a las creencias éticas del alumnado sobre qué comportamientos consideran aceptables o inaceptables en su vida universitaria. Estos serían, por ejemplo, hacer trampa en un examen (con chuletas o dispositivos electrónicos), mentir para obtener ventajas académicas (como pedir una prórroga con una excusa falsa) o presentar como propio un trabajo que en realidad ha sido elaborado por otra persona.
Leer más: Escribir en la universidad en la era de la inteligencia artificial
El 83 % del alumnado considera deshonesto o muy deshonesto este tipo de comportamientos académicos. Y dentro de este grupo, se observa una correlación llamativa: quienes más desaprueban prácticas poco éticas en el ámbito universitario como copiar en un examen o entregar como propio el trabajo de otra persona, tienden a percibir más riesgos en el uso de ChatGPT. Y esa percepción se traducía en una menor frecuencia de uso y en una baja intención de seguir utilizándolo en el futuro.
El uso de ChatGPT como una decisión ética
Nuestros resultados muestran que, antes de decidir si usar ChatGPT, el alumnado sopesa ventajas y riesgos. En un lado de la balanza colocan la rapidez y la facilidad; en el otro, la privacidad, la calidad de las respuestas o el temor a sanciones académicas. Lo que inclina la balanza no es solo el peso de cada argumento, sino la mirada con que se juzgan. La brújula ética de cada estudiante amplifica los riesgos o, por el contrario, los minimiza, y acaba orientando la decisión final.
Este hallazgo conduce a una conclusión importante: el reto de las universidades será acompañar esa brújula ética individual con normas institucionales claras y formación específica. Esto puede traducirse, por ejemplo, en protocolos sobre el uso de la IA en las diferentes asignaturas y trabajos académicos o en cursos y talleres que enseñen a emplear estas herramientas de manera crítica y responsable.
Elaborar normas colaborativamente
Para ilustrar cómo puede abordarse este reto en la práctica, diseñamos un taller sobre inteligencia artificial generativa para alumnado universitario. Se llevaron a cabo encuestas en vivo, debates sobre mitos y la elaboración colectiva de normas de uso responsable. El 72,8 % afirmó sentirse más preparado para usar la IA de manera correcta y responsable.
Este tipo de iniciativas no solo informan al alumnado y le enseñan a usar mejor la herramienta, sino que también fortalecen su brújula ética. Le ayudan a aprovechar el potencial de la inteligencia artificial sin perder de vista la integridad académica que sostiene la vida universitaria. Lo importante no es tanto lo que la IA es capaz de hacer, sino las decisiones que tomamos sobre cómo queremos usarla en la universidad.
Este artículo fue publicado originalmente en The Conversation, un sitio de noticias sin fines de lucro dedicado a compartir ideas de expertos académicos.
Lee mas:
- ¿Usar ChatGPT para redactar el trabajo de fin de grado es copiar?
- Cinco maneras distintas de evaluar en tiempos de la inteligencia artificial
- Se puede aprender mejor en la universidad con la inteligencia artificial
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.