Validación de un instrumento para medir el uso académico de la IAGen en estudiantes universitarios

 

 

 

 

 

Validation of an instrument to measure the academic use of IAGen in university students

 

 

 

 

Icono

Descripción generada automáticamente Dr. Gilberto Abelino Trejo-Trejo. Universidad Tecnológica de la Selva. México.

Icono

Descripción generada automáticamente Dr. Emmanuel Gordillo-Espinoza. Universidad Tecnológica de la Selva. México.

 

 

 

 

 

 

 

 

 

 

 

 

 

Recibido: 2025/09/13 Revisado: 2025/11/07 Aceptado: 2025/11/30 Publicado: 2026/01/01

 

 

Cómo citar este artículo:

Trejo-Trejo, G.A. & Gordillo-Espinoza, E. (2026). Validación de un instrumento para medir el uso académico de la IAGen en estudiantes universitarios [Validation of an Instrument to Measure the Academic Use of Generative Artificial Intelligence (GenAI) in University Students]. Pixel-Bit, Revista de Medios y Educación, 75, Art. 7. https://doi.org/10.12795/pixelbit.117960

 

 

 

 

 

 

 

 

 

RESUMEN

Este estudio tuvo como objetivo diseñar y validar un instrumento para medir el uso académico de la Inteligencia Artificial Generativa (IAGen) en estudiantes de educación superior. La investigación se desarrolló en la Universidad Tecnológica de la Selva, en el sureste de México, con una muestra intencionada de 905 estudiantes de diversas divisiones académicas. El instrumento inicial fue elaborado a partir de un marco teórico sobre competencias digitales e inteligencia artificial, sometido al juicio de nueve expertos y a una prueba piloto. Posteriormente, se aplicaron análisis factorial exploratorio y confirmatorio para determinar la estructura del instrumento. Los resultados evidenciaron una solución de siete dimensiones con 42 ítems, que explicó el 64 % de la varianza total, con índices de ajuste adecuados (CFI = .90; TLI = .90; RMSEA = .06; SRMR = .04) y una alta consistencia interna (α=.84 y ω=.94). Se concluye que el instrumento presenta validez y confiabilidad satisfactorias, aunque se recomienda replicar el estudio en diferentes contextos institucionales para examinar la invariancia factorial y la estabilidad temporal.

 

 

 

 

 

 

 

 

 

ABSTRACT

This study aimed to design and validate an instrument to measure the academic use of generative artificial intelligence (GenAI) among higher education students. The research was conducted at the Universidad Tecnológica de la Selva, located in southeastern Mexico, with a purposive sample of 905 students from various academic divisions. The initial instrument was developed from a theoretical framework on digital competence and artificial intelligence, reviewed by nine expert judges, and pilot-tested. Exploratory and confirmatory factor analyses were applied to determine the instrument’s structure. Results revealed a seven-dimension model comprising 42 items, explaining 64% of the total variance, with acceptable goodness-of-fit indices (CFI = .90; TLI = .90; RMSEA = .06; SRMR = .04) and high internal consistency (α= .84 and ω= .94). It is concluded that the instrument demonstrates adequate validity and reliability for assessing students’ academic engagement with GenAI. However, replication in different institutional contexts is recommended to test factorial invariance and temporal stability, ensuring broader applicability in higher education settings.

 

 

 

 

 

 

 

PALABRAS CLAVES· KEYWORDS

Inteligencia artificial; tecnología educativa; educación superior; instrumento de medida; percepción

Artificial intelligence; educational technology; higher education; measuring instrument; perception

 

 

 

1. Introducción

En los últimos años, las herramientas de Inteligencia Artificial (IA) han transformado múltiples ámbitos, incluida la educación, donde se utilizan para mejorar la enseñanza, el aprendizaje y la gestión institucional (Bond et al., 2024; Xia et al., 2024). Russell y Norvig (2021) definen la IA como un campo de estudio que busca desarrollar sistemas capaces de ejecutar tareas que requieren inteligencia humana, como el razonamiento, la percepción y la comprensión del lenguaje natural. Dentro de este campo, la Inteligencia Artificial Generativa (IAGen) constituye un subconjunto con la capacidad de crear contenido nuevo como texto, imágenes, música o código; a partir de datos previamente entrenados (Jovanović & Campbell, 2022). Su potencial transformador en la educación superior ha sido ampliamente reconocido (Peres et al., 2023; Ursavaş et al., 2025), al ofrecer oportunidades de personalización y creatividad en los procesos de enseñanza y aprendizaje (Fan et al., 2025; Francis et al., 2025).

Herramientas como ChatGPT, Gemini y Copilot han adquirido una presencia significativa en universidades por su capacidad para generar contenidos académicos y apoyar la gestión del conocimiento, aunque también plantean desafíos éticos y normativos que exigen una reflexión crítica sobre su impacto educativo (Romeu et al., 2025; Castaño, 2024). A pesar de ello, la literatura empírica sobre cómo los estudiantes universitarios perciben y utilizan estas tecnologías sigue siendo limitada, lo que dificulta comprender la magnitud real de su apropiación y los posibles efectos en la formación académica (Niño-Carrasco et al., 2025; Ruiz et al., 2024).

Diversas revisiones sistemáticas recientes destacan que la IAGen puede favorecer el aprendizaje personalizado y el desarrollo de competencias digitales avanzadas, pero también conlleva riesgos vinculados con la dependencia tecnológica y la calidad de la información generada (Giannakos et al., 2024). En Latinoamérica, este campo de investigación aún es emergente, aunque se observa un interés creciente por validar instrumentos psicométricamente sólidos que evalúen percepciones y actitudes hacia la IAGen (Álvarez-Rebolledo et al., 2019; Maldonado-Suárez & Santoyo-Telles, 2024; Silgado-Tuñón & López-Flores, 2025).

En este contexto, el presente estudio se desarrolló en la Universidad Tecnológica de la Selva (UTSelva), ubicada en el sureste de México, con estudiantes de programas de Técnico Superior Universitario (TSU) y Licenciatura, pertenecientes a las divisiones de Tecnologías de la Información, Administración, Agrobiotecnología, y Turismo y Gastronomía, en modalidad presencial. Este contexto institucional permite explorar la adopción académica de la IAGen en entornos regionales o similares.

El diseño del instrumento se sustentó en un modelo teórico basado en la alfabetización digital, la ética tecnológica y el aprendizaje autónomo asistido por IA, articulando referentes del marco DigCompEdu (Redecker, 2017) y la alfabetización en IA (Long & Magerko, 2020). De estos fundamentos emergen las siete dimensiones del cuestionario: uso académico integral, creación y edición de contenido, autoeficacia percibida, uso ético, acceso y desigualdades, impacto ambiental, y dependencia o adicción. Este modelo permite evaluar no solo el grado de adopción de la IAGen, sino la madurez crítica y reflexiva de los estudiantes frente a su integración educativa.

Así, la validación del instrumento busca contribuir al campo de la innovación educativa mediante una herramienta robusta para diagnosticar y orientar políticas institucionales sobre el uso académico responsable de la inteligencia artificial generativa en educación superior.

 

2. Metodología

2.1. Diseño de investigación

El estudio se enmarcó en un enfoque cuantitativo de tipo instrumental, orientado al análisis de las propiedades psicométricas del cuestionario (Ato et al., 2013). El proceso siguió los estándares internacionales para pruebas educativas y psicológicas (American Educational Research Association, American Psychological Association & National Council on Measurement in Education, 2018), abarcando revisión teórica, juicio de expertos y validación empírica mediante análisis factoriales.

 

2.2. Participantes

La muestra estuvo conformada por 905 estudiantes (460 hombres, 439 mujeres y 6 sin especificar) de la Universidad Tecnológica de la Selva, institución pública del sureste de México con programas de Técnico Superior Universitario (TSU) y Licenciatura en modalidad presencial. Los participantes provenían de las divisiones de Tecnologías de la Información, Administración, Agrobiotecnología y Turismo y Gastronomía. Se utilizó un muestreo no probabilístico intencionado; los criterios de inclusión fueron: estar matriculado en 2025, aceptar voluntariamente participar y completar el cuestionario. Se excluyeron respuestas incompletas o duplicadas.

 

2.3. Instrumento

El instrumento inicial constó de 47 ítems distribuidos en 9 dimensiones, elaborados a partir del modelo teórico descrito en la Introducción. Tras el juicio de nueve expertos (Escobar-Pérez & Cuervo-Martínez, 2008), se eliminaron ítems con valores de V de Aiken < .80 o con observaciones de redundancia o ambigüedad. Como resultado, se obtuvo una versión de 45 ítems para la única prueba piloto. Posteriormente, el análisis factorial exploratorio (AFE) sugirió una estructura de siete dimensiones con 42 ítems, que se mantuvo en la versión final (Tabla 1). La escala de respuesta fue tipo Likert de 5 puntos (1 = Totalmente en desacuerdo, 2 = En desacuerdo, 3 = Ni de acuerdo ni en desacuerdo, 4 = De acuerdo, 5 = Totalmente de acuerdo).

 


Tabla 1

Trazabilidad de versiones del instrumento

Etapa

Número de ítems

Número de dimensiones

Criterios de cambio

Resultado principal

Versión inicial

47

9

Revisión teórica y redacción inicial basada en DigCompEdu y alfabetización en IA

Primera propuesta conceptual

Juicio de expertos

45

9

Eliminación de ítems con V < .80 y redundantes; ajustes de redacción; reubicación de ítems

Versión para prueba piloto

Prueba piloto (AFE)

45

9 → 7

Agrupación de factores afines y eliminación de ítems con cargas < .40

Estructura empírica ajustada

Versión final

42

7

Confirmación de modelo mediante AFC y consistencia interna

Instrumento validado

 

2.4. Procedimiento de validación

Fase 1. Validación de contenido: Para esta fase, el cuestionario de 47 ítems organizados en 9 dimensiones, fue sometido a juicio de 9 expertos o jueces: cinco hombres y cuatro mujeres; la mayoría son de nacionalidad mexicana (siete) y dos son colombianos; en cuanto al grado académico, 6 cuentan con el grado de doctor y tres con el de maestría; las líneas de investigación abarcan minería de datos, inteligencia artificial, innovación educativa, inteligencia artificial generativa, TIC´s y ciencia de datos; la experiencia profesional oscila entre los 12 y 38 años; publicaciones de artículos científicos, entre 4 y 25; lo que refleja un grupo con amplia trayectoria académica y de investigación.

Establecido el contacto con los jueces o expertos, quienes se les solicitó analizar y valorar de manera crítica cada uno de los ítems con respecto a las categorías de claridad, pertinencia, relevancia y suficiencia, utilizando una escala de 4 opciones; también, se les pidió observaciones o sugerencias para mejorar el instrumento, mediante una rúbrica que fue adaptada de Escobar-Pérez y Cuervo-Martínez (2008). Con los resultados obtenidos se calculó el Coeficiente de Validez de Contenido más utilizado en ciencias sociales y educación, la V de Aiken (Aiken, 1985, Escurra, 1988), mediante la siguiente fórmula (Martín-Romera y Molina, 2017):

Donde:  es la media aritmética de las puntuaciones de los jueces.

 es valor mínimo posible en la escala.

 número de categorías en la escala.

Fase 2. Prueba piloto: El tamaño de muestra utilizado se justifica en función de los estándares psicométricos. Sin embargo, cuando se busca aplicar análisis factoriales, diversos autores sugieren entre 5 y 10 sujetos por ítem (Hair et al., 2019; Lloret-Segura et al., 2014). Considerando los 45 ítems iniciales, la muestra ideal debía encontrarse entre 230 y 450 casos. En este estudio se contó con 905 estudiantes, lo cual garantiza un nivel robusto de confiabilidad. Asimismo, el uso del software JASP permitió aplicar modelos de máxima verosimilitud y obtener índices de ajuste ampliamente utilizados en la literatura, con la ventaja de ser una herramienta de acceso abierto que favorece la reproducibilidad.

Se solicitó la aplicación a estudiantes de la Universidad Tecnológica de la Selva, durante un período de 2 semanas, mediante un formulario en Google Forms. Cabe resaltar que en la primera parte del formulario, se destacaron los principios de anonimato, confidencialidad y tratamiento científico de los datos.

Fase 3. Validez de constructo: Se utilizaron el Análisis Factorial Exploratorio (AFE) y Confirmatorio (AFC). La validación del cuestionario se sustentó en criterios psicométricos ampliamente reconocidos, siguiendo recomendaciones internacionales (American Educational Research Association, American Psychological Association y National Council on Measurement in Education, 2018). Asimismo, se consideraron las demandas emergentes en torno al uso académico de la IAGen, donde investigaciones recientes enfatizan la importancia de contar con instrumentos válidos y fiables que midan autoeficacia, ética digital, impacto ambiental y dependencia tecnológica en contextos universitarios (Giannakos et al., 2024; Silgado-Tuñón & López-Flores, 2025).

Fase 4. Confiabilidad: Se calculó el índice de consistencia interna de Cronbach y  de McDonald.

Fase 5. Instrumento final: Se propone un instrumento válido y confiable para conocer la experiencia, habilidades y percepciones del uso académico de la IAGen en estudiantes de educación superior.

Adicionalmente, aunque el presente estudio no incluyó análisis de invariancia factorial ni de estabilidad temporal (testretest), se proyecta su realización en investigaciones posteriores con muestras más amplias y diversas. Estos análisis permitirán verificar si la estructura factorial del instrumento se mantiene constante entre grupos (por género o área académica) y si las puntuaciones son estables en el tiempo. Asimismo, se contempla incorporar estudios de validez convergente y discriminante, orientados a contrastar las dimensiones del cuestionario con constructos teóricamente relacionados y diferenciados. La ejecución de estas fases complementarias fortalecerá la evidencia de validez, generalización y robustez psicométrica del instrumento, consolidando su potencial de aplicación en contextos universitarios variados y comparativos.

 

3. Análisis y resultados

La validez de contenido, evaluada mediante la V de Aiken, mostró valores adecuados en la mayoría de los ítems, con coeficientes entre .80 y .95, lo que evidenció claridad, pertinencia y relevancia en su redacción (Tabla 2).

 

 

Tabla 2

Cálculo del índice V de Aiken por categoría y por cada ítem

Dimensión

Ítem

Claridad

Coherencia

Relevancia

Suficiencia

1. Búsqueda y gestión de la información

1

0.93

0.93

0.89

0.89

2

0.81

0.85

0.89

3

0.85

0.81

0.85

4

0.81

0.81

0.89

5

0.89

0.89

0.93

6

0.93

0.93

0.96

7

0.96

0.93

0.89

2. Tutoría y asistencia académica

8

0.85

0.85

0.85

0.89

9

0.93

0.89

0.96

10

0.93

0.96

0.89

11

0.85

0.85

0.85

3. Creación y edición de contenido

12

0.93

0.85

0.96

0.93

13

0.93

0.78*

0.85

14

0.89

0.85

0.93

15

0.96

0.93

0.93

4. Autoeficacia percibida

16

0.81

0.85

0.89

0.96

17

0.93

0.96

0.96

18

0.85

0.89

0.89

19

0.93

0.93

0.93

20

0.89

0.93

0.96

21

0.93

0.89

0.85

22

0.93

0.93

0.93

5. Uso ético

23

0.93

0.96

1.00

1.00

24

0.93

0.96

0.93

25

0.85

0.89

0.89

26

1.00

0.96

1.00

27

1.00

0.96

0.96

28

0.96

0.89

0.93

29

0.93

0.89

0.96

6. Limitaciones y barreras

30

0.85

0.85

0.89

0.93

31

0.89

0.89

0.85

32

0.81

0.81

0.81

7. Accesibilidad y equidad

33

0.85

0.89

0.89

0.93

34

0.85

0.93

0.89

35

0.85

0.89

0.78*

36

0.85

0.85

0.85

8. Impacto ambiental

37

0.89

0.96

0.89

0.96

38

0.85

0.78*

0.85

39

0.85

0.85

0.85

40

0.85

0.85

0.85

41

0.81

0.85

0.85

42

0.74*

0.78*

0.81

9. Dependencia  o adicción

43

0.85

0.81

0.81

0.96

44

0.81

0.78*

0.81

45

0.81

0.81

0.78*

46

0.78*

0.74*

0.81

47

0.74*

0.74*

0.74*

Nota: El asterisco (*) indica ítem con V de Aiken < .80 en una categoría, posteriormente ajustado en redacción.

 

A partir de las observaciones de los jueces expertos y los resultados de la V de Aiken, se eliminaron los ítems 2 y 44 por redundancia conceptual, el ítem 13, derivado que presentó valores ligeramente inferiores en la categoría de coherencia, fue considerado para su reescritura durante la etapa de depuración y el ítem 47 por puntuaciones inferiores a .80 en tres categorías. El ítem 6 fue reubicado en la dimensión Creación y edición de contenido, mientras que los ítems 13, 35, 38 y 42 fueron reformulados por recomendación de los expertos. Finalmente, se obtuvo una versión de 45 ítems que se aplicó en una prueba piloto a 905 estudiantes.

El Análisis Factorial Exploratorio (AFE) confirmó la adecuación de los datos (; Bartlett , ), indicando un excelente nivel de factorabilidad. Aunque el modelo teórico original contemplaba nueve dimensiones, el AFE sugirió una estructura de siete factores, que explicó el 64 % de la varianza total. En este proceso se eliminaron tres ítems (25, 33 y 36) por cargas bajas y se reubicó el ítem 14 en la dimensión Autoeficacia percibida, agrupando conceptualmente los factores de Limitaciones y barreras con Accesibilidad y equidad.

Las cargas factoriales oscilaron entre .44 y .96 en la solución con rotación oblicua (Promax), sin evidencias de cargas cruzadas significativas (> .30). Las comunalidades variaron entre .41 y .79, lo que indica que cada ítem contribuye consistentemente al factor correspondiente.

Posteriormente, el Análisis Factorial Confirmatorio (AFC) contrastó el modelo teórico de nueve factores con el modelo empírico de siete. Los resultados mostraron mejores índices de ajuste global para el modelo de siete dimensiones (), confirmando la validez de constructo del instrumento, sugiriendo que la versión de siete dimensiones refleja con mayor precisión la experiencia y percepciones de los estudiantes sobre el uso académico de la Inteligencia Artificial Generativa. La consistencia interna fue elevada, con coeficientes  de Cronbach y  de McDonald entre .84 y .94, evidenciando estabilidad y precisión en las mediciones.

En conjunto, los análisis respaldan que la estructura final de siete dimensiones y 42 ítems constituye una representación parsimoniosa y sólida del constructo Uso académico de la Inteligencia Artificial Generativa en estudiantes universitarios (Tabla 3). Cada ajuste, ya sea eliminación, reubicación o fusión de ítems, respondió a criterios estadísticos y conceptuales, buscando maximizar la coherencia teórica y la validez empírica del instrumento.

 

Tabla 3

Versión final del Instrumento

Dimensión

Ítem

Uso académico integral

1. Utilizo herramientas de IAGen para buscar información académica.

2. Utilizo herramientas de IAGen para analizar información de trabajos académicos, como informes de PDF, videos, datos estadísticos, entre otros.

3. Utilizo herramientas de IAGen para citar y/o elaborar referencias bibliográficas en los formatos: APA, MLA, CHICAGO, IEEE o VANCOUVER.

4. Utilizo herramientas de IAGen para traducir y comprender textos académicos de otros idiomas.

5. Utilizo herramientas de IAGen para generar o estructurar ideas, esquemas o argumentos para trabajos académicos.

6. Utilizo herramientas de IAGen en el día a día para resolver dudas académicas.

7. Utilizo herramientas de IAGen para revisar gramática, ortografía y estilo en mis trabajos académicos.

8. Utilizo herramientas de IAGen para resolver o solicitar ayuda en temas complejos al estudiar por mi cuenta.

9. Utilizo herramientas de IAGen como apoyo para prepararme para exámenes.

Creación y edición

10. Utilizo herramientas de IAGen para crear resúmenes de textos académicos.

11. Utilizo herramientas de IAGen para generar ideas, textos o diapositivas para presentaciones académicas.

12. Utilizo herramientas de IAGen para redactar y/o editar trabajos académicos.

13.Utilizo herramientas de IAGen para generar contenido multimedia (videos, imágenes, audio) para su utilización en diferentes actividades académicas.

Autoeficacia percibida

14. Adapto y combino las respuestas de las herramientas de IAGen con mis propias ideas al realizar trabajos académicos.

15. Me siento seguro(a) utilizando herramientas de IAGen para la búsqueda de información, redacción de textos o para solución de dudas.

16. Puedo aprender a usar nuevas herramientas de IAGen rápidamente si es necesario.

17. Confío en mi capacidad para resolver problemas académicos utilizando herramientas de IAGen.

18. Me siento competente al utilizar herramientas de IAGen para mejorar mi aprendizaje.

19. Puedo utilizar herramientas de IAGen para mejorar la calidad de mis trabajos académicos.

20. Me siento capaz de evaluar la calidad de la información generada por herramientas de IAGen.

21. Confío en mi capacidad para integrar herramientas de IAGen en mi rutina de estudio de manera efectiva.

Uso ético

22. Comprendo cómo utilizar de manera adecuada y ética las herramientas de IAGen en mis estudios.

23. Verifico la confiabilidad de la información y fuentes generadas por las herramientas de IAGen.

24. Evalúo si el uso de las herramientas de IAGen mejora mi aprendizaje.

25. Considero a la IAGen como una herramienta complementaria y no como un sustituto.

26. Reconozco que las herramientas de IAGen pueden producir resultados o interpretaciones erróneas.

27. Sé cuáles son los riesgos que puede traer el uso de herramientas de IAGen en lo académico.

28. Sé cuáles son los riesgos que puede traer el uso de herramientas de IAGen en el ámbito personal.

Acceso y desigualdad

29. He experimentado limitaciones técnicas al intentar utilizar herramientas de IAGen para mis estudios como problemas de conexión, de compatibilidad de dispositivos, falta de licencias, fallas de acceso a plataformas, etc.

30. He encontrado barreras de idioma al utilizar herramientas de IAGen.

31. La falta de conocimiento sobre cómo usar o configurar herramientas de IAGen es una barrera para mí.

32. He tenido dificultades para acceder a herramientas de IAGen debido a limitaciones por suscripciones.

33. Conozco a compañeros que no pueden utilizar herramientas de IAGen por falta de acceso a tecnología adecuada.

Impacto ambiental

34. Estoy consciente de que el uso intensivo de herramientas de IAGen implica un alto consumo de electricidad.

35. Me informo sobre los efectos ambientales por utilizar herramientas de IAGen.

36. Considero el impacto ecológico del uso intensivo de las herramientas de IAGen.

37. Reflexiono sobre cómo el uso académico de las herramientas de IAGen puede contribuir al cambio climático.

38. Estoy de acuerdo en promover un uso responsable para disminuir el impacto ambiental de las herramientas de IAGen.

39. Estoy dispuesto(a) a reducir el uso de las herramientas de IAGen para disminuir su huella ecológica.

Dependencia o adicción

40. Siento que recurro con frecuencia a las herramientas de IAGen para completar mis tareas académicas.

41. Utilizo herramientas de IAGen incluso cuando no son necesarias para mis actividades académicas.

42. He notado que paso más tiempo del necesario utilizando herramientas de IAGen para mis estudios.

 

4. Discusión

Los resultados del proceso de validación aportan evidencia sólida sobre la consistencia interna y la validez de constructo del instrumento diseñado para medir el uso académico de la inteligencia artificial generativa (IAGen) en educación superior. La estructura final de siete dimensiones y 42 ítems refleja un modelo parsimonioso y teóricamente coherente, alineado con los marcos de competencias digitales y alfabetización en IA propuestos por Redecker (2017) y Long y Magerko (2020).

La reducción dimensional de nueve a siete factores no implica una pérdida conceptual, sino una consolidación teórica que agrupa componentes afines y mejora la interpretabilidad del instrumento. Por ejemplo, la integración de las dimensiones Limitaciones y barreras con Accesibilidad y equidad sugiere que ambos constructos convergen en una misma noción de condiciones contextuales para la apropiación crítica de la IAGen, lo cual coincide con hallazgos recientes sobre desigualdad digital y acceso tecnológico (Giannakos et al., 2024). Asimismo, el fortalecimiento de la dimensión Autoeficacia percibida destaca la importancia de las creencias de competencia tecnológica en la adopción responsable de herramientas generativas (Qadir, 2023).

Desde una perspectiva aplicada, el instrumento permite diagnosticar el nivel de alfabetización y uso académico de la IAGen entre estudiantes universitarios, ofreciendo información valiosa para diseñar estrategias institucionales de formación ética, técnica y reflexiva en el uso de la IA. Este potencial de aplicación práctica se alinea con la necesidad de las universidades de regular y orientar el uso de la IAGen en procesos formativos y de evaluación (Bond et al., 2024; Holmes et al., 2019).

Asimismo, se reconoce la importancia de avanzar hacia estudios que analicen la invariancia factorial del instrumento, con el propósito de determinar si la estructura de siete dimensiones se mantiene estable entre distintos grupos de comparación, como género, área académica o nivel formativo (TSU y Licenciatura). La incorporación de estos análisis, junto con pruebas de validez convergente y discriminante, permitirá evaluar la equivalencia métrica y estructural del modelo, fortaleciendo la evidencia de validez externa y la generalización de los resultados. Este tipo de procedimientos, ampliamente recomendados en la psicometría contemporánea (Milfont & Fischer, 2010; Putnick & Bornstein, 2016), consolidará el potencial del instrumento como herramienta estandarizada para investigaciones comparativas y longitudinales en educación superior.

Finalmente, el proceso de depuración de ítems y la obtención de una estructura factorial robusta respaldan la utilidad del instrumento como herramienta diagnóstica y de investigación. Su aplicación puede contribuir a la comprensión empírica del papel de la IAGen en la educación superior, particularmente en la formación de competencias digitales críticas, el pensamiento ético y la autonomía académica del estudiantado. En suma, el estudio ofrece un avance metodológico y conceptual relevante, aunque con la prudencia necesaria respecto a sus alcances y la necesidad de validaciones adicionales.

 

5. Conclusiones

El presente estudio logró diseñar y validar un instrumento confiable y válido para medir el uso académico de la inteligencia artificial generativa (IAGen) en estudiantes de educación superior. La estructura final, conformada por 42 ítems distribuidos en siete dimensiones, demostró adecuados niveles de ajuste factorial, consistencia interna y coherencia teórica, lo que respalda su utilidad para la investigación educativa y la gestión institucional.

En términos operativos, el instrumento permite obtener puntajes por dimensión mediante el cálculo del promedio de respuestas en una escala tipo Likert de 1 a 5. Se recomienda interpretar los valores según los siguientes rangos orientativos: 1.00 a 2.49 (nivel bajo), 2.50 a 3.49 (nivel medio) y 3.50 a 5.00 (nivel alto). Estos resultados pueden emplearse para diagnosticar fortalezas y áreas de mejora en el uso académico, ético y crítico de la IAGen, así como para orientar acciones formativas o diseñar políticas institucionales sobre alfabetización digital y ética tecnológica.

Los escenarios de aplicación del instrumento incluyen estudios diagnósticos institucionales, evaluaciones comparativas entre programas o áreas académicas, y monitoreo longitudinal del desarrollo de competencias digitales. Su implementación puede apoyar la toma de decisiones en universidades que buscan integrar la inteligencia artificial de manera responsable en la enseñanza y el aprendizaje.

No obstante, es importante reconocer que los resultados se circunscriben al contexto de una sola Institución Tecnológica del sureste de México. Por ello, las conclusiones no deben extrapolarse sin precaución a otros entornos educativos. Futuras investigaciones deberán incorporar análisis de invariancia factorial, validez convergente/discriminante y estabilidad temporal para fortalecer la generalización y aplicabilidad del instrumento en contextos diversos.

En síntesis, el estudio ofrece una aportación metodológica y práctica significativa al campo de la innovación educativa, al proporcionar una herramienta robusta para comprender y promover el uso académico reflexivo y ético de la IAGen en la educación superior.

 

Material complementario

El  conjunto  de  datos utilizados  en  este  estudio  están disponibles    previa    solicitud    razonable    al    autor    de correspondencia.

 

Conflicto de interés

Los autores declaran no tener conflicto de interés.

 

Referencias

Aiken, L.R. (1985). Three Coefficients for Analyzing the Reliability and Validity of Ratings. Educational and Psychological Measurement, 45(1), 131-142. https://doi.org/10.1177/0013164485451012 (Original work published 1985).

Álvarez-Rebolledo, A., Santos Carreto, M. y Barrios González, E. (2019). Propiedades psicométricas del cuestionario “Percepción de la inclusión educativa en nivel superior”. Sinectica, 53, 1-21. https://doi.org/10.31391/S2007-7033(2019)0053-009

American Educational Research Association, American Psychological Association, y National Council on Measurement in Education. (2018). Estándares para pruebas educativas y psicológicas (M. Lieve, Trans.). American Educational Research Association. https://www.testingstandards.net/uploads/7/6/6/4/76643089/9780935302745_web.pdf

Ato, M., López-García, J., y Benavente, A. (2013). Un sistema de clasificación de los diseños de investigación en psicología. Anales de Psicología, 29(3), 1038-1059. https://doi.org/10.6018/analesps.29.3.178511

Bond, M., Khosravi, H., De Laat, M. et al. (2024). A meta systematic review of artificial intelligence in higher education: a call for increased ethics, collaboration, and rigour. Int. J. Educ. Technol. High Educ., 21, 4. https://doi.org/10.1186/s41239-023-00436-z

Castaño Umaña, R. A. (2024). Impacto de la inteligencia artificial generativa en la educación superior: un estudio comparativo. Revista Compromiso Social, 7(12), 95–110. https://doi.org/10.5377/recoso.v7i12.19650

Escobar-Pérez, J., & Cuervo-Martínez, A. (2008). Validez de contenido y juicio de expertos: una aproximación a su utilización. Avances en medición, 6(1), 27-36. https://www.humanas.unal.edu.co/lab_psicometria/application/files/9416/0463/3548/Vol_6._Articulo3_Juicio_de_expertos_27-36.pdf

Escurra Mayaute, L.M. (1988). Cuantificación de la validez de contenido por criterio de jueces. Revista De Psicología, 6(1-2), 103–111. https://doi.org/10.18800/psico.198801-02.008

Fan, L., Deng, K. & Liu, F. (2025). Impactos educativos de la inteligencia artificial generativa en el aprendizaje y el rendimiento de estudiantes de ingeniería en China. Sci. Rep., 15, 26521. https://doi.org/10.1038/s41598-025-06930-w

Francis N.J., Jones, S., & Smith, D.P. (2025) Generative AI in Higher Education: Balancing Innovation and Integrity. Br. J. Biomed. Sci., 81, 14048. https://doi.org/10.3389/bjbs.2024.14048

Giannakos, M., Azevedo, R., Brusilovsky, P., Cukurova, M., Dimitriadis, Y., Hernandez-Leo, D.,… Rienties, B. (2024). The promise and challenges of generative AI in education. Behaviour & Information Technology, 44(11), 2518–2544. https://doi.org/10.1080/0144929X.2024.2394886

Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2019). Multivariate data analysis (8th ed.). Cengage.

Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial intelligence in education: Promise and implications for teaching & learning (2nd ed.). Center for Curriculum Redesign. https://www.researchgate.net/publication/332180327_Artificial_Intelligence_in_Education_Promise_and_Implications_for_Teaching_and_Learning

Jovanović, M. and Campbell, M. (2022). Generative Artificial Intelligence: Trends and Prospects. Computer, 55(10),107-112. https://doi.org/10.1109/MC.2022.3192720

Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A., & Tomás-Marco, I. (2014). Análisis factorial de ítems exploratorios: una guía práctica revisada y actualizada. Anales de Psicología / Annals of Psychology, 30 (3), 1151–1169. https://doi.org/10.6018/analesps.30.3.199361

Long, D., & Magerko, B. (2020). What is AI literacy? Competencies and design considerations. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–13. https://doi.org/10.1145/3313831.3376727

Maldonado-Suárez, N., & Santoyo-Telles, F. (2024). Validez de contenido por juicio de expertos: Integración cuantitativa y cualitativa en la construcción de instrumentos de medición. REIRE Revista d’Innovació i Recerca en Educació, 17(2), 1-19. https://doi.org/10.1344/reire.46238

Martín-Romera, Ana, y Molina Ruiz, Enriqueta. (2017). El valor del conocimiento pedagógico para la docencia en secundaria: diseño y validación de un cuestionario. Estudios pedagógicos (Valdivia), 43(2), 195-220. https://dx.doi.org/10.4067/S0718-07052017000200011

L. Milfont, T., & Fischer, R. (2010). Testing measurement invariance across groups: applications in cross-cultural research. International Journal of Psychological Research, 3(1), 111–130. https://doi.org/10.21500/20112084.857

Niño-Carrasco, S. A., Castellanos-Ramírez, J. C., Perezchica Vega, J. E., & Sepúlveda Rodríguez, J. A. (2025). Percepciones de estudiantes universitarios sobre los usos de inteligencia artificial en educación. Revista Fuentes, 27(1), 94–106. https://revistascientificas.us.es/index.php/fuentes/article/view/26356/24034

Peres, R., Schreier, M., Schweidel, D. & Sorescu, A. (2023). On ChatGPT and beyond: How generative artificial intelligence may affect research, teaching, and practice. International Journal of Research in Marketing, 40 (2), 269-275. https://doi.org/10.1016/j.ijresmar.2023.03.001

Putnick, D. L., & Bornstein, M. H. (2016). Measurement invariance conventions and reporting: The state of the art and future directions for psychological research. Developmental Review, 41, 71–90. https://doi.org/10.1016/j.dr.2016.06.004

Qadir, J. (2023). "Engineering Education in the Era of ChatGPT: Promise and Pitfalls of Generative AI for Education," IEEE Global Engineering Education Conference (EDUCON), Kuwait, Kuwait, 2023, pp. 1-9. https://doi.org/10.1109/EDUCON54358.2023.10125121

Redecker, C. (2017). European framework for the digital competence of educators: DigCompEdu. Publications Office of the European Union. https://doi.org/10.2760/159770

Romeu Fontanillas, T., Romero Carbonell, M., Guitert Catasús, M., & Baztán Quemada, P. (2025). Desafíos de la Inteligencia Artificial generativa en educación superior: fomentando su uso crítico en el estudiantado. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 209–231. https://doi.org/10.5944/ried.28.2.43535

Ruiz Mendoza, K. K., Miramontes Arteaga, M. A., & Reyna García, C. (2024). Percepciones y expectativas de estudiantes universitarios sobre la IAG. European Public & Social Innovation Review, 9, 1–21. https://doi.org/10.31637/epsir-2024-357

Russell, S. J., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.

https://www.amazon.com/Artificial-Intelligence-A-Modern-Approach/dp/0134610997

Silgado-Tuñón, D. A., & López-Flores, J. I. (2025). Inteligencia Artificial Generativa en la Educación Superior: una Revisión Sistemática. Unión - Revista Iberoamericana De Educación Matemática, 21(73). https://revistaunion.org/index.php/UNION/article/view/1709

Ursavaş, Ö.F., Yalçın, Y., İslamoğlu, H. et al. (2025). Replanteando la importancia de las normas sociales en la adopción de la IA generativa: investigación sobre la aceptación y el uso de la IA generativa entre estudiantes de educación superior. International Journal of Educational Technology in Higher Education, 22, 38. https://doi.org/10.1186/s41239-025-00535-z

Xia, Q., Weng, X., Ouyang, F., Lin, T.J., & Chiu, T.K.F. (2024). A scoping review on how generative artificial intelligence transforms assessment in higher education. Int. J. Educ. Technol. High. Educ., 21, 40. https://doi.org/10.1186/s41239-024-00468-z