
Cómo citar este artículo:
Trejo-Trejo,
G.A. & Gordillo-Espinoza, E. (2026). Validación de un instrumento para
medir el uso académico de la IAGen en estudiantes universitarios [Validation of an Instrument to
Measure the Academic Use of Generative
Artificial Intelligence (GenAI) in University Students]. Pixel-Bit, Revista de Medios y Educación, 75,
Art. 7. https://doi.org/10.12795/pixelbit.117960
RESUMEN
Este estudio tuvo como objetivo diseñar y validar un
instrumento para medir el uso académico de la Inteligencia Artificial Generativa
(IAGen) en estudiantes de educación superior. La investigación se desarrolló en
la Universidad Tecnológica de la Selva, en el sureste de México, con una
muestra intencionada de 905 estudiantes de diversas divisiones académicas. El
instrumento inicial fue elaborado a partir de un marco teórico sobre
competencias digitales e inteligencia artificial, sometido al juicio de nueve expertos
y a una prueba piloto. Posteriormente, se aplicaron análisis factorial
exploratorio y confirmatorio para determinar la estructura del instrumento. Los
resultados evidenciaron una solución de siete dimensiones con 42 ítems, que
explicó el 64 % de la varianza total, con índices de ajuste adecuados (CFI =
.90; TLI = .90; RMSEA = .06; SRMR = .04) y una alta consistencia interna
(α=.84 y ω=.94). Se concluye que el instrumento presenta validez y
confiabilidad satisfactorias, aunque se recomienda replicar el estudio en
diferentes contextos institucionales para examinar la invariancia factorial y
la estabilidad temporal.
ABSTRACT
This study aimed to design and
validate an instrument to measure the academic use of generative artificial
intelligence (GenAI) among higher education students. The research was
conducted at the Universidad Tecnológica de la Selva, located in southeastern
Mexico, with a purposive sample of 905 students from various academic
divisions. The initial instrument was developed from a theoretical framework on
digital competence and artificial intelligence, reviewed by nine expert judges,
and pilot-tested. Exploratory and confirmatory factor analyses were applied to
determine the instrument’s structure. Results revealed a seven-dimension model
comprising 42 items, explaining 64% of the total variance, with acceptable
goodness-of-fit indices (CFI = .90; TLI = .90; RMSEA = .06; SRMR = .04) and
high internal consistency (α= .84 and ω= .94). It is concluded that
the instrument demonstrates adequate validity and reliability for assessing
students’ academic engagement with GenAI. However, replication in different
institutional contexts is recommended to test factorial invariance and temporal
stability, ensuring broader applicability in higher education settings.
PALABRAS CLAVES· KEYWORDS
Inteligencia artificial; tecnología educativa;
educación superior; instrumento de medida; percepción
Artificial intelligence; educational technology;
higher education; measuring instrument; perception
1. Introducción
En los últimos años, las herramientas de Inteligencia
Artificial (IA) han transformado múltiples ámbitos, incluida la educación,
donde se utilizan para mejorar la enseñanza, el aprendizaje y la gestión
institucional (Bond et al., 2024; Xia et al., 2024). Russell y Norvig (2021)
definen la IA como un campo de estudio que busca desarrollar sistemas capaces
de ejecutar tareas que requieren inteligencia humana, como el razonamiento, la
percepción y la comprensión del lenguaje natural. Dentro de este campo, la Inteligencia Artificial Generativa (IAGen) constituye un subconjunto con la
capacidad de crear contenido nuevo como texto, imágenes, música o código; a
partir de datos previamente entrenados (Jovanović & Campbell, 2022).
Su potencial transformador en la educación superior ha sido ampliamente
reconocido (Peres et al., 2023; Ursavaş et al., 2025), al ofrecer
oportunidades de personalización y creatividad en los procesos de enseñanza y
aprendizaje (Fan et al., 2025; Francis et al., 2025).
Herramientas como ChatGPT, Gemini y Copilot han adquirido una presencia
significativa en universidades por su capacidad para generar contenidos
académicos y apoyar la gestión del conocimiento, aunque también plantean
desafíos éticos y normativos que exigen una reflexión crítica sobre su impacto
educativo (Romeu et al., 2025; Castaño, 2024). A pesar de ello, la literatura
empírica sobre cómo los estudiantes universitarios perciben y utilizan estas
tecnologías sigue siendo limitada, lo que dificulta comprender la magnitud real
de su apropiación y los posibles efectos en la formación académica
(Niño-Carrasco et al., 2025; Ruiz et al., 2024).
Diversas revisiones sistemáticas recientes destacan
que la IAGen puede favorecer el aprendizaje personalizado y el desarrollo de
competencias digitales avanzadas, pero también conlleva riesgos vinculados con
la dependencia tecnológica y la calidad de la información generada (Giannakos
et al., 2024). En Latinoamérica, este campo de investigación aún es emergente,
aunque se observa un interés creciente por validar instrumentos
psicométricamente sólidos que evalúen percepciones y actitudes hacia la IAGen
(Álvarez-Rebolledo et al., 2019; Maldonado-Suárez & Santoyo-Telles, 2024;
Silgado-Tuñón & López-Flores, 2025).
En este contexto, el presente estudio se desarrolló en
la Universidad Tecnológica de la Selva
(UTSelva), ubicada en el sureste de México, con estudiantes de programas
de Técnico Superior Universitario (TSU) y
Licenciatura, pertenecientes
a las divisiones de Tecnologías de la
Información, Administración, Agrobiotecnología, y Turismo y Gastronomía, en modalidad presencial. Este contexto institucional permite
explorar la adopción académica de la IAGen en entornos regionales o similares.
El diseño del instrumento se sustentó en un modelo teórico basado en la alfabetización
digital, la ética tecnológica y el aprendizaje autónomo asistido por IA,
articulando referentes del marco DigCompEdu
(Redecker, 2017) y la alfabetización en
IA (Long & Magerko, 2020). De estos fundamentos emergen las siete
dimensiones del cuestionario: uso
académico integral, creación y edición de contenido, autoeficacia percibida,
uso ético, acceso y desigualdades, impacto ambiental, y dependencia o adicción.
Este modelo permite evaluar no solo el grado de adopción de la IAGen, sino la
madurez crítica y reflexiva de los estudiantes frente a su integración
educativa.
Así, la validación del instrumento busca contribuir al
campo de la innovación educativa mediante una herramienta robusta para
diagnosticar y orientar políticas institucionales sobre el uso académico
responsable de la inteligencia artificial generativa en educación superior.
2. Metodología
2.1. Diseño de investigación
El estudio se enmarcó en un enfoque cuantitativo de
tipo instrumental, orientado al
análisis de las propiedades psicométricas del cuestionario (Ato et al., 2013).
El proceso siguió los estándares internacionales para pruebas educativas y
psicológicas (American Educational Research Association, American Psychological
Association & National Council on Measurement in Education, 2018),
abarcando revisión teórica, juicio de expertos y validación empírica mediante
análisis factoriales.
2.2. Participantes
La muestra estuvo conformada por 905 estudiantes (460 hombres, 439
mujeres y 6 sin especificar) de la Universidad
Tecnológica de la Selva, institución pública del sureste de México con
programas de Técnico Superior
Universitario (TSU) y Licenciatura en modalidad presencial. Los participantes
provenían de las divisiones de Tecnologías
de la Información, Administración, Agrobiotecnología y Turismo y Gastronomía.
Se utilizó un muestreo no
probabilístico intencionado; los criterios de inclusión fueron: estar
matriculado en 2025, aceptar voluntariamente participar y completar el
cuestionario. Se excluyeron respuestas incompletas o duplicadas.
2.3. Instrumento
El instrumento inicial constó de 47 ítems distribuidos en 9 dimensiones,
elaborados a partir del modelo teórico descrito en la Introducción. Tras el juicio de nueve expertos
(Escobar-Pérez & Cuervo-Martínez, 2008), se eliminaron ítems con valores de
V de Aiken < .80 o con
observaciones de redundancia o ambigüedad. Como resultado, se obtuvo una versión de 45 ítems para la única prueba piloto. Posteriormente,
el análisis factorial exploratorio
(AFE) sugirió una estructura de siete
dimensiones con 42 ítems, que se mantuvo en la versión final (Tabla 1).
La escala de respuesta fue tipo Likert
de 5 puntos (1 = Totalmente en desacuerdo, 2 = En desacuerdo, 3 = Ni de
acuerdo ni en desacuerdo, 4 = De acuerdo, 5 = Totalmente de acuerdo).
Tabla 1
Trazabilidad
de versiones del instrumento
|
Etapa |
Número de ítems |
Número de dimensiones |
Criterios de cambio |
Resultado principal |
|
Versión inicial |
47 |
9 |
Revisión teórica y redacción inicial basada en DigCompEdu y alfabetización en IA |
Primera propuesta conceptual |
|
Juicio de expertos |
45 |
9 |
Eliminación de ítems con V < .80 y
redundantes; ajustes de redacción; reubicación de ítems |
Versión para prueba piloto |
|
Prueba piloto (AFE) |
45 |
9 → 7 |
Agrupación de factores afines y eliminación de
ítems con cargas < .40 |
Estructura empírica ajustada |
|
Versión final |
42 |
7 |
Confirmación de modelo mediante AFC y
consistencia interna |
Instrumento validado |
2.4. Procedimiento de
validación
Fase 1. Validación de
contenido: Para esta fase, el cuestionario de 47 ítems organizados en 9
dimensiones, fue sometido a juicio de 9 expertos o jueces: cinco hombres y
cuatro mujeres; la mayoría son de nacionalidad mexicana (siete) y dos son
colombianos; en cuanto al grado académico, 6 cuentan con el grado de doctor y
tres con el de maestría; las líneas de investigación abarcan minería de datos,
inteligencia artificial, innovación educativa, inteligencia artificial
generativa, TIC´s y ciencia de datos; la experiencia profesional oscila entre
los 12 y 38 años; publicaciones de artículos científicos, entre 4 y 25; lo que
refleja un grupo con amplia trayectoria académica y de investigación.
Establecido el contacto con los jueces o expertos, quienes
se les solicitó analizar y valorar de manera crítica cada uno de los ítems con
respecto a las categorías de claridad, pertinencia, relevancia y suficiencia,
utilizando una escala de 4 opciones; también, se les pidió observaciones o
sugerencias para mejorar el instrumento, mediante una rúbrica que fue adaptada
de Escobar-Pérez
y Cuervo-Martínez (2008). Con los resultados obtenidos se calculó el
Coeficiente de Validez de Contenido más utilizado en ciencias sociales y educación,
la V de Aiken (Aiken, 1985, Escurra, 1988), mediante la siguiente fórmula (Martín-Romera y
Molina, 2017):
![]()
Donde:
es la media aritmética de las puntuaciones de
los jueces.
es valor mínimo posible en la escala.
número de categorías en la escala.
Fase 2. Prueba piloto: El tamaño de
muestra utilizado se justifica en función de los estándares psicométricos. Sin
embargo, cuando se busca aplicar análisis factoriales, diversos autores
sugieren entre 5 y 10 sujetos por ítem (Hair et al., 2019; Lloret-Segura et
al., 2014). Considerando los 45 ítems iniciales, la muestra ideal debía
encontrarse entre 230 y 450 casos. En este estudio se contó con 905
estudiantes, lo cual garantiza un nivel robusto de confiabilidad. Asimismo, el
uso del software JASP permitió aplicar modelos de máxima verosimilitud y
obtener índices de ajuste ampliamente utilizados en la literatura, con la
ventaja de ser una herramienta de acceso abierto que favorece la
reproducibilidad.
Se solicitó la aplicación a estudiantes de la
Universidad Tecnológica de la Selva, durante un período de 2 semanas, mediante
un formulario en Google Forms. Cabe resaltar que en la primera parte del
formulario, se destacaron los principios de anonimato, confidencialidad y
tratamiento científico de los datos.
Fase 3. Validez de constructo: Se utilizaron el
Análisis Factorial Exploratorio (AFE) y Confirmatorio (AFC). La validación del
cuestionario se sustentó en criterios psicométricos ampliamente reconocidos,
siguiendo recomendaciones internacionales (American Educational Research
Association, American Psychological Association y National Council on
Measurement in Education, 2018). Asimismo, se consideraron las demandas
emergentes en torno al uso académico de la IAGen, donde investigaciones
recientes enfatizan la importancia de contar con instrumentos válidos y fiables
que midan autoeficacia, ética digital, impacto ambiental y dependencia
tecnológica en contextos universitarios (Giannakos et al., 2024; Silgado-Tuñón
& López-Flores, 2025).
Fase 4. Confiabilidad: Se calculó el índice de
consistencia interna
de Cronbach y
de McDonald.
Fase 5. Instrumento final: Se propone un instrumento
válido y confiable para conocer la experiencia, habilidades y percepciones del
uso académico de la IAGen en estudiantes de educación superior.
Adicionalmente, aunque el presente estudio no incluyó
análisis de invariancia factorial ni de estabilidad temporal (test–retest), se proyecta su realización en investigaciones
posteriores con muestras más amplias y diversas. Estos análisis permitirán
verificar si la estructura factorial del instrumento se mantiene constante
entre grupos (por género o área académica) y si las puntuaciones son estables
en el tiempo. Asimismo, se contempla incorporar estudios de validez convergente
y discriminante, orientados a contrastar las dimensiones del cuestionario con
constructos teóricamente relacionados y diferenciados. La ejecución de estas
fases complementarias fortalecerá la evidencia de validez, generalización y
robustez psicométrica del instrumento, consolidando su potencial de aplicación
en contextos universitarios variados y comparativos.
3. Análisis y
resultados
La validez de
contenido, evaluada mediante la V
de Aiken, mostró valores adecuados en la mayoría de los ítems, con
coeficientes entre .80 y .95, lo
que evidenció claridad, pertinencia y relevancia en su redacción (Tabla 2).
Tabla 2
Cálculo
del índice V de Aiken por categoría y por cada ítem
|
Dimensión |
Ítem |
Claridad |
Coherencia |
Relevancia |
Suficiencia |
|
1. Búsqueda y gestión de la información |
1 |
0.93 |
0.93 |
0.89 |
0.89 |
|
2 |
0.81 |
0.85 |
0.89 |
||
|
3 |
0.85 |
0.81 |
0.85 |
||
|
4 |
0.81 |
0.81 |
0.89 |
||
|
5 |
0.89 |
0.89 |
0.93 |
||
|
6 |
0.93 |
0.93 |
0.96 |
||
|
7 |
0.96 |
0.93 |
0.89 |
||
|
2. Tutoría y asistencia académica |
8 |
0.85 |
0.85 |
0.85 |
0.89 |
|
9 |
0.93 |
0.89 |
0.96 |
||
|
10 |
0.93 |
0.96 |
0.89 |
||
|
11 |
0.85 |
0.85 |
0.85 |
||
|
3. Creación y edición de contenido |
12 |
0.93 |
0.85 |
0.96 |
0.93 |
|
13 |
0.93 |
0.78* |
0.85 |
||
|
14 |
0.89 |
0.85 |
0.93 |
||
|
15 |
0.96 |
0.93 |
0.93 |
||
|
4. Autoeficacia percibida |
16 |
0.81 |
0.85 |
0.89 |
0.96 |
|
17 |
0.93 |
0.96 |
0.96 |
||
|
18 |
0.85 |
0.89 |
0.89 |
||
|
19 |
0.93 |
0.93 |
0.93 |
||
|
20 |
0.89 |
0.93 |
0.96 |
||
|
21 |
0.93 |
0.89 |
0.85 |
||
|
22 |
0.93 |
0.93 |
0.93 |
||
|
5. Uso ético |
23 |
0.93 |
0.96 |
1.00 |
1.00 |
|
24 |
0.93 |
0.96 |
0.93 |
||
|
25 |
0.85 |
0.89 |
0.89 |
||
|
26 |
1.00 |
0.96 |
1.00 |
||
|
27 |
1.00 |
0.96 |
0.96 |
||
|
28 |
0.96 |
0.89 |
0.93 |
||
|
29 |
0.93 |
0.89 |
0.96 |
||
|
6. Limitaciones y
barreras |
30 |
0.85 |
0.85 |
0.89 |
0.93 |
|
31 |
0.89 |
0.89 |
0.85 |
||
|
32 |
0.81 |
0.81 |
0.81 |
||
|
7. Accesibilidad y equidad |
33 |
0.85 |
0.89 |
0.89 |
0.93 |
|
34 |
0.85 |
0.93 |
0.89 |
||
|
35 |
0.85 |
0.89 |
0.78* |
||
|
36 |
0.85 |
0.85 |
0.85 |
||
|
8. Impacto ambiental |
37 |
0.89 |
0.96 |
0.89 |
0.96 |
|
38 |
0.85 |
0.78* |
0.85 |
||
|
39 |
0.85 |
0.85 |
0.85 |
||
|
40 |
0.85 |
0.85 |
0.85 |
||
|
41 |
0.81 |
0.85 |
0.85 |
||
|
42 |
0.74* |
0.78* |
0.81 |
||
|
9. Dependencia o adicción |
43 |
0.85 |
0.81 |
0.81 |
0.96 |
|
44 |
0.81 |
0.78* |
0.81 |
||
|
45 |
0.81 |
0.81 |
0.78* |
||
|
46 |
0.78* |
0.74* |
0.81 |
||
|
47 |
0.74* |
0.74* |
0.74* |
Nota: El asterisco (*) indica ítem con V de Aiken <
.80 en una categoría, posteriormente ajustado en redacción.
A partir de las observaciones de los jueces expertos y
los resultados de la V de Aiken,
se eliminaron los ítems 2 y 44
por redundancia conceptual, el ítem 13,
derivado que presentó valores ligeramente inferiores en la categoría de coherencia, fue considerado para su
reescritura durante la etapa de depuración y el ítem 47 por puntuaciones inferiores a .80 en tres categorías. El ítem 6 fue reubicado en la dimensión Creación
y edición de contenido, mientras que los ítems 13, 35, 38 y 42 fueron reformulados por recomendación de los
expertos. Finalmente, se obtuvo una versión de 45 ítems que se aplicó en una prueba piloto a 905 estudiantes.
El Análisis
Factorial Exploratorio (AFE) confirmó la adecuación de los datos (
; Bartlett
,
), indicando un
excelente nivel de factorabilidad. Aunque el modelo teórico original
contemplaba nueve dimensiones,
el AFE sugirió una estructura de siete
factores, que explicó el 64 % de
la varianza total. En este proceso se eliminaron tres ítems (25, 33 y
36) por cargas bajas y se reubicó el ítem 14 en la dimensión Autoeficacia
percibida, agrupando conceptualmente los factores de Limitaciones y
barreras con Accesibilidad y equidad.
Las cargas
factoriales oscilaron entre .44
y .96 en la solución con rotación oblicua (Promax), sin evidencias de
cargas cruzadas significativas (> .30). Las comunalidades variaron entre .41 y .79, lo que indica que cada ítem contribuye consistentemente
al factor correspondiente.
Posteriormente, el Análisis Factorial Confirmatorio (AFC) contrastó el modelo teórico
de nueve factores con el modelo empírico de siete. Los resultados mostraron
mejores índices de ajuste global para el modelo de siete dimensiones (
), confirmando la
validez de constructo del instrumento, sugiriendo que la versión de siete
dimensiones refleja con mayor precisión la experiencia y percepciones de los
estudiantes sobre el uso académico de la Inteligencia Artificial Generativa. La
consistencia interna fue
elevada, con coeficientes
de
Cronbach y
de McDonald entre .84 y .94, evidenciando
estabilidad y precisión en las mediciones.
En conjunto, los análisis respaldan que la estructura final de siete dimensiones y 42
ítems constituye una representación parsimoniosa y sólida del constructo
Uso académico de la Inteligencia Artificial Generativa en estudiantes
universitarios (Tabla 3).
Cada ajuste, ya sea eliminación, reubicación o fusión de ítems, respondió a
criterios estadísticos y conceptuales, buscando maximizar la coherencia teórica
y la validez empírica del instrumento.
Tabla 3
Versión final del Instrumento
|
Dimensión |
Ítem |
|
Uso académico integral |
1.
Utilizo herramientas de IAGen para buscar información académica. |
|
2.
Utilizo herramientas de IAGen para analizar información de trabajos
académicos, como informes de PDF, videos, datos estadísticos, entre otros. |
|
|
3.
Utilizo herramientas de IAGen para citar y/o elaborar referencias
bibliográficas en los formatos: APA, MLA, CHICAGO, IEEE o VANCOUVER. |
|
|
4.
Utilizo herramientas de IAGen para traducir y comprender textos académicos de
otros idiomas. |
|
|
5.
Utilizo herramientas de IAGen para generar o estructurar ideas, esquemas o
argumentos para trabajos académicos. |
|
|
6.
Utilizo herramientas de IAGen en el día a día para resolver dudas académicas. |
|
|
7.
Utilizo herramientas de IAGen para revisar gramática, ortografía y estilo en
mis trabajos académicos. |
|
|
8.
Utilizo herramientas de IAGen para resolver o solicitar ayuda en temas
complejos al estudiar por mi cuenta. |
|
|
9.
Utilizo herramientas de IAGen como apoyo para prepararme para exámenes. |
|
|
Creación y edición |
10.
Utilizo herramientas de IAGen para crear resúmenes de textos académicos. |
|
11.
Utilizo herramientas de IAGen para generar ideas, textos o diapositivas para
presentaciones académicas. |
|
|
12.
Utilizo herramientas de IAGen para redactar y/o editar trabajos académicos. |
|
|
13.Utilizo
herramientas de IAGen para generar contenido multimedia (videos, imágenes,
audio) para su utilización en diferentes actividades académicas. |
|
|
Autoeficacia percibida |
14. Adapto y combino las respuestas de las herramientas de IAGen con mis
propias ideas al realizar trabajos académicos. |
|
15.
Me siento seguro(a) utilizando herramientas de IAGen para la búsqueda de
información, redacción de textos o para solución de dudas. |
|
|
16.
Puedo aprender a usar nuevas herramientas de IAGen rápidamente si es
necesario. |
|
|
17.
Confío en mi capacidad para resolver problemas académicos utilizando
herramientas de IAGen. |
|
|
18.
Me siento competente al utilizar herramientas de IAGen para mejorar mi
aprendizaje. |
|
|
19.
Puedo utilizar herramientas de IAGen para mejorar la calidad de mis trabajos
académicos. |
|
|
20.
Me siento capaz de evaluar la calidad de la información generada por
herramientas de IAGen. |
|
|
21.
Confío en mi capacidad para integrar herramientas de IAGen en mi rutina de
estudio de manera efectiva. |
|
|
Uso ético |
22.
Comprendo cómo utilizar de manera adecuada y ética las herramientas de IAGen
en mis estudios. |
|
23.
Verifico la confiabilidad de la información y fuentes generadas por las
herramientas de IAGen. |
|
|
24.
Evalúo si el uso de las herramientas de IAGen mejora mi aprendizaje. |
|
|
25.
Considero a la IAGen como una herramienta complementaria y no como un
sustituto. |
|
|
26.
Reconozco que las herramientas de IAGen pueden producir resultados o
interpretaciones erróneas. |
|
|
27.
Sé cuáles son los riesgos que puede traer el uso de herramientas de IAGen en
lo académico. |
|
|
28.
Sé cuáles son los riesgos que puede traer el uso de herramientas de IAGen en
el ámbito personal. |
|
|
Acceso y desigualdad |
29.
He experimentado limitaciones técnicas al intentar utilizar herramientas de
IAGen para mis estudios como problemas de conexión, de compatibilidad de
dispositivos, falta de licencias, fallas de acceso a plataformas, etc. |
|
30.
He encontrado barreras de idioma al utilizar herramientas de IAGen. |
|
|
31.
La falta de conocimiento sobre cómo usar o configurar herramientas de IAGen
es una barrera para mí. |
|
|
32.
He tenido dificultades para acceder a herramientas de IAGen debido a
limitaciones por suscripciones. |
|
|
33.
Conozco a compañeros que no pueden utilizar herramientas de IAGen por falta
de acceso a tecnología adecuada. |
|
|
Impacto ambiental |
34.
Estoy consciente de que el uso intensivo de herramientas de IAGen implica un
alto consumo de electricidad. |
|
35.
Me informo sobre los efectos ambientales por utilizar herramientas de IAGen. |
|
|
36.
Considero el impacto ecológico del uso intensivo de las herramientas de
IAGen. |
|
|
37.
Reflexiono sobre cómo el uso académico de las herramientas de IAGen puede
contribuir al cambio climático. |
|
|
38.
Estoy de acuerdo en promover un uso responsable para disminuir el impacto
ambiental de las herramientas de IAGen. |
|
|
39.
Estoy dispuesto(a) a reducir el uso de las herramientas de IAGen para
disminuir su huella ecológica. |
|
|
Dependencia o adicción |
40.
Siento que recurro con frecuencia a las herramientas de IAGen para completar
mis tareas académicas. |
|
41.
Utilizo herramientas de IAGen incluso cuando no son necesarias para mis
actividades académicas. |
|
|
42.
He notado que paso más tiempo del necesario utilizando herramientas de IAGen
para mis estudios. |
4. Discusión
Los resultados del proceso de validación aportan
evidencia sólida sobre la consistencia interna y la validez de constructo del
instrumento diseñado para medir el uso
académico de la inteligencia artificial generativa (IAGen) en educación
superior. La estructura final de siete
dimensiones y 42 ítems refleja un modelo parsimonioso y teóricamente
coherente, alineado con los marcos de competencias digitales y alfabetización
en IA propuestos por Redecker (2017) y Long y Magerko (2020).
La reducción
dimensional de nueve a siete factores no implica una pérdida conceptual,
sino una consolidación teórica
que agrupa componentes afines y mejora la interpretabilidad del instrumento.
Por ejemplo, la integración de las dimensiones Limitaciones y barreras
con Accesibilidad y equidad sugiere que ambos constructos convergen en
una misma noción de condiciones
contextuales para la apropiación crítica de la IAGen, lo cual coincide
con hallazgos recientes sobre desigualdad digital y acceso tecnológico
(Giannakos et al., 2024). Asimismo, el fortalecimiento de la dimensión Autoeficacia
percibida destaca la importancia de las creencias de competencia
tecnológica en la adopción responsable de herramientas generativas (Qadir,
2023).
Desde una perspectiva aplicada, el instrumento permite
diagnosticar el nivel de alfabetización
y uso académico de la IAGen entre
estudiantes universitarios, ofreciendo información valiosa para diseñar estrategias institucionales de
formación ética, técnica y reflexiva en el uso de la IA. Este potencial de
aplicación práctica se alinea con la necesidad de las universidades de regular y orientar el uso de la IAGen
en procesos formativos y de evaluación (Bond et al., 2024; Holmes et al., 2019).
Asimismo, se reconoce la importancia de avanzar hacia
estudios que analicen la invariancia
factorial del instrumento, con el propósito de determinar si la
estructura de siete dimensiones se mantiene estable entre distintos grupos de
comparación, como género, área académica o nivel formativo (TSU y
Licenciatura). La incorporación de estos análisis, junto con pruebas de validez convergente y discriminante,
permitirá evaluar la equivalencia métrica y estructural del modelo,
fortaleciendo la evidencia de validez externa y la generalización de los
resultados. Este tipo de procedimientos, ampliamente recomendados en la
psicometría contemporánea (Milfont & Fischer, 2010; Putnick &
Bornstein, 2016), consolidará el potencial del instrumento como herramienta
estandarizada para investigaciones comparativas y longitudinales en educación
superior.
Finalmente, el proceso de depuración de ítems y la
obtención de una estructura factorial robusta respaldan la utilidad del
instrumento como herramienta diagnóstica y de investigación. Su aplicación
puede contribuir a la comprensión empírica del papel de la IAGen en la
educación superior, particularmente en la formación de competencias digitales críticas, el pensamiento ético y la autonomía académica del estudiantado.
En suma, el estudio ofrece un avance metodológico y conceptual relevante,
aunque con la prudencia necesaria respecto a sus alcances y la necesidad de
validaciones adicionales.
5. Conclusiones
El presente estudio logró diseñar y validar un instrumento confiable y válido para medir el uso académico de la inteligencia artificial
generativa (IAGen) en estudiantes de educación superior. La estructura
final, conformada por 42 ítems
distribuidos en siete dimensiones, demostró adecuados niveles de ajuste
factorial, consistencia interna y coherencia teórica, lo que respalda su
utilidad para la investigación educativa y la gestión institucional.
En términos operativos, el instrumento permite obtener
puntajes por dimensión mediante
el cálculo del promedio de respuestas en una escala tipo Likert de 1 a 5. Se
recomienda interpretar los valores según los siguientes rangos orientativos: 1.00 a 2.49 (nivel bajo), 2.50 a 3.49 (nivel medio) y 3.50 a 5.00 (nivel alto). Estos resultados pueden emplearse para diagnosticar fortalezas y áreas de mejora
en el uso académico, ético y crítico de la IAGen, así como para orientar
acciones formativas o diseñar políticas institucionales sobre alfabetización
digital y ética tecnológica.
Los escenarios de aplicación del instrumento incluyen
estudios diagnósticos institucionales, evaluaciones comparativas entre
programas o áreas académicas, y monitoreo longitudinal del desarrollo de
competencias digitales. Su implementación puede apoyar la toma de decisiones en
universidades que buscan integrar la inteligencia artificial de manera
responsable en la enseñanza y el aprendizaje.
No obstante, es importante reconocer que los
resultados se circunscriben al contexto de una sola Institución Tecnológica del
sureste de México. Por ello, las conclusiones no deben extrapolarse sin
precaución a otros entornos educativos. Futuras investigaciones deberán
incorporar análisis de invariancia factorial, validez convergente/discriminante
y estabilidad temporal para fortalecer la generalización y aplicabilidad del
instrumento en contextos diversos.
En síntesis, el estudio ofrece una aportación
metodológica y práctica significativa al campo de la innovación educativa, al
proporcionar una herramienta robusta para comprender y promover el uso
académico reflexivo y ético de la IAGen en la educación superior.
Material
complementario
El
conjunto de datos utilizados en
este estudio están disponibles previa
solicitud razonable al
autor de correspondencia.
Conflicto de interés
Los autores declaran no tener conflicto de interés.
Referencias
Aiken, L.R. (1985). Three Coefficients for Analyzing
the Reliability and Validity of Ratings. Educational
and Psychological Measurement, 45(1), 131-142. https://doi.org/10.1177/0013164485451012 (Original work
published 1985).
Álvarez-Rebolledo, A., Santos Carreto, M. y Barrios
González, E. (2019). Propiedades psicométricas del cuestionario “Percepción de
la inclusión educativa en nivel superior”. Sinectica, 53, 1-21. https://doi.org/10.31391/S2007-7033(2019)0053-009
American Educational Research Association, American
Psychological Association, y National Council on Measurement in Education. (2018). Estándares para pruebas educativas y psicológicas (M. Lieve, Trans.). American Educational Research Association. https://www.testingstandards.net/uploads/7/6/6/4/76643089/9780935302745_web.pdf
Ato, M., López-García, J., y Benavente, A. (2013). Un
sistema de clasificación de los diseños de investigación en psicología. Anales de Psicología, 29(3), 1038-1059. https://doi.org/10.6018/analesps.29.3.178511
Bond, M., Khosravi, H., De Laat,
M. et al. (2024). A meta systematic review of artificial
intelligence in higher education: a call for increased ethics, collaboration,
and rigour. Int.
J. Educ. Technol. High Educ., 21, 4. https://doi.org/10.1186/s41239-023-00436-z
Castaño Umaña, R. A. (2024). Impacto de la
inteligencia artificial generativa en la educación superior: un estudio
comparativo. Revista Compromiso Social, 7(12),
95–110. https://doi.org/10.5377/recoso.v7i12.19650
Escobar-Pérez, J., & Cuervo-Martínez, A. (2008).
Validez de contenido y juicio de expertos: una aproximación a su utilización. Avances en medición, 6(1), 27-36. https://www.humanas.unal.edu.co/lab_psicometria/application/files/9416/0463/3548/Vol_6._Articulo3_Juicio_de_expertos_27-36.pdf
Escurra Mayaute, L.M.
(1988). Cuantificación de la validez de contenido por criterio de jueces. Revista De Psicología, 6(1-2), 103–111. https://doi.org/10.18800/psico.198801-02.008
Fan, L., Deng, K. & Liu,
F. (2025). Impactos educativos de la inteligencia artificial
generativa en el aprendizaje y el rendimiento de estudiantes de ingeniería en
China. Sci. Rep., 15, 26521. https://doi.org/10.1038/s41598-025-06930-w
Francis N.J., Jones, S., & Smith, D.P. (2025)
Generative AI in Higher Education: Balancing Innovation and Integrity. Br. J. Biomed. Sci., 81, 14048. https://doi.org/10.3389/bjbs.2024.14048
Giannakos, M., Azevedo, R., Brusilovsky, P., Cukurova, M., Dimitriadis, Y., Hernandez-Leo, D.,… Rienties, B. (2024). The
promise and challenges of generative AI in education. Behaviour & Information Technology, 44(11), 2518–2544. https://doi.org/10.1080/0144929X.2024.2394886
Hair, J. F., Black, W. C., Babin, B. J., &
Anderson, R. E. (2019). Multivariate data analysis (8th ed.). Cengage.
Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial
intelligence in education: Promise and implications for teaching & learning
(2nd ed.). Center for Curriculum Redesign. https://www.researchgate.net/publication/332180327_Artificial_Intelligence_in_Education_Promise_and_Implications_for_Teaching_and_Learning
Jovanović, M. and Campbell, M. (2022). Generative
Artificial Intelligence: Trends and Prospects. Computer, 55(10),107-112.
https://doi.org/10.1109/MC.2022.3192720
Lloret-Segura, S., Ferreres-Traver,
A., Hernández-Baeza, A., & Tomás-Marco, I. (2014). Análisis factorial de
ítems exploratorios: una guía práctica revisada y actualizada. Anales de Psicología / Annals of
Psychology, 30 (3), 1151–1169. https://doi.org/10.6018/analesps.30.3.199361
Long, D., & Magerko, B.
(2020). What is AI literacy? Competencies and design considerations.
Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems,
1–13. https://doi.org/10.1145/3313831.3376727
Maldonado-Suárez, N., & Santoyo-Telles, F. (2024).
Validez de contenido por juicio de expertos: Integración cuantitativa y
cualitativa en la construcción de instrumentos de medición. REIRE Revista d’Innovació
i Recerca en Educació, 17(2), 1-19. https://doi.org/10.1344/reire.46238
Martín-Romera, Ana, y Molina Ruiz, Enriqueta. (2017).
El valor del conocimiento pedagógico para la docencia en secundaria: diseño y
validación de un cuestionario. Estudios
pedagógicos (Valdivia), 43(2), 195-220. https://dx.doi.org/10.4067/S0718-07052017000200011
L. Milfont, T., &
Fischer, R. (2010). Testing measurement invariance across groups:
applications in cross-cultural research. International
Journal of Psychological Research, 3(1), 111–130. https://doi.org/10.21500/20112084.857
Niño-Carrasco, S. A., Castellanos-Ramírez, J. C.,
Perezchica Vega, J. E., & Sepúlveda Rodríguez, J. A. (2025). Percepciones de
estudiantes universitarios sobre los usos de inteligencia artificial en
educación. Revista Fuentes, 27(1),
94–106. https://revistascientificas.us.es/index.php/fuentes/article/view/26356/24034
Peres, R., Schreier, M., Schweidel, D. & Sorescu, A. (2023). On ChatGPT and beyond: How generative
artificial intelligence may affect research, teaching, and practice. International Journal of Research in
Marketing, 40 (2), 269-275. https://doi.org/10.1016/j.ijresmar.2023.03.001
Putnick, D. L., & Bornstein, M. H. (2016).
Measurement invariance conventions and reporting: The state of the art and
future directions for psychological research. Developmental Review, 41,
71–90. https://doi.org/10.1016/j.dr.2016.06.004
Qadir, J. (2023). "Engineering Education in the
Era of ChatGPT: Promise and Pitfalls of Generative AI for
Education," IEEE Global Engineering Education Conference (EDUCON),
Kuwait, Kuwait, 2023, pp. 1-9. https://doi.org/10.1109/EDUCON54358.2023.10125121
Redecker, C. (2017). European framework for the
digital competence of educators: DigCompEdu.
Publications Office of the European Union. https://doi.org/10.2760/159770
Romeu Fontanillas, T., Romero Carbonell, M., Guitert Catasús, M., & Baztán
Quemada, P. (2025). Desafíos de la Inteligencia Artificial generativa en
educación superior: fomentando su uso crítico en el estudiantado. RIED-Revista Iberoamericana de Educación a
Distancia, 28(2), 209–231. https://doi.org/10.5944/ried.28.2.43535
Ruiz Mendoza, K. K., Miramontes Arteaga, M. A., &
Reyna García, C. (2024). Percepciones y expectativas de estudiantes
universitarios sobre la IAG. European Public &
Social Innovation Review, 9,
1–21. https://doi.org/10.31637/epsir-2024-357
Russell, S. J., & Norvig, P. (2021). Artificial
Intelligence: A Modern Approach (4th ed.). Pearson.
https://www.amazon.com/Artificial-Intelligence-A-Modern-Approach/dp/0134610997
Silgado-Tuñón, D. A., & López-Flores, J. I.
(2025). Inteligencia Artificial Generativa en la Educación Superior: una
Revisión Sistemática. Unión - Revista
Iberoamericana De Educación Matemática, 21(73). https://revistaunion.org/index.php/UNION/article/view/1709
Ursavaş, Ö.F.,
Yalçın, Y., İslamoğlu, H. et al.
(2025). Replanteando la importancia de las normas sociales en la adopción de la
IA generativa: investigación sobre la aceptación y el uso de la IA generativa
entre estudiantes de educación superior. International
Journal of Educational Technology in Higher Education, 22, 38. https://doi.org/10.1186/s41239-025-00535-z
Xia, Q., Weng, X., Ouyang, F., Lin, T.J., & Chiu,
T.K.F. (2024). A scoping review on how generative artificial intelligence
transforms assessment in higher education. Int.
J. Educ. Technol. High. Educ., 21, 40. https://doi.org/10.1186/s41239-024-00468-z