Cómo citar este artículo:
Cerda-González, C., León-Herrera,
M., Saiz-Villadet, J.L., & Villegas-Medrano, L. (2022). Propósitos de uso
de tecnologías digitales en estudiantes de pedagogía chilenos: Construcción de
una escala basada en competencias digitales [Chilean student teachers’ purposes
of use of digital technologies: Construction of a scale based on digital
competences]. Pixel-Bit. Revista de
Medios y Educación, 64, 7-25.
https://doi.org/10.12795/pixelbit.93212
RESUMEN
La adquisición de
competencias digitales permite el desarrollo de las personas en diversas áreas
de la sociedad. En el caso de muchos jóvenes, y en especial de los futuros
docentes, dicha adquisición es obtenida a través del uso cotidiano de
tecnologías digitales. Disponer de instrumentos para medir competencias
digitales, considerando diversos propósitos de uso, puede contribuir a
retroalimentar la adquisición de estas competencias en procesos de formación
inicial docente. Esta investigación tuvo como objetivo construir y analizar
psicométricamente la Escala de Propósitos de Uso y Competencias Digitales
(EPUCD). Una muestra de 618 estudiantes de pedagogía de dos universidades
chilenas contestó un cuestionario que mide frecuencia de uso académico,
recreativo, social y económico, utilizando DigComp como marco de competencias
digitales. Los procedimientos estadísticos realizados (AFE, AFC y cálculo
coeficiente de fiabilidad compuesta y varianza extraída media) permitieron
obtener evidencias adecuadas de validez estructural y discriminante y de
consistencia interna de este instrumento. Las aceptables propiedades
psicométricas de la EPUCD permiten que se ponga a disposición de la comunidad
académica un instrumento que contribuya a develar cómo los futuros docentes
hacen uso de las tecnologías digitales, permitiendo de esta forma
retroalimentar el proceso de formación inicial docente.
ABSTRACT
The acquisition of digital
competences enables people’s active development in different areas of society.
In the case of many young people, and especially among future teachers, this
acquisition is obtained through the daily use of digital technologies. Having
instruments to measure digital competences associated to different purposes of
use can contribute to provide feedback on the acquisition of these competences
during initial teacher training processes. The aim of this study was to
construct and psychometrically analyze the Scale of Purposes of Use and Digital
Competences (EPUCD, by its acronym in Spanish). A sample of 618 student
teachers from two Chilean universities answered a questionnaire that measures
academic, entertainment, social and economic uses, considering DigComp as a
digital competence framework. The statistical procedures carried out (EFA, CFA,
composite reliability and average variance extracted) allowed to obtain
appropriate evidences of this instrument’s structural and discriminant validity
and internal consistency. The acceptable psychometric properties of EPUCD allow
to provide an instrument for the academic community that contributes to reveal
how future teachers use these digital technologies, offering feedback on the
initial teacher training process.
PALABRAS CLAVES · KEYWORDS
Competencia digital; tecnología educacional; formación
de docentes; enseñanza superior; medición.
Digital competence; educational technology; teacher education;
higher education; measurement.
1. Introducción
La
competencia digital es clave para que todos los ciudadanos del siglo XXI
garanticen su participación activa en la sociedad. Ser competente digitalmente
involucra usar de modo seguro, crítico y creativo las tecnologías para lograr
objetivos relacionados con el trabajo, empleabilidad, aprendizaje, ocio,
inclusión y/o participación en la sociedad (Ferrari, 2013). Se considera
indispensable que toda persona pueda manejar tecnologías digitales de tal forma
que pueda desenvolverse consciente y responsablemente en diferentes ámbitos de
su vida (Casal et al., 2021). Por lo tanto, es una competencia transversal que
permite el desarrollo activo en la sociedad y que ha sido frecuentemente objeto
de estudio.
Existen
diversas iniciativas que definen y organizan las competencias digitales,
educativas o genéricas, lo que ha llevado a la elaboración y utilización de
distintos conceptos y marcos (Gisbert et al., 2016). Según Cabero-Almenara, Romero-Tena, et al. (2020), diversos expertos en el área coinciden
que los marcos de competencias digitales disponibles, en el contexto educativo,
representan opciones consolidadas que orientan qué debe ser adquirido para ser
competente digitalmente. Entre estos marcos, los citados autores mencionan:
DigCompEdu, estándares ISTE para educadores, marco UNESCO, marco común español
de competencias docentes, marco británico para la enseñanza digital,
competencias TIC para el desarrollo profesional docente colombiano, junto a las
competencias y estándares TIC para la profesión docente en Chile. Por otra
parte, en términos de competencias digitales genéricas, DigComp puede ofrecer
una adecuada herramienta para comprender lo que las personas hacen con estas
tecnologías.
La
Comisión Europea, una de las instituciones preocupada de este tema, estableció
un Marco Europeo de Competencias Digitales para la Ciudadanía (DigComp)
(Ferrari, 2013). DigComp entrega orientaciones respecto a los conocimientos,
habilidades y actitudes para utilizar tecnologías digitales en cinco áreas de
competencias: (i) Información; (ii) Comunicación; (iii) Creación de contenido;
(iv) Seguridad; y (v) Resolución de problemas. Cada una de ellas está integrada
por un conjunto de competencias específicas, 21 en total. Además, versiones
actualizadas de este marco han establecido niveles de desempeños que permiten
la clasificación en categorías básica, intermedia y avanzada (Carretero et al.,
2017). Como se verá más adelante, el presente estudio adoptó el marco DigComp
por cuanto es coherente con la noción que el estudiante de pedagogía aprende a
usar de forma autónoma distintas herramientas digitales, durante su formación,
en función de necesidades y oportunidades emergentes. Pese a esta ventaja,
DigComp no hace referencia explícita a la relación de estas competencias
genéricas con diversos propósitos de uso de las tecnologías digitales.
En
la literatura se han reportado diversos propósitos de uso de estas tecnologías.
Algunos autores hablan de propósito académico cuando se usan las tecnologías
digitales para buscar información, comunicarse académicamente con otros,
realizar trabajos y tareas digitales y crear material digital con fines
educativos (Cerda et al., 2018). Otros se refieren a uso hedonista o de
entretenimiento para incluir acciones como jugar con dispositivos tecnológicos,
mirar televisión o escuchar radio, escuchar música o ver películas en línea
(Labbé et al., 2019; Morales et al., 2020). En tanto, también se habla de un
propósito de uso social pues la tecnología ofrece medios y espacios de
interacción que permiten la socialización (Lira, 2013). Finalmente, se destaca
el uso económico, donde los estudiantes universitarios se han transformado en
consumidores habituales del comercio electrónico (Castillo et al., 2020),
realizando actividades como trámites bancarios,
comprar o vender productos en línea (Matamala & Hinostroza, 2020).
Para todos estos propósitos de usos se hace fundamental ser competente
digitalmente, por lo que la evaluación de la competencia se considera un tema
relevante de abordar.
Existen
diversas formas para medir competencias digitales. Algunos instrumentos
consideran la percepción de los participantes respecto a su nivel de
competencia, por lo que se les pide que se autoevalúen en un nivel inicial,
medio o avanzado (e.g., Fraile et al., 2018). En algunos casos, se debe indicar
grado de acuerdo frente a afirmaciones que representan acciones asociadas a
competencias (e.g., Lorenzo-Lledó et al., 2018). Otras escalas miden la
percepción de frecuencia frente a actividades que reflejan competencias (e.g.,
Flores-Lueg & Roig, 2016; Siiman et al., 2016). También existen
instrumentos que evalúan conocimientos ante situaciones que necesitan ser
resueltas (e.g., Silva et al., 2019) y otros que involucran tareas a
desarrollar en un dispositivo tecnológico (e.g., Jashari et al., 2021). Además,
existen instrumentos que evalúan competencias digitales genéricas en
estudiantes universitarios (e.g., Wild & Schulze, 2021; Cabero-Almenara et
al, 2022), incluso algunos que son específicos para estudiantes de pedagogía
(e.g., Cabero-Almenara, Barroso-Osuna, et al., 2020;
Cantón-Mayo, 2017; Usart et al., 2021) y otros que se basan en el marco europeo
para la competencia digital de educadores (DigCompEdu) (e.g., Redecker, 2017).
Si bien estos instrumentos contribuyen a la medición de competencias digitales
desde diversas aproximaciones, ninguno de ellos considera simultáneamente
propósitos específicos de uso.
Aunque
se observa diversidad en la evaluación de competencias digitales, sigue
existiendo la necesidad de diseñar instrumentos para requerimientos
específicos, como pueden ser los diversos propósitos de uso con que los jóvenes
emplean la tecnología. En la actualidad, se cuenta con instrumentos que miden
competencias digitales genéricas, basados en el DigComp, para docentes en
formación (e.g., Fraile et al., 2018); sin embargo, no se disponen instrumentos
que incorporen distintos propósitos de uso de las tecnologías digitales. Por
otra parte, existen instrumentos que miden algunos propósitos de uso (e.g.,
Cerda et al., 2018), pero no incorporan explícitamente competencias digitales.
Ante este vacío, y dada la diversidad de ámbitos en que se desenvuelven los
estudiantes universitarios, y en específico, los futuros profesores, se
considera necesario aportar en este nicho investigativo. Se puede contribuir a
esta problemática, fortaleciendo la comprensión de este fenómeno desde la
medición de competencias digitales genéricas, pero vinculadas a diversos
propósitos de uso.
Tomando
en cuenta los antecedentes presentados, esta investigación tuvo como objetivo
construir y analizar psicométricamente la Escala de Propósitos de Uso y
Competencias Digitales (EPUCD). En específico, se buscó determinar evidencias
de validez de la estructura interna de la escala para confirmar el patrón de
asociaciones esperados a partir de su elaboración. Además, se planteó examinar
la validez discriminante de la EPUCD para confirmar que los factores no
reflejaran constructos redundantes. Finalmente, se identificó la consistencia
interna de la EPUCD. Sabiendo que una correcta interpretación de las
competencias digitales está ligada a particularidades sociales y culturales
respecto a tecnología y educación (Engen, 2019), se optó por construir la EPUCD
como un instrumento culturalmente pertinente para estudiantes de pedagogía, en
lugar de traducir y/o adaptar alguno de los instrumentos ya existentes.
Disponer
de un instrumento que mida competencias digitales en docentes en formación que
incluya distintos propósitos de uso se considera muy relevante. Asumiendo que
las competencias digitales continúan evolucionando, resulta fundamental incluir
las nuevas transformaciones que ocurran, tanto en la reorientación como en su
nivelación (Garzón-Artacho et al., 2021). En este sentido, incorporar
explícitamente los distintos propósitos de uso de las tecnologías, permitiría a
los investigadores medir de una manera confiable y válida estos distintos
aspectos en estudiantes de pedagogía. Con ello se podría describir los usos,
permitiendo -en futuras investigaciones- establecer relaciones con otras
variables y evaluar en diferentes períodos de tiempo los avances en este tema.
Por otra parte, se podría disponer de información que permitiera a los
formadores de educadores realizar acciones para promover competencias
digitales, especialmente en el uso académico. Investigaciones recientes dan
cuenta que los futuros docentes no tienen la suficiente competencia digital
para una integración efectiva de las tecnologías en su futuro desempeño
profesional (Cañete et al., 2022). Contar con instrumentos para medir
competencias digitales, considerando propósitos de uso, puede contribuir a
precisar el involucramiento que hacen los futuros educadores al emplear estas
tecnologías.
2. Método
Se obtuvo una muestra
intencionada (purposive sample; Etikan & Bala, 2017) de 618
participantes. Los criterios de inclusión fueron: (1) ser estudiante de
pregrado de pedagogía en una de dos universidades (una pública y otra privada)
del centro-sur de Chile y (2) asentir informadamente su participación en el
estudio. La muestra fue dividida aleatoriamente en dos submuestras equivalentes
(n1 = 314 y n2 = 304) las que no difirieron
significativamente (ps > .05) en las cuatro variables
sociodemográficas (ver Tabla 1).
Tabla 1
Perfil sociodemográfico de participantes según submuestras (n = 618)
Variables sociodemográficas |
Submuestra 1 n1 = 314 |
Submuestra 2 n2 = 304 |
Sexo, f (%) |
|
|
Hombre |
117 (37.26) |
107 (35.20) |
Mujer |
197 (62.74) |
197 (64.80) |
Años
de permanencia en programa, f (%) |
|
|
1 |
75 (23.88) |
75 (24.67) |
2 |
46 (14.65) |
51 (16.78) |
3 |
41 (13.06) |
43 (14.14) |
4 |
81 (25.80) |
68 (22.37) |
5 |
47 (14.97) |
49 (16.12) |
6 o más |
24 (7.64) |
18 (5.92) |
Reprobación
de asignaturas, f (%) |
|
|
Ninguna |
198 (63.06) |
181 (59.5) |
Dos o más |
116 (36.94) |
123 (40.5) |
Edad, M (DE) |
21.42 (2.96) |
21.80 (3.37) |
|
La Escala de Propósitos de Uso y Competencias
Digitales (EPUCD[1]) fue elaborada por el equipo
de esta investigación considerando criterios teóricos y empíricos (Streiner et
al., 2015). Primero, se analizaron las competencias señaladas en DigComp
(Ferrari, 2013; Vuorikari et al., 2016), seleccionándose aquellas susceptibles
de ser medidas con diferentes propósitos de usos en estudiantes de pedagogía.
Segundo, a fin de precisar los distintos propósitos de uso de tecnologías
digitales, nueve estudiantes llevaron un registro diario de acciones con estas
tecnologías, durante una semana, mediante la aplicación Google Keep;
adicionalmente se entrevistaron cinco estudiantes sobre este mismo tema.
Tercero, se consideraron ítems de instrumentos desarrollados previamente por
este equipo (Cerda et al., 2020; Cerda et al., 2018). Como resultado de lo
anterior se elaboraron 88 ítems iniciales que evaluaban cuatro propósitos de
uso en relación a cinco competencias digitales.
Los cuatro propósitos de uso fueron: académico,
recreativo, social, y económico. El propósito académico consideró la búsqueda
de información para actividades vinculadas a la universidad, la comunicación
con docentes o pares universitarios y la realización de trabajos y documentos
digitales académicos. El recreativo incluyó acciones como jugar, escuchar
música, ver audiovisuales utilizando tecnologías digitales. El social incorporó
comunicación con amistades, publicación en redes sociales, interacción y creación
de materiales para sociabilizar. Finalmente, el económico abarcó actividades
como comprar y vender utilizando tecnologías, cotizar productos o buscar en
línea oportunidades de trabajo.
Las cinco competencias
digitales seleccionadas del DigComp fueron[2]:
A = Navegar, buscar datos, información y contenido digital; B = Gestionar
datos, información y contenido digital; C = Interactuar a través de tecnologías
digitales; D = Compartir a través de tecnologías digitales; y E = Desarrollar
contenido digital.
Los ítems fueron redactados de manera positiva,
incluyendo los dos elementos centrales: (1) acción que refleja una competencia
digital y (2) propósito de uso de la tecnología digital, agregando (3) el
contexto digital y, eventualmente, los actores. Este orden puede ser ilustrado
en el siguiente ítem: Comunicarme (acción
que refleja la competencia) por Internet (contexto digital) con compañeros de cursos (actores) para informarme sobre tareas asignadas en clases (propósito de uso académico).
Se empleó un formato de respuesta de cinco opciones
graduadas según frecuencia: 1 = Nunca o casi nunca, 2 = A veces, 3 = Término
medio, 4 = Muchas veces, y 5 = Siempre o casi siempre. Los ítems fueron
presentados a los respondientes agrupados según propósito de uso y, dentro de
cada propósito, según competencias digitales. La EPUCD permite obtener 29
puntajes individuales: 20 puntajes específicos que corresponden a la combinación
de un propósito de uso con una competencia digital (e.g., propósito
académico/competencia A); cuatro puntajes de propósitos de uso (e.g., propósito
recreativo); y cinco de competencias digitales (e.g., competencia E). Estos
puntajes son obtenidos promediando las respuestas a los ítems correspondientes.
Mayores puntajes reflejan una mayor frecuencia de empleo de un propósito de uso
y/o de una competencia digital.
2.3 Procedimiento
La recolección de datos fue realizada de manera
digital, mediante la plataforma QuestionPro, dado el contexto de pandemia por
COVID19. Antes de participar, los estudiantes tuvieron la posibilidad de leer
un consentimiento informado, aprobado por un Comité Ético Científico
universitario, asintiendo participar en el estudio. El consentimiento informado
proporcionó los objetivos de investigación e información relativa a la
confidencialidad y privacidad de los datos, junto a la voluntariedad de
participar en el estudio. Durante siete semanas se enviaron correos
recordatorios (uno semanal) reiterando la invitación a participar a los
estudiantes que aún no lo habían hecho. Adicionalmente, docentes de las
carreras de educación, durante sus clases en línea, motivaron a sus estudiantes
a participar.
2.3 Análisis de datos
El análisis de los datos consideró la realización de
diversas acciones para obtener evidencias de validez de la estructura interna,
de validez discriminante y de la consistencia interna de la EPUCD. En la
submuestra 1 (n1 = 314) se realizó una
serie de análisis factoriales exploratorios (AFE), mediante el programa FACTOR
(Lorenzo-Seva & Ferrando, 2006), para indagar la estructura unidimensional
de cada uno de los 29 puntajes de la EPUCD. Cada AFE se inició a partir de la
matriz de correlaciones policóricas interítems, recomendada para datos
ordinales (Flora & Curran, 2004), y se prefijó la extracción de un factor
único mediante análisis factorial de rango mínimo (MRFA, por su sigla en
inglés) (Shapiro & Berge, 2002). Se examinó la factoriabilidad de los datos
a través de las pruebas de esfericidad de Bartlett y de adecuación muestral de
Kaiser-Meyer-Olkin (KMO). Fueron retenidos los ítems con cargas iguales o
mayores a .30 en el factor. En caso de que un ítem no cumpliera este criterio
se repitió el AFE, omitiendo tal ítem. El ajuste del modelo unifactorial
emergente fue inspeccionado a través del índice de la raíz cuadrada media de
los residuales (RMSR, por su sigla en inglés). Una vez definido cada factor, se
calculó su consistencia interna a través de omega ordinal.
En la submuestra 2 (n2 = 304), las 29 estructuras unidimensionales obtenidas
previamente con AFE fueron corroboradas, como modelos de medición, mediante
análisis factoriales confirmatorios (AFC) a través del programa estadístico
JASP 0.14. El método robusto de mínimos cuadrados ponderados diagonalizados (DWLS, por su sigla en inglés) fue usado para estimar cada modelo,
considerando los siguientes índices de bondad de ajuste y sus criterios
de aceptación: media estandarizada de la raíz cuadrática residual (SRMR < .08);
índice de Tucker Lewis (TLI > .90), índice de ajuste comparativo (CFI >
.90); y error cuadrático medio de aproximación (RMSEA ≤ .06) (Abad et
al., 2011).
A fin de explorar la existencia de un modelo
estructural se computaron, en la muestra total (n = 618), coeficientes de correlación simple r de Pearson entre los cuatro puntajes de propósitos de uso. Sobre
la base del patrón de correlaciones obtenido se examinó, mediante AFC, un
modelo estructural de cuatro factores latentes correlacionados (propósitos de
uso) y los 20 puntajes propósito/competencia como indicadores. Para descartar
modelos estructurales alternativos se examinaron dos modelos: uno unifactorial,
(con un factor latente general y los 20 puntajes como indicadores), y otro de
segundo orden (con un factor latente general de segundo orden, los cuatro
factores latentes de primer orden y los 20 puntajes como indicadores). Un valor
∆CFI menor o igual a |0.01| fue usado para concluir que los modelos
comparados no difieren significativamente (Cheung & Rensvold, 2002).
En el modelo tetrafactorial, la consistencia interna
de los factores latentes fue examinada mediante los coeficientes de fiabilidad
compuesta (FC) y de varianza extraída media (VEM). FC expresa la proporción de
varianza verdadera respecto a la varianza total de los ítems que integran un
factor latente, en tanto que VEM informa el monto de varianza capturada por el
factor en relación al monto de varianza debida a error de medición. Se
consideran aceptables valores FC y VEM iguales o mayores a 0.60 y 0.50,
respectivamente (Raykov, 2012). Además, se examinó la validez discriminante de
los factores del modelo comparando la VEM de cada factor versus las
estimaciones de las covarianzas, elevadas al cuadrado, entre los factores
involucrados. Cuando la VEM es mayor que cada una de estas covarianzas se
concluye que el constructo medido por el factor posee suficiente diferenciación
(validez discriminante) respecto a los otros constructos del modelo (Farrell,
2010; Fornell & Larcker, 1981).
3. Análisis y resultados
3.1 Evidencia de la estructura interna
3.1.1 Análisis Factorial Exploratorio
En los 29 AFE finales las pruebas de esfericidad de
Bartlett y de adecuación muestral KMO fueron adecuadas, así como también el
correspondiente valor de ajuste RMSR. En este proceso se eliminaron 14 de los
88 ítems originales por presentar bajas cargas factoriales.[3]
La Tabla 2 presenta la numeración de los 74 ítems que conformaron finalmente cada
uno de los 20 factores basados en cada combinación propósito/competencia, junto
a las cargas factoriales de los ítems correspondientes y la fiabilidad omega
ordinal de cada factor. En esta tabla, los totales filas y totales columnas
incluyen la fiabilidad omega de cada competencia y de cada propósito,
respectivamente.
3.1.2. Análisis Factorial
Confirmatorio
Utilizando la información obtenida a través del
análisis factorial exploratorio, se probaron los modelos de medida de los
propósitos de uso y competencias digitales. La Tabla 3 presenta los valores de
ajuste de los modelos de medida unidimensionales tanto de los propósitos de uso
como de las competencias digitales. Todos estos indicadores de ajuste fueron
adecuados.
El patrón de correlaciones simples r de Pearson entre cada par de puntajes
de propósitos de uso, todos con p
< .001, sugirió un modelo estructural de cuatro factores latentes
correlacionados. Específicamente, los valores r de propósito académico fueron .31 con recreativo, .47 con social,
y .44 con económico; asimismo, los valores r
de recreativo fueron .64 con social, y .50 con económico; finalmente, el
valor r de social fue .64 con
económico.
Numeración de los ítems componentes de los 20 factores
según combinaciones propósito/competencia, carga factorial (l) de los ítems y
fiabilidad omega (ω) ordinal del factor correspondiente.
CD |
|
Propósitos |
|
|||
Académico |
Recreativo |
Social |
Económico |
Total |
||
A |
Nº l w |
1, 2, 3 .84, .99, .85 .92 |
18, 19, 20, 21 .75, .80, .78, .84 .85 |
36, 37, 38, 39 .74, .73, .88., .82 .85 |
56, 57, 58, 59 .87, .94, .83, .75 .90 |
.89 |
|
|
|
|
|
|
|
B |
Nº l w |
4, 5, 6 83, .86, .71 .84 |
22, 23, 24 .72, .95, .51 .78 |
40, 41, 42, 43 .64, .85, .75, .77 .83 |
60, 61, 62, 63 .71, .64, .73, .82 .80 |
.84 |
|
|
|
|
|
|
|
C |
Nº l w |
7, 8, 9, 10 .93, .97, .96, .87 .96 |
25, 26, 27, 28 .81., .71, .74., 85 .83 |
44, 45, 46, 47 .81, .74, .81, .46 .80 |
64, 65, 66, 67 .90, .96, .74, .66 .88 |
.90 |
|
|
|
|
|
|
|
D |
Nº l w |
11, 12, 13 .83, .98, .88 .93 |
29, 30, 31 .86, .87, .84 .89 |
48, 49, 50, 51 .79., 84, .81., 77 .87 |
68, 69, 70 .93, .94, .79 .91 |
.92 |
|
|
|
|
|
|
|
E |
Nº l w |
14, 15, 16, 17 .84, .77, .92, .83 .90 |
32, 33, 34, 35 .79, .92., .72, .82 .88 |
52, 53, 54, 55 .80, .88, .88, .80 .90 |
71, 72, 73, 74 .81, .96, .93, .86 .91 |
.93 |
Total |
w |
.94 |
.93 |
.94 |
.95 |
-- |
Nota: CD =
Competencia digital. A = Navegar, buscar datos, información y contenido
digital; B = Gestionar datos, información y contenido digital; C =
Interactuar a través de tecnologías digitales; D = Compartir a través de
tecnologías digitales; y E = Desarrollar contenido digital. |
Tabla 3
Bondad de ajuste de
los modelos de medida unidimensionales de los propósitos de uso y competencias
digitales.
Modelos de medida |
χ2 |
gl |
p |
CFI |
TLI |
RMSEA (90% IC) |
SRMR |
Propósitos |
|
|
|
|
|
|
|
Académico |
16.906 |
5 |
.005 |
.986 |
.972 |
.089 (.045,.137) |
.067 |
Recreativo |
9.666 |
5 |
.085 |
.994 |
.987 |
.055 (.000,.108) |
.056 |
Social |
8.646 |
5 |
.124 |
.995 |
.989 |
.049 (.000,.103) |
.054 |
Económico |
5.642 |
5 |
.343 |
.999 |
.998 |
.021 (.000,.085) |
.059 |
Competencias |
|
|
|
|
|
|
|
A |
1.720 |
2 |
.423 |
1.000 |
1.000 |
.000 (.000-.109) |
.024 |
B |
1.925 |
2 |
.382 |
1.000 |
1.000 |
.000 (.000-.112) |
.027 |
C |
5.338 |
2 |
.069 |
0.983 |
0.950 |
.074 (.000-.154) |
.044 |
D |
2.140 |
2 |
.343 |
0.999 |
0.998 |
.015 (.000-.116) |
.034 |
E |
0.944 |
2 |
.624 |
1.000 |
1.000 |
.000 (.000-.091) |
.025 |
Nota: A = Navegar, buscar
datos, información y contenido digital; B = Gestionar datos, información y
contenido digital; C = Interactuar a través de tecnologías digitales; D =
Compartir a través de tecnologías digitales; y E = Desarrollar contenido
digital. |
Los índices de ajuste del modelo estructural
tetrafactorial, expuestos en la Tabla 4, fueron todos adecuados. En el examen
del modelo alternativo unifactorial los índices RMSEA y SRMR revelan una falta
de ajuste de este modelo. El modelo alternativo de segundo orden ajustó
adecuadamente, aunque su ajuste fue ligeramente inferior a aquel del modelo
tetrafactorial. La comparación de estos dos modelos proporcionó un ∆CFI
de .002 revelando que los modelos tetrafactorial y de segundo orden no difieren
significativamente. Dados los adecuados niveles de consistencia interna y
validez discriminante observados en el modelo tetrafactorial (ver más adelante)
se prefirió este modelo por sobre el modelo de segundo orden. La Figura
1 muestra los resultados pormenorizados del modelo tetrafactorial.
Índices de ajuste de los tres modelos estructurales
examinados
Modelos |
|
df |
p |
CFI |
TLI |
RMSEA (90% IC) |
SRMR |
Tetrafactorial oblicuo |
405.61 |
164 |
<.001 |
.982 |
.979 |
.049 (.043,.055) |
.066 |
Unifactorial |
1364.80 |
170 |
<.001 |
.909 |
.899 |
.107 (.102,.112) |
.116 |
Segundo orden |
435.88 |
166 |
<.001 |
.980 |
.977 |
.051 (.045,.057) |
.068 |
Figura 1
Modelo tetrafactorial
3.2 Consistencia interna y validez discriminante
La Tabla 5 presenta los coeficientes de fiabilidad
compuesta (FC) y de varianza extraída media (VEM), junto a la evidencia de
validez discriminante, del modelo estructural tetrafactorial. Todos los valores
FC y VEM fueron superiores a los valores mínimos aceptables, indicando una
adecuada consistencia en cada factor. Además, en todas las comparaciones
pertinentes, la varianza extraída media (VEM) fue mayor que las estimaciones de
las covarianzas elevadas al cuadrado, resultado que apoya una suficiente
diferenciación entre los cuatro factores latentes del modelo. Así puede
afirmarse que estos cuatro factores reflejan constructos no redundantes.
Tabla 5
Fiabilidad
compuesta (FC), varianza extraída media (VEM) y estimaciones de las covarianzas
interfactores, elevadas al cuadrado, en el modelo estructural tetrafactorial.
Propósitos |
FC |
1 |
2 |
3 |
4 |
1. Académica |
.84 |
.52 |
.13 |
.29 |
.26 |
2. Recreativa |
.87 |
|
.57 |
.52 |
.32 |
3. Social |
.86 |
|
|
.56 |
.52 |
4. Económica |
.87 |
|
|
|
.58 |
Nota: Valores en la
diagonal (en negrita) corresponden a varianza extraída media (VEM). Valores
sobre la diagonal corresponden a estimaciones de la covarianza interfactores,
elevadas al cuadrado. |
En
este estudio se construyó y analizó psicométricamente la Escala de Propósitos
de Uso y Competencias Digitales. Específicamente, se obtuvo evidencias que
apoyan la validez de la estructura interna de la escala (modelo tetrafactorial
oblicuo) y la validez discriminante de sus factores. Además, se comprobó que
los factores poseen una adecuada consistencia interna. Así, se logró el
propósito de disponer de una escala con adecuadas propiedades psicométricas, al
menos iniciales, para medir propósitos de uso académico, recreativo, social y
económico a través de competencias digitales, en estudiantes de pedagogía.
La
EPUCD se suma a la diversidad de instrumentos existentes para medir
competencias digitales. Según el tipo de rendimiento, pueden clasificarse en
rendimiento óptimo (e.g., Jashari et al., 2021) o típico (e.g., Fraile et al.,
2018). La EPUCD se enmarcaría en esta última clasificación, pues tal como
indica Abad et al. (2011) interesa medir el comportamiento usual y, en este
caso, con qué frecuencia se realizan ciertas acciones asociadas a competencias
digitales, enmarcadas en algunos propósitos de uso. Por otra parte, es un
instrumento donde se seleccionaron ciertas competencias que se consideraron más
pertinentes para la realidad de los futuros educadores, a diferencia de otros
instrumentos, como el de Fraile et al. (2018) que incluyó las cinco áreas del
DigComp. Por consiguiente, se hace fundamental la incorporación de los
propósitos de uso académico, recreativo, social y económico debido a que su
integración permite ampliar las estrategias de medición, aportando de esta
forma al desarrollo de esta área del conocimiento.
Disponer
de un instrumento con adecuadas propiedades psicométricas se considera
relevante para el estudio de las competencias digitales. En específico, este
instrumento permitirá -a nivel macro- que en las organizaciones formadoras de
educadores se puedan tomar decisiones informadas respecto a las competencias de
sus estudiantes, conociendo en qué propósitos de usos están focalizados. Aunque
podría suponerse que estas instituciones educativas enfatizarían el uso
académico, la EPUCD permitiría determinar otros propósitos de uso de las
tecnologías digitales. Sin desconocer la importancia del uso académico en la
formación de futuros docentes, resulta relevante comprender cómo los otros
propósitos de uso interactuarían con el uso académico.
Esta
investigación presenta algunas limitaciones que deben considerarse. La
aplicación de este instrumento fue realizada durante la emergencia sanitaria
producto del COVID19. En este contexto, la docencia universitaria fue impartida
de manera virtual, situación que podría haber influido en los resultados
obtenidos, potenciado de alguna manera una mayor frecuencia de uso de las
tecnologías digitales. Sería necesario replicar esta investigación en un
contexto libre de pandemia. Además, es relevante recordar que la utilización de
las tecnologías está mediada por la disponibilidad, acceso y orientaciones que
las instituciones educativas promuevan. Dada la diversidad observada en las
mallas de formación inicial docente en Chile (Tapia et al., 2020), es necesario
tener presente que la realidad de los estudiantes evaluados, podría no
replicarse en otras universidades del país. En esta misma línea, la medición de
los propósitos de uso puede variar dependiendo de los contextos y
disponibilidades tecnológicas. Un buen ejemplo de esto ha sido la docencia
virtual en tiempos de COVID19 que ha impulsado el uso académico de estas
aplicaciones, al igual que el uso social de estas tecnologías que es estimulado
por las empresas de telefonía al ofrecer estos servicios de manera gratuita. Es
altamente recomendable que futuras investigaciones consideren -en su diseño- el
control de estas limitaciones.
La
EPUCD podría contribuir al desarrollo de futuros estudios asociados a la
investigación en formación inicial docente y uso de tecnologías digitales. De
manera inicial, permitiría el desarrollo de estudios cuyo foco sea describir
las competencias digitales asociadas a diferentes propósitos de uso de los
estudiantes de pedagogía. También podría ser utilizada en investigaciones donde
se quisiera conocer el perfil de las personas que tienen mayores puntajes en
ciertos propósitos de uso. Puesto que la validación de una medida es un proceso
acumulativo constante, se sugiere para futuros estudios examinar otras fuentes
de validez de la EPUCD, como aquellas basadas en contenido, relaciones con
otras variables, o consecuencias (Elosua, 2003). Igualmente, se recomienda
replicar el examen de la estructura interna de la escala en otras poblaciones
de estudiantes de pedagogía. Para facilitar la interpretación de puntajes
individuales de la EPUCD se propone la construcción de referentes normativos
(baremos, puntos de corte), ojalá en muestras representativas de poblaciones de
docentes en formación.
Este estudio pone a
disposición de la comunidad académica e investigativa un instrumento, la EPUCD,
especialmente diseñado para medir, en estudiantes de pregrado de pedagogía,
cuatro propósitos de uso de tecnologías digitales en razón de cinco
competencias digitales seleccionadas desde un marco de competencias digitales
ampliamente reconocido, DigComp. La EPUCD permite obtener puntuaciones sobre
los propósitos de uso y las competencias digitales, a emplear según las
necesidades particulares de evaluación, constituyéndose así en una herramienta
flexible y que proporciona una amplia cantidad y variedad de información. Esta
escala cuenta, también a partir de este estudio, con evidencia inicial que
sustenta la calidad psicométrica de sus puntuaciones, al menos en términos de
validez estructural y discriminante y de consistencia interna. Así, la EPUC
puede ser un aporte relevante para tanto la investigación como la evaluación de
las competencias digitales y/o sus propósitos de uso en los docentes en
formación.
5. Financiación
Este
estudio fue financiado por el Fondo Nacional de Desarrollo Científico y
Tecnológico (CONICYT) de Chile, mediante el proyecto FONDECYT regular 1191193.
Chilean student teachers’ purposes of use of
digital technologies: Construction of a scale based on digital competences
1.
Introduction
Digital competence is essential in order to guarantee
all 21st-century citizens’ active participation in society. Being digitally
competent involves using technologies in a secure, critical, and creative way
in order to achieve objectives related to work, employability, learning,
leisure, inclusion and/or participation in society (Ferrari, 2013). It is
considered essential that people can manage digital technologies in a manner
that they can consciously and responsibly get along in different areas of life
(Casal et al., 2021). Therefore, it is a transversal competence that allows the
active development in society, which has been a frequent object of study.
There are diverse initiatives that define and organize
digital, educational or generic competences, which has led to the development
and use of different concepts and frameworks (Gisbert et al., 2016). According
to Cabero-Almenara, Romero-Tena, et al. (2020), different experts in the field
agree on the fact that the frameworks of available digital competences in the
educational context represent consolidated options that guide what should be
acquired to be digitally competent. Among these frameworks, the mentioned
authors suggest the following: DigCompEdu, the ISTE Standards for Educators,
UNESCO ICT Competency Framework for Teachers, Spanish common digital competence
framework for teachers, British Framework of Digital Teaching, ICT competences
for Colombian teacher professional development, and ICT Competences and
Standards for the teaching profession in Chile. In terms of generic digital
competences, DigComp can be a suitable tool in order to understand what people
do with these technologies.
European Commission, one of the institutions concerned
about this topic, developed The European Digital Competence Framework for
Citizens (DigComp) (Ferrari, 2013). DigComp brings orientations regarding
knowledge, skills, and attitudes in order to use digital technologies in five
key areas: (i) Information and data literacy; (ii) Communication and
collaboration; (iii) Digital content creation; (iv) Safety; (v) Problem
solving. Every area considers specific competences and there are 21 competences
in total. Moreover, updated versions of this framework have established
performance levels that allow the classification in categories such as basic,
intermediate, and advanced (Carretero et al., 2017). As it will be seen below,
this study adopted the DigComp framework because it is coherent regarding the
notion that student teachers learn to use different digital tools autonomously
during their teacher training and according to their needs and emerging
opportunities. Despite this advantage, DigComp does not explicitly refer to the
relation between these generic competences and diverse purposes of use for
digital technologies.
Literature has reported diverse purposes of use for technologies.
Some authors consider academic purpose when digital technologies are used in
order to look up information, communicate academically with others, do digital
homework, and create digital material with educational purposes (Cerda et al.,
2018). Other authors consider a hedonistic or entertainment use to include
actions such as playing with technological devices, watch television or listen
to the radio, listen to music or watch online movies (Labbé et al., 2019;
Morales et al., 2020). Furthermore, a social purpose of use implies that
technology offers means and spaces for interaction that allow socialization
(Lira, 2013). Finally, the economic use highlights the fact that university
students have become usual consumers of electronic commerce (Castillo et al.,
2020). For example, they do activities such as banking procedures and buying or
selling products online (Matamala & Hinostroza, 2020). For all these
purposes of use, it is essential to be digitally competent, so the assessment
of digital competence is a relevant topic to address.
There are diverse ways to assess digital competences.
Some instruments consider the perception of the participants regarding their
level of competence, so they are asked to self-assess in a beginning,
intermediate or advanced level (e.g., Fraile et al., 2018). In some cases, the
degree of agreement with statements that represent actions associated with
competencies must be indicated (e.g., Lorenzo-Lledó et al., 2018). Other scales
measure the perception of frequency regarding activities that reflect
competencies (e.g., Flores-Lueg & Roig, 2016; Siiman et al., 2016). There
are also instruments that assess knowledge in situations that need to be
resolved (e.g., Silva et al., 2019) and others that involve tasks to be developed
in a technological device (e.g., Jashari et al., 2021). Also, there are
instruments that assess generic digital competences in university students (eg,
Wild & Schulze, 2021; Cabero-Almenara et al, 2022), including some that are
specific to student teachers (eg, Cabero-Almenara, Barroso-Osuna, et al., 2020;
Cantón-Mayo, 2017; Usort et al., 2021) and others based on The European
Framework for the Digital Competence of Educators (DigCompEdu) (eg, Redecker,
2017). Although these instruments contribute to the measurement of digital
competences from diverse approaches, none of them simultaneously consider
specific purposes of use.
Although there is a diversity in the assessment of
digital competences, there is still a need to design instruments for specific
requirements, such as the different purposes of use with which young people use
technology. Nowadays, there are instruments that measure generic digital
competences, based on DigComp, for student teachers (e.g., Fraile et al.,
2018); however, there are no instruments that incorporate different digital
technologies purposes of use. There are instruments that measure some purposes
of use (e.g., Cerda et al., 2018), but do not explicitly incorporate digital
competences. According to this gap and the diversity of areas in which
university students, and specifically, future teachers, work, it is considered
necessary to contribute to this research niche. It is possible to contribute to
this research problem by strengthening the understanding of this phenomenon
from the measurement of generic digital competences, but linked to different
purposes of use.
Taking into account the previous information, the aim
of this study was to psychometrically build and analyze the Scale of Purposes
of Use and Digital Competences. Specifically, this study aims to determine
evidence of the scale’s internal structural validity in order to confirm the
pattern of associations expected since its development. In addition, this study
examined the discriminant validity of the EPUCD to confirm that the factors did
not reflect redundant constructs. Finally, the internal consistency of the
EPUCD was identified. Knowing that a correct interpretation of the digital
competences is linked to social and cultural particularities regarding
technology and education (Engen, 2019), it was decided to build the EPUCD as a
culturally pertinent instrument for student teachers, instead of translating
and/or adapting some of the existing instruments.
Having an instrument that measures digital competences
among student teachers, which includes different purposes of use is very
relevant. Assuming that the digital competences continue to evolve, it is
essential to include the new transformations that are taking place, both in
reorientation and levelling (Garzón-Artacho et al., 2021). In this sense,
explicitly incorporating the different technologies’ purposes of use would
allow researchers to measure in a reliable and valid way these different
aspects in student teachers. With this instrument, the uses could be described,
which would allow—in future research—the identification of relationships with
other variables and assess the advances in this topic in different periods of
time. Moreover, it would be possible to obtain information that would allow
student teachers’ professors to carry out actions to promote digital
competences, especially in academic use. Recent research shows that future
teachers do not have sufficient digital competence to effectively integrate
technologies in their future professional performance (Cañete et al., 2022).
Having instruments to measure digital competences, considering purposes of use,
can contribute to specify the involvement that future educators make when they
use these technologies.
2. Method
2.1. Participants
A purposive sample (Etikan
& Bala, 2017) of 618 participants was used in this study. The inclusion
criteria were: (1) being an undergraduate student teacher in one of two
universities (one of them is public and the other one is private) located in southern
Chile and (2) provide informed consent regarding their participation in the
study. The sample was randomly divided into two equivalent subsamples (n1
= 314 y n2 = 304). They did not significantly differ from each other
(ps > .05) in the four sociodemographic variables (see Table 1).
Sociodemographic profile of
participants according to subsamples (n = 618)
Sociodemographic
variables |
Subsample
1 n1 = 314 |
Subsample
2 n2 = 304 |
Sex, f (%) |
|
|
Man |
117 (37.26) |
107 (35.20) |
Woman |
197 (62.74) |
197 (64.80) |
Years of
stay in the program, f (%) |
|
|
1 |
75 (23.88) |
75 (24.67) |
2 |
46 (14.65) |
51 (16.78) |
3 |
41 (13.06) |
43 (14.14) |
4 |
81 (25.80) |
68 (22.37) |
5 |
47 (14.97) |
49 (16.12) |
6 or more |
24 (7.64) |
18 (5.92) |
Failure of
subjects, f (%) |
|
|
None |
198 (63.06) |
181 (59.5) |
Two or more |
116 (36.94) |
123 (40.5) |
Age, M (SD) |
21.42 (2.96) |
21.80 (3.37) |
|
2.2. Instrument
The Scale of Purposes of Use
and Digital Competences (EPUCD)[4] was developed by the team of
this research considering empirical and theoretical criteria (Streiner et al.,
2015). First, the DigComp competences already mentioned were analyzed (Ferrari,
2013; Vuorikari et al., 2016) and the ones likely to be measured with different
purposes of use in student teachers were selected. Second, in order to specify
the different digital technologies purposes of use, nine students registered
daily actions related to these technologies during one week through the Google
Keep application. Additionally, five students were interviewed about the same
topic. Third, items developed by this research team (Cerda et al., 2020; Cerda
et al., 2018). As a result, 88 items were created at first, which assessed four
purposes of use related to five digital competences.
The four purposes of use were:
academic, entertainment, social, and economic. The academic purpose considered
the search for information for activities related to the university,
communication with teachers or university classmates, and the completion of homework
and academic digital documents. The entertainment use added actions such as
playing, listening to music and watching digital content using digital
technologies. The social use incorporated communication with friends, post in
social media, interaction and creation of materials to socialize. Finally, the
economic use covered activities such as buy and sell using technologies, value
products or search online for job opportunities.
The five digital competencies
selected from DigComp were[5]: A = Browsing, searching and
filtering data, information and digital content; B = Managing data, information
and digital content; C = Interacting through digital technologies; D = Sharing
through digital technologies; E = Developing digital content.
The items were all written in
a positive way, including the two central elements: (1) action that reflects a
digital competence and (2) digital technology purpose of use, and (3) the
digital context and, eventually, the actors. This order can be illustrated in
the following item: Communicate (action
that reflects competence) through Internet (digital context) with university classmates (actors) to inform me about assigned tasks in classes (purpose of academic use).
A response format of five
options graduated according to frequency was used: 1 = Never or almost never, 2
= Sometimes, 3 = Neutral, 4 = A lot of times, 5 = Always or almost always. The
items were presented to the participants grouped according to purpose of use
and, within each purpose, according to digital competences. The EPUCD allows to
obtain 29 individual scores: 20 specific scores that correspond to the
combination of a purpose of use with a digital competence (e.g., academic
purpose/ A competence); four purpose of use scores (e.g., entertainment
purpose); and five digital competences (e.g., E competence). These scores are
obtained by averaging the responses to the corresponding items. Higher scores
reflect a greater frequency of use of a purpose of use and/or a digital
competence.
2.3. Procedure
Data collection was carried
out remotely using the QuestionPro platform due to the COVID19 pandemic
context. Before participating, the students had the opportunity to read an
informed consent form, approved by a university Scientific Ethics Committee, in
order to agree to participate in the study. The informed consent form provided
the research objectives and information regarding the confidentiality and
privacy of the data, together with the voluntary nature of participating in the
study. For seven weeks, reminder emails were sent (one weekly) reiterating the
invitation to participate to students who had not yet done so. Additionally,
teachers from education careers motivated their students to participate during
the online classes.
2.4. Data analysis
The data analysis considered
the performance of several actions in order to obtain evidence of internal
structural validity, discriminant validity, and internal consistency of the
EPUCD. In subsample 1 (n1 = 314), a series of Exploratory Factor
Analysis (EFA) were carried out using FACTOR (Lorenzo-Seva & Ferrando,
2006) to inquire into the unidimensional structure of the 29 scores generated
by the EPUCD instrument. Each EFA started from the inter-item polychoric
correlation matrix, which is recommended for ordinal data (Flora & Curran,
2004), and the extraction of a single factor was prefixed through Minimum Rank
Factor Analysis (MRFA) (Shapiro & Berge, 2002). The factoriability of the
data was examined through Bartlett's test of Sphericity and the Kaiser-Meyer-Olkin
(KMO) test for sampling adequacy. Items with loads equal to or above .30 in the
factor were retained. If an item did not meet this criterion, the EFA was
repeated and that item was omitted. The emerging unifactorial model fit was
reviewed through the Root Mean Square Residual index (RMSR). After every factor
was defined, the internal consistency was calculated through ordinal omega.
In subsample 2 (n2
= 304), the 29 unidimensional structures previously obtained with EFA were
corroborated as measurement models through confirmatory factor analysis (CFA),
through the statistical software JASP 0.14. The robust method of diagonal
weighted least squares (DWLS) was used in order to estimate each model,
considering the following indexes of fit and their criteria for acceptance:
Standardized Root Mean-Square Residual (SRMR < .08); Tucker Lewis Index (TLI
> .90); Comparative Fit Index (CFI > .90); and the Root Mean Square Error
of Approximation (RMSEA ≤ .06) (Abad et al., 2011).
In order to explore the existence
of a structural model, in the total sample (n = 618), Pearson correlation
coefficients (r) between the four scores of purposes of use were computed.
Based on the pattern of correlations obtained, through CFA, a structural model
of four correlated latent factors (purposes of use) and the 20
purpose/competence scores as indicators were examined. To rule out alternative
structural models, two models were examined: an unifactorial model (with a
general latent factor and the 20 scores as indicators), and a second-order
model (with a second-order general latent factor, the four first-order latent
factors and the 20 scores as indicators). A ∆CFI value less than or equal
to |0.01| was used to conclude that the compared models do not differ
significantly (Cheung & Rensvold, 2002).
In the four-factor model, the
internal consistency of the latent factors was examined through the composite
reliability coefficient (CR) and the average variance extracted (AVE). CR
expresses the proportion of true variance with respect to the total variance of
the items that make up a latent factor, while AVE reports the amount of
variance captured by the factor in relation to the amount of variance due to
measurement error. CR and AVE values equal to or greater than
0.60 and 0.50, respectively, are considered acceptable (Raykov, 2012). In
addition, the discriminant validity of the model factors is produced by
comparing the AVE of each factor with the estimates of the squared covariances
between the factors involved. When the AVE is greater than each of these
covariances, it is concluded that the construct measured by the factor has
sufficient differentiation (discriminant validity) with respect to the other
constructs of the model (Farrell, 2010; Fornell & Larcker, 1981).
3. Analysis and results
3.1. Evidences of
internal structure validity
3.1.1.
Exploratory Factor Analysis
In the final 29 EFA,
Bartlett's test of Sphericity and the Kaiser-Meyer-Olkin (KMO) test for
sampling adequacy were adequate, and the corresponding RMSR fit value as well.
In this process, 14 of the 88 original items were eliminated due to low factor
loads. Table 2[6] shows the numbering of the 74
items that finally made up each of the 20 factors based on each
purpose/competence combination, with the factor loads of the corresponding
items and the ordinal omega reliability of each factor. In this table, the
row-total and column-totals include the omega reliability of each competence
and each purpose, respectively.
Numbering of items that make
up the 20 factors according to combinations purpose/competence, factorial load
(l) of the items and ordinal omega reliability (ω) of the corresponding
factor.
DC |
|
Purposes |
|
|||
Academic |
Entertainment |
Social |
Economic |
Total |
||
A |
Nº l w |
1, 2, 3 .84, .99, .85 .92 |
18, 19, 20, 21 .75, .80, .78, .84 .85 |
36, 37, 38, 39 .74, .73, .88., .82 .85 |
56, 57, 58, 59 .87, .94, .83, .75 .90 |
.89 |
|
|
|
|
|
|
|
B |
Nº l w |
4, 5, 6 83, .86, .71 .84 |
22, 23, 24 .72, .95, .51 .78 |
40, 41, 42, 43 .64, .85, .75, .77 .83 |
60, 61, 62, 63 .71, .64, .73, .82 .80 |
.84 |
|
|
|
|
|
|
|
C |
Nº l w |
7, 8, 9, 10 .93, .97, .96, .87 .96 |
25, 26, 27, 28 .81., .71, .74., 85 .83 |
44, 45, 46, 47 .81, .74, .81, .46 .80 |
64, 65, 66, 67 .90, .96, .74, .66 .88 |
.90 |
|
|
|
|
|
|
|
D |
Nº l w |
11, 12, 13 .83, .98, .88 .93 |
29, 30, 31 .86, .87, .84 .89 |
48, 49, 50, 51 .79., 84, .81., 77 .87 |
68, 69, 70 .93, .94, .79 .91 |
.92 |
|
|
|
|
|
|
|
E |
Nº l w |
14, 15, 16, 17 .84, .77, .92, .83 .90 |
32, 33, 34, 35 .79, .92., .72, .82 .88 |
52, 53, 54, 55 .80, .88, .88, .80 .90 |
71, 72, 73, 74 .81, .96, .93, .86 .91 |
.93 |
Total |
w |
.94 |
.93 |
.94 |
.95 |
-- |
Note: DC = Digital competence. A = Browsing, searching and filtering data,
information and digital content; B = Managing data, information and digital
content; C = Interacting through digital technologies; D = Sharing through
digital technologies; E = Developing digital content. |
3.1.2. Confirmatory Factor Analysis
Using the information obtained
through the exploratory factor analysis, the measurement models of the purposes
of use and digital competences were tested. The Table 3 shows the fit values of
the unidimensional measurement models for both purposes of use and digital
competences. All these fit indicators were adequate.
Goodness of fit for unidimensional measurement models
of the purposes of use and digital competences
Measurement models |
χ2 |
df |
p |
CFI |
TLI |
RMSEA (90% IC) |
SRMR |
Purposes |
|
|
|
|
|
|
|
Academic |
16.906 |
5 |
.005 |
.986 |
.972 |
.089 (.045,.137) |
.067 |
Entertainment |
9.666 |
5 |
.085 |
.994 |
.987 |
.055 (.000,.108) |
.056 |
Social |
8.646 |
5 |
.124 |
.995 |
.989 |
.049 (.000,.103) |
.054 |
Economic |
5.642 |
5 |
.343 |
.999 |
.998 |
.021 (.000,.085) |
.059 |
Competences |
|
|
|
|
|
|
|
A |
1.720 |
2 |
.423 |
1.000 |
1.000 |
.000 (.000-.109) |
.024 |
B |
1.925 |
2 |
.382 |
1.000 |
1.000 |
.000 (.000-.112) |
.027 |
C |
5.338 |
2 |
.069 |
0.983 |
0.950 |
.074 (.000-.154) |
.044 |
D |
2.140 |
2 |
.343 |
0.999 |
0.998 |
.015 (.000-.116) |
.034 |
E |
0.944 |
2 |
.624 |
1.000 |
1.000 |
.000 (.000-.091) |
.025 |
Note: A = Browsing, searching and
filtering data, information and digital content; B = Managing data, information
and digital content; C = Interacting through digital technologies; D = Sharing
through digital technologies; E = Developing digital content.
The pattern of Pearson correlation
coefficients between each pair of purposes of use scores, all with p < .001
suggested a structural model of four correlated latent factors. Specifically,
the r-values for academic purpose were .31 with entertainment, .47 with social,
and .44 with economic. Also, the r-values of entertainment were .64 with
social, and .50 with economic; finally, the r-value of social was .64 with
economic.
The fit index of the
four-factor structural model, shown in Table 4, were all adequate. In the
examination of the alternative unifactorial model, the RMSEA and the SRMR
indexes showed a lack of fit in this model. The second-order alternative model
fitted well, although its fit was slightly lower than that of the four-factor
model. The comparison of these two models provided a ∆CFI of .002, which
reveals that the four-factor and second-order models do not differ
significantly. Because of the adequate levels of internal consistency and
discriminant validity observed in the four-factor model (see below), this model
was preferred over the second-order model. Figure 1 shows the detailed results
of the four-factor model.
Table 4
Fit indexes of three examined structural models
Models |
|
df |
P |
CFI |
TLI |
RMSEA (90% CI) |
SRMR |
Four-oblique-factor |
405.61 |
164 |
<.001 |
.982 |
.979 |
.049 (.043,.055) |
.066 |
Unifactorial |
1364.80 |
170 |
<.001 |
.909 |
.899 |
.107 (.102,.112) |
.116 |
Second-order |
435.88 |
166 |
<.001 |
.980 |
.977 |
.051 (.045,.057) |
.068 |
Figure 1
Four-factor model
3.2. Internal consistency and discriminant validity
Table 5 shows the composite
reliability coefficients (CR) and the average variance extracted (AVE) with the
evidence of discriminant validity of the four-factor structural model. All CR
and AVE values were higher than the minimum acceptable values, which indicates
an adequate consistency in each factor. In addition, in all relevant
comparisons, the average variance extracted (AVE) was greater than the
estimates of the squared covariances, a result that supports sufficient
differentiation between the four latent factors of the model. Thus, it can be
stated that these four factors reflect non-redundant constructs.
Table 5
Composite reliability (CR), average variance extracted (AVE) and the
squared interfactor covariance estimations in the four-factor structural model
Purposes |
CR |
1 |
2 |
3 |
4 |
1. Academic |
.84 |
.52 |
.13 |
.29 |
.26 |
2. Entertainment |
.87 |
|
.57 |
.52 |
.32 |
3. Social |
.86 |
|
|
.56 |
.52 |
4. Economic |
.87 |
|
|
|
.58 |
Note:
Values located in diagonal (in bold) are the average variance extracted (AVE).
Values above the diagonal are the squared interfactor covariance estimations.
4. Discussion
In this study, the Scale of
Purposes of Use and Digital Competences was psychometrically constructed and
analyzed. Specifically, the evidence obtained demonstrates the internal
structural validity of the scale (four-oblique-factor model) and the discriminant
validity of its factors. In addition, the factors have adequate internal
consistency. Thus, the purpose of having a scale with adequate psychometric
properties, at least initially, to measure purposes of academic, recreational,
social and economic use through digital competences, in pedagogy students was
achieved.
The EPUCD is among the
existing instruments to measure digital competences. Depending on the type of
performance, they can be classified as optimal performance (e.g., Jashari et
al., 2021) or typical (e.g., Fraile et al., 2018). The EPUCD would be framed in
this last classification, since as indicated by Abad et al. (2011) it is of
interest to measure the usual behavior and, in this case, how often certain
actions associated with digital competences are carried out, framed in some
purposes of use. It is an instrument where certain competencies were selected
that were considered more pertinent to the reality of future educators, unlike
other instruments, such as the one provided by Fraile et al. (2018) that
included the five areas of the DigComp. Therefore, the incorporation of the
purposes of academic, entertainment, social and economic uses is essential
because their integration allows the expansion of measurement strategies, thus
contributing to the development of this area of knowledge.
Having an instrument with
adequate psychometric properties is relevant for the study of digital
competences. Specifically, this instrument will allow, at a macro level, to
make informed decisions regarding the competences of their students in educator
training organizations, knowing what purposes of use they are focused on.
Although it could be assumed that these educational institutions would
emphasize academic use, the EPUCD would allow other digital technologies
purposes of use to be known. Without ignoring the importance of academic use in
the training of future teachers, it is relevant to know how the other purposes
of use would interact with the academic use.
This research has some
limitations that should be considered. The application of this instrument was
carried out during the health emergency caused by COVID19. In this context,
university teaching was taught remotely, a situation that could have influenced
the results obtained, promoting somehow a greater digital technologies
frequency of use. It would be necessary to replicate this research in a
pandemic-free context. In addition, it is important to remember that the use of
technologies is mediated by the availability, access and orientations that
educational institutions promote. Because of the diversity observed in the
initial teacher training curriculum in Chile (Tapia et al., 2020), it is
necessary to have in mind that the reality of the students assessed may not be
replicated in other universities in the country. In this same sense, the
measurement of the purposes of use can vary depending on the contexts and
technological availability. A good example of this has been remote teaching in
times of COVID19, which has promoted the academic use of these applications,
just as the social use of these technologies is stimulated by telephone
companies by offering these services for free. It is highly recommended that
future researches can consider in their design the control of these
limitations.
The EPUCD could contribute to
develop future studies associated with researches in initial teacher training
and the use of digital technologies. Initially, it would allow the development
of studies which focus is to describe the digital competences associated to
different purposes of use by student teachers. It could also be used in
research where it is desired to know the profile of the people who have higher
scores in certain purposes of use. Since the validation of a measure is a
constant cumulative process, it is suggested for future studies to examine
other sources of validity of the EPUCD, such as those based on content,
relationships with other variables, or consequences (Elosua, 2003). Likewise,
it is recommended to replicate the examination of the internal structure of the
scale in other populations of pedagogy students. To facilitate the
interpretation of individual scores of the EPUCD, the construction of normative
references (scales, cut-off scores), is also proposed, hopefully in
representative samples of populations of student teachers.
4. Conclusions
This study contributes a
measurement instrument for the academic and research community, the EPUCD,
specially designed to assess, in undergraduate student teachers, four digital
technologies purposes of use based on five digital competences selected from a
widely used digital competences framework as DigComp. The EPUCD allows
researchers to obtain scores about purposes of use and digital competences, to
be used according to the particular assessment needs. Thus, it is a flexible
tool that provides a wide amount and variety of information. Also, thanks to
this study, this scale has initial evidence that supports the psychometric
quality of its scores, at least in terms of structural and discriminant
validity as well as internal consistency. Thus, the EPUCD can be a relevant
contribution to research and assess digital competences and/or their purposes
of use in student teachers.
5. Funding
This study was supported by
the National Fund for Scientific and Technological Development (CONICYT, by its
acronym in Spanish) of Chile, through the regular 1191193 FONDECYT project.
References
Cabero-Almenara,
J., Barroso-Osuna, J., Gutiérrez-Castillo, J. J., & Palacios-Rodríguez, A.
(2020). Validación del cuestionario de competencia digital para futuros
maestros mediante ecuaciones estructurales. Bordón.
Revista de Pedagogía, 72(2),
45-63. https://doi.org/10.13042/Bordon.2020.73436
Cabero-Almenara,
J., Gutiérrez-Castillo, J. J., Guillén-Gámez, F. D., Gaete, A. F. (2022).
Competencias digitales de estudiantes tecnico-profesionales: Creacion de un
modelo causal desde un enfoque PLS-SEM. Campus Virtuales, 11(1),
167-179. https://doi.org/10.54988/cv.2022.1.1008
Cabero-Almenara,
J., Romero-Tena, R., Barroso-Osuna, J., & Palacios-Rodríguez, A. (2020).
Marcos de competencias digitales docentes y su adecuación al profesorado
universitario y no universitario. Revista Caribeña de Investigación
Educativa (RECIE), 4(2), 137-158. https://doi.org/10.32541/recie.2020.v4i2.pp137-158
Cantón-Mayo,
I., Cañón-Rodríguez, R., & Grande-de-Prado, M. (2017). La
comunicación como subdimension de la competencia digital en futuros maestros
de primaria. Pixel-Bit. Revista de Medios
y Educación, 50, 33-47. https://doi.org/10.12795/pixelbit.2017.i50.02
Cañete, D.
L., Torres, C. A., Lagunes, A., & Gómez, M. (2022). Competencia digital de
los futuros docentes en una institución de educación superior en el Paraguay. Pixel-Bit. Revista de Medios y
Educación, 63, 159-195. https://doi.org/10.12795/pixelbit.91049
Carretero,
S., Vuorikari, R., & Punie, Y. (2017). DigComp 2.1: The Digital
Competence Framework for Citizens with eight proficiency levels and examples of
use (EUR 28558). https://ec.europa.eu/jrc
Casal, L.,
Barreira, E. M., Mariño, R., & García, B. (2021). Competencia digital
docente del profesorado de FP de Galicia. Pixel-Bit.
Revista de Medios y Educación,
61, 165-196. https://doi.org/10.12795/pixelbit.87192
Castillo,
S., Rodríguez, J., & Espinosa, V. (2020). Consumo vía digital en jóvenes
universitarios de la ciudad de Bogotá. In F. Ribero (Ed.), IV Encuentro de Investigación en Publicidad. Nuevos retos de la
publicidad en una sociedad en crisis (pp. 185-192). Universidad Sergio
Arboleda.
Cerda, C.,
León, M., Saiz, J. L., & Villegas, L. (2020). Medición de
propósitos de usos de tecnologías digitales en estudiantes de
pedagogía: Validación de una escala. In E. Coloma, E. Sánchez, J.
Ruiz, & J. Sánchez (Eds.), La
tecnología como eje del cambio metodológico (pp. 1239-1242). Umaeditorial.
Cerda, C.,
Saiz, J. L., Villegas, L., & León, M. (2018). Acceso, tiempo y propósito de
uso de tecnologías digitales en estudiantes de pedagogía chilenos. Estudios Pedagógicos, 44(3), 7-22. https://doi.org/10.4067/S0718-07052018000300007
Cheung, G.
W., & Rensvold, R. B. (2002). Evaluating goodness-of-fit indexes for testing measurement invariance. Structural Equation Modeling: A
Multidisciplinary Journal, 9(2),
233-255. https://doi.org/10.1207/S15328007SEM0902_5
Elosua, P.
(2003). Sobre la validez de los tests. Psicothema, 15(2),
315-321. https://reunido.uniovi.es/index.php/PST/article/view/8125
Engen, B.
(2019). Comprendiendo los aspectos culturales y sociales de las competencias
digitales docentes. Comunicar, 61, 9-19. https://doi.org/10.3916/C61-2019-01
Etikan, I., & Bala, K. (2017). Sampling and sampling methods. Biometrics
& Biostatistics International Journal, 5(6), 215-217. https://doi.org/10.15406/bbij.2017.05.00149
Farrell, A. M. (2010). Insufficient discriminant validity: A comment on
Bove, Pervan, Beatty, and Shiu (2009). Journal
of Business Research, 63(3),
324-327. https://doi.org/10.1016/j.jbusres.2009.05.003
Ferrari, A. (2013). DIGCOMP: A
framework for developing and understanding digital competence in Europe. Publications
Office of the European Union. https://doi.org/10.2788/52966
Flora, D. B., & Curran, P. J. (2004). An empirical evaluation of
alternative methods of estimation for confirmatory factor analysis with ordinal
data. Psychological Methods, 9(4), 466-491. https://doi.org/10.1037/1082-989x.9.4.466
Flores-Lueg,
C., & Roig, R. (2016). Diseño y
validación de una escala de autoevaluación de competencias digitales para
estudiantes de pedagogía. Pixel-Bit.
Revista de Medios y Educación, (48), 209-224. https://doi.org/10.12795/pixelbit.2016.i48.14
Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation
models with unobservable variables and measurement error. Journal of Marketing Research,
18(1), 39-50. https://doi.org/10.2307/3151312
Fraile, M.,
Penalva-Velez, A., & Lacambra, A. (2018). Development of digital
competence in secondary education teachers' training. Education
Sciences, 8(3), Article 104. https://doi.org/10.3390/educsci8030104
Garzón-Artacho,
E., Sola-Martínez, T., Trujillo-Torres, J. M., & Rodríguez-García, A. M.
(2021). Competencia digital docente en educación de adultos: Un estudio en un
contexto español. Pixel-Bit. Revista de
Medios y Educación, 62,
209-234. https://doi.org/10.12795/pixelbit.89510
Gisbert, M.,
González, J., & Esteve, F. M. (2016). Competencia digital y competencia
digital docente: Una panorámica sobre el estado de la cuestión. Revista
Interuniversitaria de Investigación en Tecnología Educativa, Junio(0),
74-83. https://doi.org/10.6018/riite2016/257631
Jashari, X.,
Fetaji, B., Nusbaumer, A., & Guetl, C. (2021). Devising a prototype model
for assessing digital competencies based on the DigComp proficiency levels. In
M. E. Auer & D. Centea (Eds.), Visions
and Concepts for Education 4.0: Proceedings of the 9th International Conference on Interactive Collaborative and
Blended Learning (ICBL2020) (pp. 3-14). Springer. https://doi.org/10.1007/978-3-030-67209-6_1
Labbé, C.,
López-Neira, L., Saiz, J. L., Vinet, E., & Boero, P. (2019). Uso de TIC en
estudiantes universitarios chilenos: Enfoque desde la adultez emergente. Pensamiento Educativo, 56(2), 1-14. https://doi.org/10.7764/PEL.56.2.2019.2
Lira, R. (2013).
Los adolescentes y el uso social de las TIC. Eutopía, (19), 90-95. https://n9.cl/ifp7q
Lorenzo-Lledó,
A., Roig-Vila, R., & Lorenzo, G. (2018). Evaluación de los MOOC por
estudiantes universitarios desde una perspectiva metodológica. Publicaciones, 48(2), 401-414. https://doi.org/10.30827/publicaciones.v48i2.8367
Lorenzo-Seva,
U., & Ferrando, P. (2006). FACTOR: A computer program to fit the exploratory factor analysis model.
Behavior Research Methods, 38(1), 88–91. https://doi.org/10.3758/bf03192753
Matamala,
C., & Hinostroza, J. E. (2020). Factores relacionados con el uso académico de Internet
en educación superior. Pensamiento Educativo, 57(1), 1-19. https://doi.org/10.7764/pel.57.1.2020.7
Morales, A.,
Zacatenco, J., Luna, M., García, R., & Hidalgo, C. (2020). Acceso y actitud
del uso de Internet entre jóvenes de educación universitaria. Revista Digital de Investigación en Docencia
Universitaria, 14(1). https://doi.org/10.19083/ridu.2020.1174
Raykov, T. (2012). Scale construction and development using structural
equation modeling. In R. H. Hoyle (Ed.), Handbook
of Structural Equation Modeling (pp. 472-492). The Guilford Press.
Redecker, C. (2017). European
framework for the digital competence of educators: DigCompEdu. Luxembourg
Publications Office of the European Union.
Shapiro, A., & Berge, J. F. (2002). Statistical inference of minimum
rank factor analysis. Psychometrika, 67(1), 79–94. https://doi.org/10.1007/bf02294710
Siiman, L. A., Mäeots, M., Pedaste, M., Simons, R.-J., Leijen, Ä.,
Rannikmäe, M., Võsu, K., & Timm, M. (2016). An instrument for measuring
students’ perceived digital competence according to the DIGCOMP framework. In
P. Zaphiris & A. Ioannou (Eds.), Learning
and Collaboration Technologies (LCT2016) (pp. 233-244). Springer. https://doi.org/10.1007/978-3-319-39483-1_22
Silva, J.,
Morales, M.-J., Lázaro-Cantabrana, J.-L., Gisbert, M., Miranda, P., Rivoir, A.,
& Onetto, A. (2019). La competencia digital docente en formación inicial:
Estudio a partir de los casos de Chile y Uruguay. Archivos Analíticos de Políticas Educativas, 27(93). https://doi.org/10.14507/epaa.27.3822
Streiner, D.
L., Norman, G., & Cairney, J. (2015). Health measurement scales: A practical guide to their development and
use. Oxford
University Press.
Tapia, H.,
Campaña, K., & Castillo, R. (2020). Análisis comparativo de las asignaturas
TIC en la formación inicial de profesores en Chile entre 2012 y 2018. Perspectiva Educacional, 59(1), 4-29. https://doi.org/10.4151/07189729-vol.59-iss.1-art.963
Usart, M.,
Lázaro, J. L., & Gisbert, M. (2021). Validation of a tool for
self-evaluating teacher digital competence. Educacion
XX1, 24(1), 353-373. https://doi.org/10.5944/educXX1.27080
Vuorikari,
R., Punie, Y., Carretero, S., & Van den Brande, L. (2016). DigComp 2.0: The digital competence framework for citizens. Update phase
1: The conceptual reference model. Publication Office of the
European Union. https://doi.org/10.2791/11517
Wild, S., & Schulze, L. (2021). Re-evaluation of the
D21-digital-index assessment instrument for measuring higher-level digital
competences. Studies in Educational
Evaluation, 68, Article 100981. https://doi.org/10.1016/j.stueduc.2021.100981
[1] Se puede obtener una
versión completa del instrumento en la siguiente dirección https://doi.org/10.5281/zenodo.6347427
[2] Se puede obtener una
definición de cada competencia, junto con la distribución de ítems en la
siguiente dirección https://doi.org/10.5281/zenodo.6347427
[3]
Por limitaciones de espacio, los resultados pormenorizados de los 29 AFE son
presentados en https://doi.org/10.5281/zenodo.6347427
[4] The full version of the
instrument in Spanish can be obtained on https://doi.org/10.5281/zenodo.6347427
[5] A definition in Spanish
of every competence and the items distribution can be obtained on https://doi.org/10.5281/zenodo.6347427
[6] Due the lack
of space, the results of the 29 EFA are available at https://doi.org/10.5281/zenodo.6347427