Estrategia lúdica analógica para el desarrollo del pensamiento computacional y la inteligencia artificial en entornos con brecha digital

 

 

 

 

Game-based unplugged strategy for developing computational thinking and artificial intelligence skills in contexts with a digital divide

 

 

 

Meliyara Sirex Consuegra Diaz-Granados

Universidad Simón Bolívar. Colombia.

 

Álvaro Enrique Diaz Quiroz

Universidad del Atlántico. Colombia.

 

María Ángeles Navarro Cervantes

Universitat Oberta de Catalunya. España.

 

 

 

 

 

 

 

 

 

 

 

Recibido: 2025/11/11 Revisado 2025/12/01 Aceptado: 2026/02/19 Publicado: 2026/05/01

 

 

Cómo citar este artículo:

Consuegra Diaz-Granados, M.S., Diaz Quiroz, A.E., & Navarro Fernández, M.A. (2026). Estrategia lúdica analógica para el desarrollo del pensamiento computacional y la inteligencia artificial en entornos con brecha digital [Game-based unplugged strategy for developing computational thinking and artificial intelligence skills in contexts with a digital divide]. Pixel-Bit, Revista de Medios y Educación, 76, Art. 4. https://doi.org/10.12795/pixelbit.118850

 

 

 

 

 

 

 

RESUMEN

El Pensamiento Computacional (PC) y la Inteligencia Artificial (IA) son competencias necesarias en la sociedad de la era digital, sin embargo, su enseñanza enfrenta grandes obstáculos en áreas rurales con acceso limitado a tecnología. Esta investigación propone Titicode, un juego de mesa inclusivo y de bajo coste que promueve estas habilidades en niños y jóvenes mediante un aprendizaje lúdico y colaborativo. Para comprobar su eficacia se utilizó un instrumento elaborado a partir del Computational Thinking Test (CTt) y el Artificial Intelligence Literacy Questionnaire (AILQ) donde se evaluó el nivel de conocimiento de 71 jóvenes de una escuela rural en Colombia antes y después de la aplicación del juego, encontrando mejoras significativas después de su aplicación. La investigación se realizó en cinco fases: elaboración de prototipo, medición de habilidades antes del juego, implementación del juego durante 12 semanas, medición de habilidades después del juego y análisis comparativo. Titicode sugiere ser una herramienta eficaz para mejorar las habilidades en PC y la alfabetización en IA en contextos con acceso limitado a la tecnología.

 

 

 

 

 

 

ABSTRACT

Computational Thinking (CT) and Artificial Intelligence (AI) are essential competencies in the digital age; however, teaching these competencies in rural areas with limited access to technology faces major obstacles. This study proposes Titicode, an inclusive and low-cost board game that promotes these skills in children and young people through playful and collaborative learning. To assess its effectiveness, an instrument based on the Computational Thinking Test (CTt) and the Artificial Intelligence Literacy Questionnaire (AILQ) was used to evaluate the knowledge level before and after the implementation of the game on 71 students from a rural school in Colombia, revealing significant improvements after playing. The research followed five phases: prototype development, measurement of students’ initial skills, implementation of the game over 12 weeks, post-game skill assessment, and comparative analysis. Titicode appears to be an effective tool to enhance skills in CT and AI literacy in contexts with limited access to technology.

 

 

 

 

PALABRAS CLAVES· KEYWORDS

Competencia digital; Acceso a tecnología; Inteligencia artificial; Brecha digital; Educación inclusiva

Digital Competence; Access to Technology; Artificial Intelligence; Digital Divide; Inclusive Education

 

 

 

1. Introducción

El avance acelerado de las tecnologías digitales y su penetración en prácticamente todos los aspectos de la vida contemporánea (Soh et al., 2025) han convertido el Pensamiento Computacional (PC) (Wing, 2006; Grover & Pea, 2018) y la Inteligencia Artificial (IA) (Duque-Rodríguez et al., 2024) en competencias esenciales. Diversas investigaciones han destacado el desarrollo de estas habilidades en la educación básica (Engelhardt et al., 2016; Voogt et al., 2015; Nozato-López, 2024), por su relación directa con habilidades matemáticas, lingüísticas y de razonamiento abstracto (Bers, 2020; Grover & Pea, 2013), y su relevancia en el mercado laboral actual (Piazza & Mengual-Andrés, 2020).

Iniciativas como AI for K-12 en Estados Unidos y Elements of AI en Europa, han promovido la educación en PC y en IA desde edades tempranas, articulando estándares curriculares y recursos pedagógicos accesibles (Tedre et al., 2021). Sin embargo, la implementación de estos contenidos educativos presenta múltiples desafíos, entre estos, la carencia de recursos didácticos accesibles, las brechas tecnológicas entre regiones urbanas y rurales (Morales et al., 2024) y la falta de formación docente específica (Voogt et al., 2015). Este es el caso de diversas regiones de América Latina, donde existe una importante desigualdad en el acceso a tecnologías (Flores & Núñez, 2024; Quiroz-Vallejo et al., 2021). La brecha digital involucra factores de disponibilidad técnica, inclusión social y desarrollo humano, por eso está ligada a desequilibrios estructurales como la pobreza, la exclusión social, el desempleo y la distribución inequitativa de los recursos (Van Dijk, 2017).

Como solución a los desafíos planteados, esta investigación analiza un juego de mesa como recurso unplugged [analógico], pedagógico, inclusivo, adaptable y de bajo costo, que permite a docentes sin formación tecnológica fomentar el aprendizaje en PC (Sin Yoon & Md Khambari, 2022) y el uso de la IA (El-Hamamsy et al., 2022) en estudiantes de educación primaria y secundaria (Montes-León et al, 2020).

Múltiples investigaciones han señalado que las actividades lúdicas favorecen la motivación del estudiante (Berland & Lee, 2011; Deterding et al., 2011) y potencian el aprendizaje significativo, la colaboración (Zagal et al., 2006; Kafai & Burke, 2015) y la retención de conceptos complejos (Kazimoglu et al., 2012; Gee, 2003). Los juegos analógicos cobran importancia como herramienta equitativa, facilitando la apropiación del conocimiento tecnológico en contextos rurales (Vita-Barrull et al., 2023) y con limitaciones tecnológicas (Nicolalde & Narváez, 2025) debido a que promueven el desarrollo cognitivo, facilitan la adquisición de habilidades tecnológicas fundamentales y fortalecen los procesos de aprendizaje (Robles et al., 2024) desde etapas tempranas (Salleh, 2023).

Esta investigación desarrolla y evalúa un juego de mesa denominado Titicode que busca mejorar las habilidades en PC y la alfabetización en IA. La población analizada está ubicada en una zona rural de la Región Caribe de Colombia, con bajo acceso a recursos tecnológicos, poca conectividad y brechas en habilidades digitales tanto en docentes como estudiantes (Ministerio de Tecnologías de la Información y las Comunicaciones [MinTIC], 2025). Se realizó un diagnóstico preliminar que permitió identificar sus niveles de familiaridad con las nociones de lógica, algoritmos, programación y nociones básicas de IA (Rodríguez-Martínez et al., 2019). Después de la aplicación del juego, los estudiantes mostraron mejoras significativas en la comprensión, la motivación y la disposición hacia el aprendizaje del PC y la IA.

Investigaciones sobre juegos analógicos como Crabs & Turtles (Tsarava et al., 2018), RoboBUG (Sin Yoon & Md Khambari, 2022) y Code & Go Robot Mouse (Bakala et al., 2022), se concentran principalmente en conceptos básicos de PC, mientras que TitiCode articula en un solo entorno lúdico el PC y la IA, alineándose con marcos como el AI4K12 (Touretzky et al., 2019) con un enfoque integrador, contextual y evaluativo. De esta forma, se diseñó un recurso que mejora la experiencia de juego más allá de la secuenciación de instrucciones, favoreciendo la motivación y la toma de decisiones complejas, aportando al campo investigativo de la educación digital inclusiva. 

 

2. Creación del juego de mesa para estimular el PC y la IA

El diseño de Titicode parte de una perspectiva constructivista centrada en el estudiante, reconociendo que el aprendizaje ocurre cuando existe motivación, interacción social y oportunidad para aplicar los conocimientos en contextos reales (Gutiérrez-Medina et al., 2024). Cada partida tiene una duración de 45 a 60 minutos con un mínimo de 2 y un máximo de 4 jugadores que se enfrentan a desafíos y dilemas.

 

2.1. Componentes del juego

Titicode consta de once componentes y cuatro tipos de cartas (Figura 1). El tablero de 9×9 y las fichas de los jugadores fortalecen habilidades como la planificación, el pensamiento lógico y la estructuración algorítmica (Grover & Pea, 2013), al permitir la visualización de flujos de acción dentro de un entorno espacial concreto (Engelhardt et al., 2016).

El reloj de arena estimula la agilidad mental y favorece la toma de decisiones eficientes. La Caja Misteriosa incorpora elementos de sorpresa que resultan fundamentales para el desarrollo de la abstracción, la interpretación de eventos imprevistos y el pensamiento estratégico (Shute et al., 2017).

Las rocas simulan errores de ejecución que requieren la aplicación de decisiones condicionales, lo que refuerza procesos propios del PC (Kalelioğlu et al., 2016).

Las fichas del tablero (Error, PC, IA y NULL) profundizan la experiencia de aprendizaje al representar principios clave del PC (Grover & Pea, 2013) y de la IA (Ng et al., 2021), tales como el manejo de excepciones, la depuración de errores, la interpretación de datos faltantes y la ejecución condicional (Brennan & Resnick, 2012).

Finalmente, el uso de gemas como metas y bananas potencia la motivación intrínseca (Kapp, 2012), el sentido de logro y la participación (Ortiz-Colón et al., 2018), favoreciendo el aprendizaje por refuerzo (Sutton & Barto, 2018) y la internalización de conceptos complejos (Papavlasopoulou et al., 2017).

 

Figura 1

Componentes del juego Titicode

Imagen que contiene interior, lego, tabla, computadora

Descripción generada automáticamente

Fuente: Elaboración propia

 

En cuanto a las cartas, las de instrucciones de movimiento permite estructurar acciones en secuencia lógica (Goin & Quijano, 2023). Las cartas de depuración o error, inspiradas en juegos como Gidget (Lee et al., 2014) y RoboBUG (Sin Yoon & Md Khambari, 2022), promueven la identificación y corrección de errores, habilidad esencial en la programación. Las cartas de retos de PC distribuidas en categorías como: reconocimiento de patrones (Tseng, 2020; Tsarava et al., 2018), razonamiento lógico (Suárez-Ibujés et al., 2024), secuencias, conceptos fundamentales y abstracción (Grover & Pea, 2018). Por último, las cartas de IA simulan reconocimiento de patrones (Touretzky et al., 2019), interacción con agentes inteligentes (Casal-Otero et al., 2023) y toma de decisiones basada en datos (Long & Magerko, 2020).

El diseño de TitiCode articula sus componentes lúdico-pedagógicos con las variables analizadas en el estudio. Las cartas de instrucciones de movimiento, el tablero 9×9, las rocas, las cartas y fichas de error y NULL, la caja misteriosa y las cartas de retos fortalecen las habilidades en PC. Las cartas y las fichas de IA favorecen la medición de variable alfabetización en IA.

 

3. Metodología

El estudio se desarrolló en 5 fases (Figura 2) con datos cuantitativos mediante un diseño cuasiexperimental (Creswell & Creswell, 2018) pretest–postest (Del-Moral-Pérez et al, 2025) sin grupo de control.

 

Figura 2

Fases del experimento

Fuente: Elaboración propia

La Fase 1 consistió en la creación del juego con un enfoque pedagógico adecuado (Brennan & Resnick, 2012), garantizando su pertinencia y sostenibilidad educativa para la generación de resultados óptimos en la apropiación de los conceptos fundamentales en PC (Sáez-López et al., 2016) y en IA (Long & Magerko, 2020).

En la Fase 2 se aplicó una prueba diagnóstica de habilidades en PC y alfabetización en IA. En la Fase 3 se implementó el prototipo del juego de mesa durante 12 semanas, 1 sesión por semana en grupos de 3 a 4 estudiantes. En la Fase 4, se realizó una prueba diagnóstica después del juego, para medir el desarrollo de las variables evaluadas.

Por último, se elaboró un análisis de los resultados con la información obtenida en las pruebas para medir el impacto del juego en el desarrollo de las habilidades en el PC y la alfabetización IA de los estudiantes.

 

3.1. Participantes y muestra

El procedimiento de muestreo utilizado fue intencional y no probabilístico, donde se seleccionaron 71 estudiantes entre 10 y 14 años, con bajo acceso a recursos tecnológicos y brechas en habilidades digitales (MinTIC, 2025). El rango de edad de los participantes respondió al interés de análisis en una etapa clave del desarrollo académico, donde comienzan a enfrentarse a desafíos más complejos y requieren herramientas que fortalezcan su pensamiento lógico y creativo (Barragán Perea, 2023).

El uso de este tipo de muestreo puede limitar la generalización estadística de los resultados, no obstante, el objetivo del estudio es la evaluación del impacto de una intervención educativa diseñada para un contexto rural con brecha digital. Por tanto, este muestreo resulta adecuado para analizar la efectividad del juego de mesa Titicode en una población concreta.

Esta investigación se realizó bajo la confidencialidad de los datos recolectados, supervisión y aval de la institución educativa, los profesores y la universidad, y el consentimiento previo de los acudientes legales de los estudiantes (Molina Montoya, 2018; Klock et al., 2023).

 

3.2. Prueba diagnóstica del conocimiento en PC e IA

Para analizar el impacto de Titicode en los estudiantes se utilizaron como referencia dos pruebas: Computational Thinking test (CTt) desarrollado por Román-González et al. (2017) y Artificial Intelligence Literacy Questionnaire (AILQ) de Ng et al. (2024). Se realizaron modificaciones para adaptar los cuestionarios a la población objetivo (Mokkink et al, 2018), teniendo en cuenta que la simpleza de los cuestionarios mejora la calidad de en la recolección de datos (De Leeuw, 2011).

De esta forma, se construyó un instrumento de 18 preguntas, aplicado por medio de Google Forms de forma individual y con una duración aproximada de 45 minutos por estudiante. Con base en el CTt, las primeras 10 preguntas midieron el desarrollo de las habilidades en PC por medio de cuatro dimensiones: razonamiento lógico y matemático, abstracción, depuración de errores y principios básicos de programación y secuenciación. Para asegurar la coherencia visual entre la prueba y el juego de mesa, se realizaron adaptaciones gráficas del CTt en las imágenes, los escenarios y los personajes de cada pregunta, integrándolos al estilo del tablero de Titicode (Figura 3). Esta modificación puede ser un limitante debido a que se utiliza una paleta cromática abstracta al exigir un esfuerzo adicional para interpretar los peligros, caminos y objetivos (Sweller et al., 2011).

 

Figura 3

Adaptación de la prueba al juego Titicode.

Diagrama

Descripción generada automáticamente

Fuente: Elaboración propia.

 

Con base en el AILQ, la segunda parte de la prueba tuvo como objetivo evaluar la alfabetización en IA calculada a partir de las dimensiones cognitiva y afectiva (Ng et al., 2023). El aprendizaje afectivo o nivel de interés por la IA, comprende factores que miden los sentimientos de los estudiantes en términos de motivación intrínseca, autoeficacia, interés profesional y confianza en el aprendizaje de IA. El aprendizaje cognitivo o nivel de conocimiento se refiere a factores como el logro de habilidades de los estudiantes en conocer, comprender, usar y aplicar la IA. Se simplificaron las opciones de respuesta a una de escala de Likert de 3 puntos (1= En desacuerdo, 2= Neutral, 3= De acuerdo), para favorecer la comprensión por parte de los participantes, evitar confusiones semánticas (Alan & Atalay, 2020; Naegeli et al., 2018) y mejorar la consistencia y fiabilidad de las respuestas (Mellor & Moore, 2014). 

 

3.3. Instrumentos para el análisis de datos

El análisis de los datos se divide en dos partes, una relativa al PC y la otra a la IA. Ambas partes se basan en datos recolectados en las pruebas aplicadas a los participantes antes y después de la intervención educativa con Titicode.

Para la medición de las habilidades en PC, se utilizaron subvariables derivadas de tasas de acierto porcentuales calculadas a partir de un número de ítems dicotómicos agrupados por dimensiones específicas mencionadas en el apartado 3.2.

Se aplicó la prueba t de Student pareada para detectar diferencias significativas entre las medias de las tasas de acierto antes y después de Titicode, adecuada para muestras dependientes, permitiendo evaluar si los cambios observados son estadísticamente significativos (con un valor p < .05 indicando rechazo de la hipótesis nula de no diferencia).

 

 

Aunque la prueba de Shapiro–Wilk aplicada a las diferencias pareadas indicó desviaciones significativas de la normalidad, se mantuvo el uso de la prueba t de Student. Esta decisión se fundamenta en la robustez del contraste t frente a violaciones del supuesto de normalidad, especialmente en muestras de tamaño moderado o grande y cuando el interés se centra en la comparación de medias (Sullivan & D’Agostino, 1992; Lumley et al., 2002; Norman, 2010). Asimismo, la naturaleza discreta de las variables analizadas y la presencia de efectos suelo y techo explican la asimetría observada en las diferencias.

Para medir el tamaño del efecto, se utilizó la d de Cohen que cuantifica la magnitud del cambio en términos de desviaciones estándar, con valores desde 0.20 (pequeño) a superiores a 0.80 (grande) (Cohen, 1988). En diseños pretest–postest, la interpretación de tamaños del efecto debe realizarse considerando el nivel inicial de desempeño y la homogeneidad de las mejoras observadas (Lakens, 2013).

Para analizar el efecto en la alfabetización en IA, se emplearon variables discretas basadas en respuestas a encuestas de tipo Likert, que capturan las dimensiones afectivas (interés y motivación) y cognitivas (comprensión conceptual y conocimiento).

Se utilizó la prueba de Wilcoxon de rangos con signo, una prueba no paramétrica adecuada para datos ordinales o discretos como los de escalas Likert (Derrick & White, 2017), que no asumen normalidad y manejan muestras pareadas. Esta prueba es conveniente porque evalúa diferencias en las distribuciones de rangos de las respuestas antes y después, con un valor p < .05 indicando cambios significativos, y es resistente a valores atípicos comunes en datos subjetivos.

 

 

Adicionalmente, se calcula la correlación biserial de rangos para estimar el tamaño del efecto, que adapta la correlación punto-biserial a datos ordinales y mide la fuerza de la asociación entre la intervención (antes/después) y las respuestas.

La consistencia interna de los instrumentos se estimó a partir de las mediciones pretest. En el caso del CTt, compuesto por diez ítems dicotómicos, se utilizó el coeficiente KR-20, donde se obtuvo un valor de 0.24. Siguiendo a Streiner (2003), alfas excesivamente altas pueden reflejar redundancia entre ítems más que una adecuada representación del constructo evaluado. En pruebas de logro educativo que integran distintas dimensiones del desempeño y utilizan ítems dicotómicos, es esperable obtener valores moderados o bajos de KR-20, especialmente cuando existe un marcado efecto suelo en la medición inicial.

Por su parte, la consistencia interna del AILQ, integrado por ocho ítems de naturaleza afectiva y cognitiva, se estimó mediante el coeficiente alfa de Cronbach, donde se obtuvo un valor de 0.51 en el pretest. En escalas con un número reducido de categorías de respuesta, es habitual obtener niveles moderados de consistencia interna en contextos exploratorios (Cortina, 1993; Norman, 2010).

 

4. Resultados obtenidos

4.1. Habilidades en PC

Los resultados evidencian mejoras significativas en todas las dimensiones analizadas (Figura 4), con un aumento en el rango de aciertos de menos del 6% antes de la intervención de Titicode a cerca del 90% después. Este cambio debe interpretarse considerando la baja exposición previa a contenidos de PC, por lo que pequeñas variaciones iniciales generan grandes incrementos porcentuales sin sobrestimar el efecto. La Tabla 1 muestra medias, desviaciones estándar e intervalos de confianza al 95% antes y después de la intervención, confirmando un efecto suelo en el pretest y un posible efecto techo en el postest en algunas dimensiones.

Tabla 1

Estadísticos descriptivos de las habilidades en PC en el pretest y el postest

Variable

Test

N

Media (DE)

IC(95%)

Razonamiento lógico y matemático

Antes

71

9.29 (19.58)

[4.62, 13.96]

 

Razonamiento lógico y matemático

Después

71

88.57 (21.15)

[83.53, 93.61]

 

Abstracción

Antes

71

6.43 (16.86)

[2.41, 10.45]

Abstracción

Después

71

91.43 (18.98)

[86.90, 95.95]

 

Depuración o Error

Antes

71

1.43 (8.39)

[0.00, 3.43] 

 

Depuración o Error

Después

71

90.00 (21.87)

[84.79, 95.21]

 

Principios básicos en programación y secuenciación

Antes

71

6.07 (12.36)

[3.12, 9.02]

 

Principios básicos en programación y secuenciación

Después

71

88.21 (17.40)

[84.06, 92.36]

 

 

Figura 4

Media de tasa de acierto por dimensión en las pruebas de habilidades en PC

Gráfico, Gráfico de cajas y bigotes

El contenido generado por IA puede ser incorrecto.

Fuente: Elaboración propia.

Los resultados de las pruebas inferenciales confirman las mejoras observadas en el análisis descriptivo, destacando diferencias significativas y efectos de gran magnitud atribuidos a la intervención con Titicode.

La prueba t de Student pareada (Tabla 2) revela diferencias altamente significativas en todas las variables, con valores p extremadamente bajos, lo que rechaza la hipótesis nula y confirma que los cambios no son aleatorios.

 

Tabla 2

Pueba t student y d de Cohen en habilidades en PC

Variable

 

t de Student (df=70)

 

Valor p

d de Cohen

 

Efecto

Razonamiento lógico y matemático

23.0

< .001

3.89

Muy grande

Abstracción

28.9

< .001

4.74

Muy grande

Depuración o Error

32.5

< .001

5.35

Muy grande

Principios básicos en programación y secuenciación

32.9

< .001

5.44

Muy grande

 

La Tabla 2 también muestra una d de Cohen muy alta en todos los casos subrayando el impacto pedagógico sustancial de la intervención.

En el razonamiento lógico-matemático se observa una transición de bajo rendimiento a un dominio sólido, reforzando la capacidad de aplicar instrucciones estructuradas en tareas como movimientos de personajes o dibujos. En abstracción, el gran efecto (d = 4.74) indica una mejora notable en la identificación de pasos faltantes y en la conceptualización, aspectos clave para la programación. La depuración presenta uno de los cambios más marcados (d = 5.35), reflejando avances en la corrección de errores. Por último, los principios básicos de programación muestran el efecto más elevado (d = 5.44), evidenciando una mejora sustancial en secuenciación y repetición de instrucciones gracias a una intervención práctica eficaz.

 

4.2. Alfabetización en IA

La Figura 5 compara las medias de las puntuaciones (en una escala Likert de 1 a 3, donde 1 = "En desacuerdo", 2 = "Neutral" y 3 = "De acuerdo") obtenidas para las dos variables analizadas antes y después de la intervención de Titicode. Cada panel representa una dimensión (Afectiva y Cognitiva), acompañada de barras de error que indican la desviación estándar.

 

Figura 5

Puntuaciones Likert por dimensión en la prueba de alfabetización en IA

Gráfico, Gráfico de barras

El contenido generado por IA puede ser incorrecto.

Fuente: Elaboración propia

 

La prueba de Wilcoxon de rangos con signo y la correlación biserial de rangos revelan patrones diferenciados (Tabla 3). Para la dimensión afectiva, el valor p (.289) es mayor a .05, no rechazando la hipótesis nula e indicando ausencia de diferencias significativas entre los resultados de la prueba diagnóstica antes y después de la intervención. La correlación biserial es baja (.089), confirmando un efecto mínimo y sugiriendo que la intervención no alteró notablemente los aspectos motivacionales.

 

 

 

Tabla 3

Estadístico de Wilcoxon y correlación biserial

Variable

Estadístico de Wilcoxon

Valor p

Correlación biserial

Afectivo

2316

.289

.089

Cognitivo

5041

< .001

.898

 

Para la dimensión cognitiva, el valor p es extremadamente bajo, rechazando la hipótesis nula y confirmando diferencias altamente significativas. La correlación biserial alta (.898) denota un efecto grande, validando la efectividad de Titicode en mejorar la alfabetización en IA desde la dimensión cognitiva.

 

5. Discusión

Titicode se muestra como una herramienta efectiva para el desarrollo del PC en edades tempranas con valor pedagógico y lúdico, al igual que otros juegos como Crabs & Turtles (Tsarava et al., 2018) y Code & Go Robot Mouse (Bakala et al., 2022).
A diferencia de otros juegos analógicos, Titicode puede mejorar la alfabetización IA, lo cual no se había analizado en investigaciones anteriores.

No obstante, la interpretación de estos hallazgos requiere considerar determinadas condiciones metodológicas. Los tamaños del efecto elevados pueden estar influenciados por el bajo nivel inicial de desempeño de la muestra, lo que apunta a un posible efecto suelo en el pretest y a la amplificación de los cambios tras la intervención, así como a un efecto techo en algunas dimensiones del postest.

La estrecha alineación entre los objetivos de la intervención y el instrumento refuerza la validez interna, pero sugiere la conveniencia de incorporar en futuras investigaciones medidas complementarias que permitan evaluar la transferencia del aprendizaje a otros contextos.

El uso de un muestreo no probabilístico limita la generalización de los resultados y la ausencia de un grupo de control dificulta aislar el efecto de la intervención frente a posibles amenazas a la validez interna, como el aprendizaje asociado a la repetición. A pesar de ello, la coherencia pedagógica del diseño del juego y la consistencia de las mejoras observadas sugieren que los cambios no pueden atribuirse exclusivamente a estos factores, sino que responden, en buena medida, a la intervención educativa implementada.

6. Conclusiones

Los hallazgos de esta investigación demuestran el potencial de Titicode como una estrategia didáctica, efectiva e inclusiva que puede transformar conceptos abstractos en experiencias concretas, mejorando las habilidades en PC y la alfabetización en IA de estudiantes en entornos con bajo acceso a la tecnología. Su versatilidad permite que sea replicado y escalado en diversos entornos educativos.

De acuerdo con las pruebas aplicadas, los estudiantes pasaron de niveles de acierto inferiores al 6% antes de la intervención del juego, a niveles en torno al 90% en todas las dimensiones de PC analizadas, demostrando ser un método significativo. En el ámbito de la IA, desde la dimensión cognitiva se logró una mejora en la comprensión de los conceptos fundamentales, y desde la dimensión afectiva, se encontró que las actitudes emocionales hacia la IA fueron altas antes y después de la intervención.

Diversas líneas de investigación se abren a partir de este análisis, como la evaluación de su impacto a largo plazo, explorar su aplicación en otro tipo de poblaciones, profundizar en la incorporación de componentes emocionales, de motivación, de gamificación avanzada, o de apropiación crítica de las tecnologías emergentes.

Finalmente, esta propuesta demuestra que los juegos de mesa pueden ser aliados estratégicos en la educación, adaptables para diferentes iniciativas orientadas al desarrollo de competencias clave en la era digital.

Contribución de los autores

Autor 1: conceptualización, metodología, validación, análisis formal, investigación, supervisión, visualización, redacción – borrador original, redacción—revisión y edición. Autor 2: conceptualización, creación del juego, metodología, validación, análisis formal, investigación, visualización, redacción – borrador original, redacción—revisión y edición; Autor 3: metodología, software, análisis formal, redacción-revisión y edición, visualización.

Financiación

Esta investigación no ha recibido financiación externa.

Aprobación ética

La intervención cuenta con el aval del Comité de Ética de la Universidad Simón Bolívar mediante el Acta de Aprobación de Proyectos No.0539 para el Proyecto PRO-CEI-USB-CE-0606-00.

Conflicto de interés

Los autores declaran que no existe conflicto de intereses.

 

Referencias

Alan, Ü., & Atalay Kabasakal, K. (2020). Effect of number of response options on the psychometric properties of Likert-type scales used with children. Studies in Educational Evaluation, 66, 100895. https://doi.org/10.1016/j.stueduc.2020.100895

Bakala, E., Gerosa, A., Hourcade, J. P., Tejera, G., Peterman, K., & Trinidad, G. (2022). A Systematic Review of Technologies to Teach Control Structures in Preschool Education. Frontiers in psychology, 13, 911057. https://doi.org/10.3389/fpsyg.2022.911057

Barragán Perea, E. A. (2023). Pensamiento computacional y programación en la formación de estudiantes desde edades tempranas. Revista Educación, 47(2), 1–18. https://doi.org/10.15517/revedu.v47i2.53645

Berland, M. & Lee, V. R. (2011). Collaborative Strategic Board Games as a Site for Distributed Computational Thinking. International Journal of Game-Based Learning (IJGBL), 1(2), 65-81. https://doi.org/10.4018/ijgbl.2011040105

Bers, M. U. (2020). Coding as a playground: Programming and computational thinking in the early childhood classroom (2nd ed.). Routledge. https://doi.org/10.4324/9781003022602

Brennan, K., & Resnick, M. (2012). New Frameworks for Studying and Assessing the Development of Computational Thinking. Proceedings of the 2012 Annual Meeting of the American Educational Research Association, 1, Vancouver, 13-17 April 2012, 25. http://bit.ly/3JKzzhf

Casal-Otero, L., Catala, A., Fernández-Morante, C., Taboada, M, Cebreiro, B. & Barro, S. (2023). AI literacy in K-12: a systematic literature review. International Journal of STEM Education, 10(29). https://doi.org/10.1186/s40594-023-00418-7

Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Routledge. https://doi.org/10.4324/9780203771587

Cortina, J. M. (1993). What is coefficient alpha? An examination of theory and applications. Journal of Applied Psychology, 78(1), 98–104. https://doi.org/10.1037/0021-9010.78.1.98

Creswell, J. W., & Creswell, J. D. (2018). Research design: qualitative, quantitative, and mixed methods approaches. Fifth edition. SAGE.  http://bit.ly/45Ah7QU

De Leeuw, E. D. (2011). Improving data quality when surveying children and adolescents: Cognitive and social development and its role in questionnaire construction and pretesting. Academy of Finland Conference Report. http://bit.ly/43NjzTn

Del-Moral-Pérez, M.E., López-Bouzas, N., & Castañeda-Fernández, J. (2025). Microrrelatos, codificación robótica, aplicaciones digitales y realidad aumentada para potenciar el pensamiento computacional infantil [Micro-stories, Robotic Coding, Digital Applications, and Augmented Reality to Enhance Children's Computational Thinking]. Pixel-Bit. Revista de Medios y Educación, 73, art.8. https://doi.org/10.12795/pixelbit.115193

Derrick, B., & White, P. (2017). Comparing Two Samples from an Individual Likert Question. International Journal of Mathematics and Statistics, 18(3), 1-13. http://bit.ly/40FWa4i

Deterding, S., Sicart, M., Nacke, L., O’Hara, K. & Dixon, D. (2011). Gamification: Using game design elements in non-gaming contexts. Proceedings of the 2011 Annual Conference Extended Abstracts on Human Factors in Computing Systems, 66, 2425 - 2428. https://doi.org/10.1145/1979742.1979575

Duque-Rodríguez, J., Piña-Ferrer, L., Isea-Argüelles, J., & Comas-Rodríguez, R. (2024). Aprendizaje tecnológico desde los primeros años de escolaridad en la era de la inteligencia artificial. CIENCIAMATRIA, 10(18), 151-167. https://doi.org/10.35381/cm.v10i18.1247

El-Hamamsy, L., Zapata-Cáceres, M., Barroso, E. M., Mondada, F., Zufferey, J. D., & Bruno, B. (2022). The Competent Computational Thinking Test: Development and Validation of an Unplugged Computational Thinking Test for Upper Primary School. Journal of Educational Computing Research, 60(7), 1818-1866. https://doi.org/10.1177/07356331221081753

Engelhardt, K., Punie, Y., Chioccariello, A., Ferrari, A., Dettori, G., Kampylis, P., & Bocconi, S. (2016). Developing computational thinking in compulsory education – Implications for policy and practice, Punie, Y.(editor) and Kampylis, P.(editor), Publications Office. https://data.europa.eu/doi/10.2791/792158

Flores Jaramillo, J. D., & Nuñez Olivera, N. R. (2024). Aplicación de Inteligencia Artificial en la Educación de América Latina: Tendencias, Beneficios y Desafíos. Revista Veritas De Difusão Científica, 5(1), 01–22. https://doi.org/10.61616/rvdc.v5i1.52

Gee, J. P. (2003). What video games have to teach us about learning and literacy. Computers in Entertainment (CIE), 1(1), 20. https://doi.org/10.1145/950566.95059

Goin, M. M. J., & Quijano, M. T. (2023). Desarrollo y análisis de un juego de mesa algorítmico para favorecer el pensamiento computacional. Revista Iberoamericana De Tecnología En Educación Y Educación En Tecnología, (35), e10. https://doi.org/10.24215/18509959.35.e10

Grover, S. & Pea, R. (2013). Computational Thinking in K–12: A Review of the State of the Field. Educational Researcher, 42(1), 38-43. https://doi.org/10.3102/0013189X12463051

Grover, S., & Pea, R. (2018). Computational Thinking: A Competency Whose Time Has Come. In S. Sentance , E. Barendsen & C. Schulte (Ed.). Computer Science Education: Perspectives on Teaching and Learning in School (pp. 19–38). London. Bloomsbury Academic. Retrieved June 12, 2025, from http://dx.doi.org/10.5040/9781350057142.ch-003

Gutiérrez-Medina, L., Arrué-Quezada, G., & Illanes-Aguilar, L. (2024). Juegos de mesa como inductor de la Motivación para el aprendizaje en adolescentes: Una revisión sistemática. Revista de estudios y experiencias en educación, 23(52), 195-213.  https://doi.org/10.21703/rexe.v23i52.2429

Kafai, Y. B., & Burke, Q. (2015). Constructionist gaming: Understanding the benefits of making games for learning. Educational Psychologist, 50(4), 313-334. https://doi.org/10.1080/00461520.2015.1124022

Kalelioğlu, F., Gülbahar, Y., & Kukul, V. (2016). A framework for computational thinking based on a systematic research review. Baltic Journal of Modern Computing, 4(3), 583-596. https://bit.ly/4moM1SR

Kapp, Karl. (2012). The gamification of learning and instruction: Game-based methods and strategies for training and education. San Francisco, CA: Pfeiffer. https://doi.org/10.1145/2207270.2211316

Kazimoglu, C., Kiernan, M., Bacon, L. & MacKinnon, L. (2012). Learning Programming at the Computational Thinking Level via Digital Game-Play. Procedia Computer Science, 9, 522-531. https://doi.org/10.1016/j.procs.2012.04.056

Klock, A.C.T., Santana, B.S., Hamari, J. (2023). Ethical Challenges in Gamified Education Research and Development: An Umbrella Review and Potential Directions. In: Toda, A., Cristea, A.I., Isotani, S. (eds) Gamification Design for Educational Contexts. Springer, Cham. https://doi.org/10.1007/978-3-031-31949-5_3

Lakens, D. (2013). Calculating and reporting effect sizes to facilitate cumulative science: A practical primer for t-tests and ANOVAs. Frontiers in Psychology, 4(863). https://doi.org/10.3389/fpsyg.2013.00863

Lee, M. J., Bahmani, F., Kwan, I., Laferte, J., Charters, P., Horvath, A., Luor, F., Cao, J., Law, C., Beswetherick, M., Long, S., Burnett, M., & Ko, A. J. (2014). Principles of a debugging-first puzzle game for computing education. In Proceedings - 2014 IEEE Symposium on Visual Languages and Human-Centric Computing VL/HCC, Melbourne VIC, Australia, 57-64. https://doi.org/10.1109/VLHCC.2014.6883023

Long, D. & Magerko, B. (2020). What is AI Literacy? Competencies and Design Considerations. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (CHI '20). Association for Computing Machinery, New York, NY, USA, 1–16. https://doi.org/10.1145/3313831.3376727

Lumley, T., Diehr, P., Emerson, S., & Chen, L. (2002). The importance of the normality assumption in large public health data sets. Annual review of public health23(1), 151-169. https://doi.org/10.1146/annurev.publhealth.23.100901.140546

Mellor, D. & Moore, K.A. (2014). The Use of Likert Scales With Children. Journal of Pediatric Psychology, 39 (3), 369–379. https://doi.org/10.1093/jpepsy/jst079

Ministerio de Tecnologías de la Información y las Comunicaciones (MinTIC). (2025, 17 de diciembre). Índice Sintético Educación Digital 2022-2023. Observatorio Nacional de Tecnologías de la Información y las Comunicaciones (ONTIC). Recuperado de https://bit.ly/45TsjIq

Mokkink, L. B., Terwee, C. B., Patrick, D. L., Alonso, J., Stratford, P. W., Knol, D. L., Bouter, L. M., & de Vet, H. C. W. (2018). COSMIN methodology for systematic reviews of Patient-Reported Outcome Measures (PROMs): User manual. http://bit.ly/3HJFemV

Molina Montoya, N. P. (2018). Aspectos éticos en la investigación con niños. Ciencia Y Tecnología Para L a Salud Visual Y Ocular, 16(1), 75-87. https://doi.org/10.19052/sv.4348

Montes-León, H., Hijón- Neira, R., Pérez-Marín, D., & Montes-León, S. R. (2020). Mejora del Pensamiento Computacional en Estudiantes de Secundaria con Tareas Unplugged. Education in the Knowledge Society (EKS), 21(12). https://doi.org/10.14201/eks.23002

Morales Jaramillo, M., Sosa Toapanta, J., Garofalo Sosa, G., & Escobar Contreras, K. (2024). La inteligencia artificial una herramienta benéfica o perjudicial para el aprendizaje académico en el Ecuador. Polo del Conocimiento, 9(12), 1476-1490. https://doi.org/10.23857/pc.v9i12.8557

Naegeli, A. N., Hanlon, J., Gries, K. S., Safikhani, S., Ryden, A., Patel, M., Crescioni, M., & Vernon, M. (2018). Literature review to characterize the empirical basis for response scale selection in pediatric populations. Journal of patient-reported outcomes, 2 (39). https://doi.org/10.1186/s41687-018-0051-8

Ng, D.T.K., Leung, J.K.L, Chu, S.K.W.  & Qiao,M.S. (2021) Conceptualizing AI literacy: An exploratory review. Computers and Education: Artificial Intelligence, 2, 100041, ISSN 2666-920X. https://doi.org/10.1016/j.caeai.2021.100041

Ng, D.T.K., Leung, J.K.L., Su, J., Ng, R.C.W. & Chu, S.K.W. (2023) Teachers’ AI digital competencies and twenty-first century skills in the post-pandemic world. Education Tech Research and development, 71, 137-161. https://doi.org/10.1007/s11423-023-10203-6

Ng, D.T.K., Wu, W., Leung, J.K.L., Chiu, T.K.F., & Chu, S.K.W. (2024). Design and validation of the AI literacy questionnaire: The affective, behavioural, cognitive and ethical approach. British Journal of Educational Technology, 55(3), 1082–1104. https://doi.org/10.1111/bjet.13411

Nicolalde Jaramillo, S.G., & Narvaéz Valverde, M.M. (2025). La inteligencia artificial en la educación básica: innovaciones, desafíos y perspectivas futuras. Revista Ecos De La Academia, 11(21), e1218. https://doi.org/10.53358/ecosacademia.v11i21.1218

Norman, G. (2010). Likert scales, levels of measurement and the “laws” of statistics. Advances in health sciences education15(5), 625-632. https://doi.org/10.1007/s10459-010-9222-y

Nozato-López, M. J. (2024). La inteligencia artificial en educación: consideraciones éticas y fomento al pensamiento crítico. RECIE. Revista Electrónica Científica De Investigación Educativa, 8, e2357. https://doi.org/10.33010/recie.v8i0.2357

Ortiz-Colón, A.-M., Jordán, J., & Agreda, M. (2018). Gamificación en educación: una panorámica sobre el estado de la cuestión. Educação & Pesquisa, 44, e173773. https://doi.org/10.1590/S1678-4634201844173773

Papavlasopoulou, S., Giannakos, M. N., & Jaccheri, L. (2017). Empirical studies on the Maker Movement, a promising approach to learning: A literature review. Entertainment Computing, 18, 57-78. https://doi.org/10.1016/j.entcom.2016.09.002

Piazza, A., & Mengual-Andrés, S. (2020). Computational thinking and coding in primary education: scientific productivity on SCOPUS. Pixel-Bit, Revista de Medios y Educación, 59, 147–181. https://doi.org/10.12795/pixelbit.79769

Quiroz-Vallejo, D. A., Carmona-Mesa, J. A., Castrillón-Yepes, A., & Villa-Ochoa, J. A. (2021). Integración del pensamiento computacional en la educación primaria y secundaria en Latinoamérica: una revisión sistemática de literatura. RED. Revista de Educación a Distancia, 21(68), Artíc. 7. https://doi.org/10.6018/red.485321

Robles Carmona, E. J., Vergara Oliveros, J. J., Giraldo Cardozo, J. C., & Madera Doval, D. P. (2024). Enfoque stem+ y gamificación para desarrollar el pensamiento computacional en educación básica. Acta ScientiÆ InformaticÆ, 8(8), 23-28. https://doi.org/10.21897/26192659.3642

Rodríguez-Martínez, J. A., González-Calero, J. A., & Sáez-López, J. M. (2019). Computational thinking and mathematics using Scratch: an experiment with sixth-grade students. Interactive Learning Environments, 28(3), 316–327. https://doi.org/10.1080/10494820.2019.1612448

Román-González, M., Pérez-González, J.-C., & Jiménez-Fernández, C. (2017). Which cognitive abilities underlie computational thinking? Criterion validity of the Computational Thinking Test. Computers in Human Behavior, 72, 678–691. https://doi.org/10.1016/j.chb.2016.08.047

Sáez-López, J.-M., Román-González, M., & Vázquez-Cano, E. (2016). Visual programming languages integrated across the curriculum in elementary school: A two-year case study using “Scratch” in five schools. Computers & Education, 97, 129-141. https://doi.org/10.1016/j.compedu.2016.03.003

Salleh Hudin, S. (2023). A Systematic Review of the Challenges in Teaching Programming for Primary Schools’ Students. Online Journal for TVET Practitioners, 8(1), 75-88. https://publisher.uthm.edu.my/ojs/index.php/oj-tp/article/view/13350

Shute, V. J., Sun, C., & Asbell-Clarke, J. (2017). Demystifying computational thinking. Educational Research Review, 22, 142–158. https://doi.org/10.1016/j.edurev.2017.09.003

Sin Yoon, C., & Md Khambari, M.N. (2022). Design, Development, and Evaluation of the Robobug Board Game: An Unplugged Approach to Computational Thinking. International Journal of Interactive Mobile Technologies (IJIM), 16(06), 41–60. https://doi.org/10.3991/ijim.v16i06.26281

Soh, J., Oikonomou, M., Pizzinelli, C., Shibata, I. & Tavares, M. M.  (2025) Did the Covid-19 Recession Increase the Demand for Digital Occupations in the USA? Evidence from Employment and Vacancies Data. IMF Economic Review, 73, 316–337. https://doi.org/10.1057/s41308-024-00246-x

Streiner, D. L. (2003). Starting at the Beginning: An Introduction to Coefficient Alpha and Internal Consistency. Journal of Personality Assessment, 80(1), 99–103. https://doi.org/10.1207/S15327752JPA8001_18

Suárez-Ibujés, M. O., Hernández-Dávila, C. A., Peñafiel, E. J. A., & Villena-Atoche, C. A. (2024). Utilización de juegos de razonamiento lógico para potenciar competencias matemáticas en estudiantes de bachillerato. MQR Investigar, 8(2), 2931–2950. https://doi.org/10.56048/MQR20225.8.2.2024.2931-2950

Sullivan, L. M., & D'Agostino, R. B. (1992). Robustness of the t test applied to data distorted from normality by floor effects. Journal of dental research71(12), 1938-1943. https://doi.org/10.1177/00220345920710121601

Sutton, R. S., & Barto, A. G. (2018). Reinforcement learning: An introduction (2nd ed.). A Bradford Book, The MIT Press. http://bit.ly/3JF8ADW

Sweller, J., Ayres, P., & Kalyuga, S. (2011). Cognitive load theory. Springer. https://doi.org/10.1007/978-1-4419-8126-4

Tedre, M., Toivonen, T., Vartiainen, H., Jormanainen, I., Valtonen, T., Kahila, J. & Pears, A. (2021). Teaching Machine Learning in K–12 Classroom: Pedagogical and Technological Trajectories for Artificial Intelligence Education. IEEE Access, 9, 110558-110572. https://doi.org/10.1109/ACCESS.2021.3097962

Touretzky, D., Gardner-McCune, C., Martin, F., & Seehorn, D. (2019). Envisioning AI for K-12: What Should Every Child Know about AI?. Proceedings of the AAAI Conference on Artificial Intelligence, 33(1), 9795-9799. https://doi.org/10.1609/aaai.v33i01.33019795

Tsarava, K., Moeller, K., M., & Ninaus, M. (2018). Training Computational Thinking through board games: The case of Crabs & Turtles. International Journal of Serious Games, 5(2), 25-44. https://doi.org/10.17083/ijsg.v5i2.248

Tseng, C. Y. (2020). Exploring the Learning Effect of Playing Card Games to Develop Computational Thinking Skills: Supporting Pattern Recognition and Generalization. http://dx.doi.org/10.13140/RG.2.2.30111.64163

Van Dijk, J. (2017). Digital divide: Impact of access. In P. Rössler, C. A. Hoffner, & L. van Zoonen (Eds.), The international encyclopedia of media effects (pp. 1–11). John Wiley & Sons. https://doi.org/10.1002/9781118783764.wbieme0043

Vita-Barrull, N., Estrada-Plana, V., March-Llanes, J., Guzmán, N., Fernández-Muñoz, C., Ayesa, R., & Moya-Higueras, J. (2023). Board game-based intervention to improve executive functions and academic skills in rural schools: A randomized controlled trial. Trends in neuroscience and education, 33, 100216. https://doi.org/10.1016/j.tine.2023.100216

Voogt, J., Fisser, P., Good, J., Mishra, P. & Yadav, A. (2015). Computational thinking in compulsory education: Towards an agenda for research and practice. Education and Information Technologies, 20, 715-728. https://doi.org/10.1007/s10639-015-9412-6

Wing, J. (2006). Computational thinking. Communications of the ACM, 49(3), 33-35. https://doi.org/10.1145/1118178.1118215

Zagal, J. P., Rick, J., & Hsi, I. (2006). Collaborative games: Lessons learned from board games. Simulation & Gaming, 37(1), 24-40. https://doi.org/10.1177/1046878105282279