ir a la navegación

Superinteligencia. Caminos, peligros, estrategias 22 mayo 2017

Publicado por faraon en Inteligencia artificial, Libros , añadir un comentario

Caminos, peligros, estrategias.

Nick Bostrom
TEELL Editorial

Enlaces de interés:

Frases entresacadas e ideas interesantes que puedo utilizar:

(Página )

Homo deus. Breve historia del mañana 6 marzo 2017

Publicado por faraon en Inteligencia artificial, Libros , 1 comentario

Homo deus.
Breve historia del mañana.

Yuval Noah Harari
Debate (

Enlaces de interés:
Sitio web de Yuval Noah Harari:
Charlas TED de Yuval Noah Harari:
Yo lo conocí por el programa de Iñaki Gabilondo “Cuando ya no esté”: parte 1 y parte 2

Ya he acabado de leer los dos libros (“Sapiens” y “Homo Deus”) y he vuelto a sentir el mismo vértigo y mareo que sentí en la adolescencia cuando pensaba en la muerte y el sentido de la vida. Pero el problema es que ahora ¡tengo 55 años! La lucidez y claridad de Harari es tal que comparto todas sus palabras y reflexiones. Y no sé si es bueno o malo. Igual, a mi edad, ya no debería leer este tipo de libros. O ¿quizás sí?

Frases entresacadas e ideas interesantes que puedo utilizar:

(Página 72)
La paradoja del conocimiento
“Esta es la paradoja del conociento histórico. El conocimiento que no cambia el comportamiento es inútil. Pero el conocimiento que cambia el comportamiento pierde rápidamente su relevancia. Cuantos más datos tenemos y cuanto mejor entendemos la historia, más rápidamente la historia altera su rumbo y más rápidamente nuestro conocimiento queda desfasado.”

Algorithms to Live By 1 agosto 2016

Publicado por faraon en Inteligencia artificial, Libros , añadir un comentario

Algorithms to Live By.
The Computer Science of Humans Decisions

Brian Christian and Tom Griffiths
Allen Lane (


A fascinating exploration of how computer algorithms can be applied to our everyday lives, helping to solve common decision-making problems and illuminate the workings of the human mind

All our lives are constrained by limited space and time, limits that give rise to a particular set of problems. What should we do, or leave undone, in a day or a lifetime? How much messiness should we accept? What balance of new activities and familiar favorites is the most fulfilling? These may seem like uniquely human quandaries, but they are not: computers, too, face the same constraints, so computer scientists have been grappling with their version of such problems for decades. And the solutions they’ve found have much to teach us.

In a dazzlingly interdisciplinary work, acclaimed author Brian Christian and cognitive scientist Tom Griffiths show how the simple, precise algorithms used by computers can also untangle very human questions. They explain how to have better hunches and when to leave things to chance, how to deal with overwhelming choices and how best to connect with others. From finding a spouse to finding a parking spot, from organizing one’s inbox to understanding the workings of human memory, Algorithms to Live By transforms the wisdom of computer science into strategies for human living.

Enlaces de interés:

Frases entresacadas e ideas interesantes que puedo utilizar:

(Página 32)
“In English, the words “explore” and “exploit” come loaded with completely opposite connotations. But to a computer scientist, these words have much more specific and neutral meanings. Simply put, exploration is gathering information, and explotation is using the information you have to get a known good results”

(Página 35)
“So explore when you will have time to use the resulting knowledge, exploit when you’re ready to cash in. The interval makes the estrategy.”

(Página 48-52)
Adaptative trials

(Página 54)
“when the world can change, continuing to explore can be the right choice”

(Página 56)
“More generally, our intuitions about rationality are too often informed by exploitation rather than exploration. When we talk about decision-making, we usually focus on the immediate payoff of a single decision – and if you treat every decision as if it were your last, then indeed only exploitation make sense. But over a lifetime, you’re going to make a lot of decisions. And it’s actually rational to emphasize exploration – the new rather than the best, the exciting rather than the safe, the random rather than the considered – for many choices, particularly earlier in life.”

(Página 56-57)
“But Carstensen has argued that, in fact, the elderly have fewer social relationships by choice. As she puts it, these decreases are “the resukt of lifelong selection processes by which people strategically and adaptively cultivate their social networks to maximize social and emotional gains and minimize social and emotional risks.””.

(Página 57)
“This process seems to be a deliberate choice: as people approach the end of their lives, they want to focus more on the connections that are the most meaningful”

(Página 153)
“The lesson is this: it is indeed true that including more factors in a model will always, by definition, make it a better fit for the data we have already. But a better fit for the available data does not necessarily mean a better prediction.”

(Página 155)
“So one of the deepest truths of machine learning is that, in fact, it’s not always better to use a more complex model, one that takes a greater number of factors into account. And the issue is not just that the extra factors might offer diminishing returns – performing better than a simpler model, but not enough to justify the added complexity. Rather, they might make our predictions dramatically worse”

(Página 240)
“Well, if the rules of the game force a bad strategy, maybe we shouldn’t try to change strategies. Maybe we should try to change the game.”

(Página 240)
“While game theory ask what behavior will emerge given a set of rules, mechanism design (sometimes called “reverse game theory”) works in the other direction, asking: what rules will give us the behavior we want to see?”

(Página 255)
“If changing strategies doesn’t help, you can try to change the game. And if that’s not possible, you can at least exercise some control about which games you choose to play.”

Predicting academic performance from behavioural and learning data 3 mayo 2016

Publicado por faraon en Actividades, Innovación educativa, Inteligencia artificial , añadir un comentario

Predicting academic performance from behavioural and learning data
Carlos J. Villagrá-Arnedo, Francisco J. Gallego-Durán, Patricia Compañ-Rosique, Faraón Llorens-Largo, Rafael Molina-Carmona
Departamento de Ciencia de la Computación e Inteligencia Artificial
Universidad de Alicante

Big Data 2016
Alicante, 3-5 May 2016
Wessex Institute, UK
University Miguel Hernandez, Spain
University of Alicante, Spain

The volume and quality of data, but also their relevance, are crucial when performing data analysis. In this paper, a study of the influence of different types of data is presented, particularly in the context of educational data obtained from Learning Management Systems. These systems provide a large amount of data from the student activity but they usually do not describe the results of the learning process, i.e., they describe the behaviour but not the learning results. The starting hypothesis states that complementing behavioural data with other more relevant data (regarding learning outcomes) can lead to a better analysis of the learning process, that is, in particular it is possible to early predict the student final performance. A learning platform has been specially developed to collect data not just from the usage but also related to the way students learn and progress in training activities. Data of both types are used to build a progressive predictive system for helping in the learning process. This model is based on a classifier that uses the Support Vector Machine technique. The system obtains as a result a weekly classification of each student as the probability of belonging to one of three classes: high, medium and low performance. The results show that, supplementing behavioural data with learning data allows us to obtain better predictions about the results of the students in a learning system. Moreover, it can be deduced that the use of heterogeneous data enriches the final performance of the prediction algorithms.

III Congreso de la Sociedad Española para las Ciencias del Videojuego (CoSECiVi 2016)) 6 abril 2016

Publicado por faraon en Actividades, Inteligencia artificial, Videojuegos , añadir un comentario

Tercer Congreso de la Sociedad Española para las Ciencias del Videojuego
Barcelona, 29 de Junio de 2016

## Objetivos

Tras el éxito de las dos primeras ediciones (CoSECiVi 2014 y CoSECiVi 2015) el III Congreso de la Sociedad Española para las Ciencias del Videojuego, CoSECiVi 2016, avanza en su objetivo de convertirse en el primer foro científico para el intercambio de ideas y resultados sobre el diseño, la ingeniería y la teoría de la tecnología aplicada al entretenimiento en España. Esto incluye, por una parte, trabajo en inteligencia artificial, informática gráfica, ingeniería del software o interacción persona-computador aplicados a la creación de sistemas de entretenimiento digital, y, por otra, resultados de la aplicación de las tecnologías propias del entretenimiento digital a la enseñanza, la medicina, la comunicación o el arte.

CoSECiVi busca convertirse además en un punto de encuentro entre los grupos de investigación y la comunidad profesional de desarrolladores de videojuegos, y es por ello que por segundo año consecutivo será un evento que se celebre dentro de la feria de videojuegos Gamelab, que tendrá lugar en Barcelona a partir del 29 de junio. Es posible realizar el registro conjunto a los dos eventos y participar así de estas dos visiones complementarias de la creación de videojuegos: la académica y la industrial.

Se invita a los investigadores y profesionales a enviar sus contribuciones en el campo del entretenimiento digital, tanto trabajos de investigación como desarrollos tecnológicos de aplicaciones reales relacionados con los siguientes temas:

* Aspectos culturales del diseño de videojuegos
* Arte y entretenimiento
* Computación afectiva
* Diseño de sonido interactivo
* Edutainment
* Entretenimiento ubicuo
* Exergaming
* Física para videojuegos
* Generación procedimental de contenido
* Inteligencia Artificial para videojuegos
* Informática gráfica para videojuegos
* Metodologías paradigmas y herramientas para el desarrollo de aplicaciones
de entretenimiento
* Música y sonido
* Narración interactiva
* Videojuegos y salud
* Otras aplicaciones al desarrollo de videojuegos y software de entretenimiento

## Fechas importantes

23 de mayo: envío de artículos
10 de junio: notificaciones de aceptación/rechazo
17 de junio: versión definitiva

## Información para autores

Los artículos, escritos en inglés o en castellano se enviarán en pdf, en el formato Springer LNCS (Lecture Notes in Computer Science, Los envíos se realizarán a través de la web de EasyChair

Hay cuatro tipos de contribuciones a elegir para participar en CoSECiVi 2016, de acuerdo al tipo de investigación que se esté realizando:

1. Trabajos Regulares: Trabajos que muestran resultados de investigación. Éstos pueden tener una extensión máxima de 12 páginas en formato LNCS.

2. Trabajos Emergentes: Nuevas ideas de investigación que pueden ser enriquecidas a través de la discusión con la comunidad SECiVi. Estos trabajos deberán tener una extensión máxima de 10 páginas en formato LNCS.

3. Demostración de herramientas: Esta opción está orientada a la presentación de herramientas que soporten de forma práctica las propuestas teóricas. Las propuestas de demostraciones de herramientas podrán tener una extensión máxima de 6 páginas en formato LNCS.

4. Divulgación de Trabajos Relevantes ya Publicados: Este apartado busca dar a conocer trabajos de investigación con altos índices de calidad y de especial relevancia para la comunidad SECiVi. Estas propuestas, en su versión definitiva (la que se publicará en la actas del congreso), podrán tener una extensión máxima de 6 páginas en formato LNCS, resumiendo el contenido del trabajo que pretende darse a conocer.

Los artículos se evaluarán atendiendo a su calidad técnica, originalidad, relevancia para el tema de la conferencia y claridad. Los artículos aceptados serán publicados en CEUR (, con ISBN e indexados en DBLP) y estarán disponibles en formato digital en la conferencia.

En ediciones anteriores de CoSECiVi se han publicado números especiales con versiones extendidas de una selección de los artículos escritos en inglés en las revistas International Journal of Creative Interfaces and Computer Graphics y Entertainment Computing de Elsevier, y esperamos que en esta edición ocurra lo mismo.

## Comité ejecutivo

Pedro Antonio González Calero, Universidad Complutense de Madrid

Presidente del Comité de programa:
David Camacho, Universidad Autónoma de Madrid

Presidente del Comité organizador:
Marco Antonio Gómez Martín, Universidad Complutense de Madrid

## Comité de programa

Isabel Barbancho, Universidad de Málaga
David Camacho, Universidad Autónoma de Madrid
Miguel Chover, Universidad Jaume I
Antonio J. Fernández Leiva, Universidad de Málaga
Pablo Alejandro Figueroa Forero, Universidad de los Andes, Bogotá
Marcela Genero, Universidad de Castilla-La Mancha
Pablo Gervás, Universidad Complutense de Madrid
Marco Antonio Gómez Martín, Universidad Complutense de Madrid
Pedro Antonio González Calero, Universidad Complutense de Madrid
Pascual González, Universidad de Castilla-La Mancha
Javier Jaén, Universidad Politécnica de Valencia
Faraón Llorens Largo, Universidad de Alicante
Carme Mangiron, Universitat Autònoma de Barcelona
Antonio M. Mora García, Universidad de Granada
Miguel Angel Otaduy, Universidad Rey Juan Carlos
Mateu Sbert, Universidad de Gerona

La catedral de Turing 6 marzo 2016

Publicado por faraon en Inteligencia artificial, Libros , añadir un comentario

La catedral de Turing.
Los orígenes del universo digital

George Dyson


Enlaces de interés:
TURING’S CATHEDRAL, George Dyson (Edge)
George Dyson sobre el nacimiento de la computadora (Charla TED)

Frases entresacadas e ideas interesantes que puedo utilizar:

(Página 343)
“El universo digital debe sus comienzos a los profetas del Antiguo Testamento (encabezados por Leibniz), que proporcionaron la lógica, y a los profetas del Nuevo Testamento (encabezados por Von Neumann), que construyeron las máquinas. Alan Turing surgió en medio de unos y otros.”

(Página 387)
“Cuando el universo digital se expandió, chocó con dos depósitos de información preexistentes, la información almacenada en los códigos genéticos y la información almacenada en los cerebros. La de nuestros genes resultó ser más digital, más secuencial y más lógica de lo esperado, mientras que la de nuestros cerebros resultó ser menos digital, menos secuencial y menos lógica de lo esperado.”

(Página 388)
“El cerebro es un sistema estadístico, probabilístico, con la lógica y la matemática funcionando como procesos de nivel superior. El ordenador es un sistema lógico, matemático, sobre el que posiblemente podrían construirse sistemas estadísticos, probabilísticos, de nivel superior, como el lenguaje y la inteligencia humanos.”

(Página 432)
“¿Y si el precio de las máquinas pensantes fueran personas ya incapaces de pensar sin máquinas?”

Sistema multiagente para el diseño, ejecución y seguimiento del proceso de planificación estratégica ágil en las organizaciones inteligentes 22 enero 2016

Publicado por faraon en Actividades, Inteligencia artificial , añadir un comentario

SMAPE: Sistema multiagente para el diseño, ejecución y seguimiento del proceso de planificación estratégica ágil en las organizaciones inteligentes
Juan Luis Dalmau Espert
Tesis Doctoral
Directores: Dr. Rafael Molina Carmona y Dr. Faraón Llorens Largo
Universidad de Alicante
Alicante, Enero 2016

Acceso al documento completo en RUA

Tesis_Dalmau portada

foto tesis Dalmau

Desde finales de la década de 1980 e inicio del siglo XXI han acaecido una serie de hechos que, tomados en conjunto, dibujan un nuevo panorama dentro del mundo de las organizaciones. Estos nuevos tiempos están caracterizados por la incertidumbre y la complejidad del entorno en el que éstas tienen que desarrollarse e interactuar. Bajo estas condiciones las organizaciones han visto la necesidad de cambiar su modelo y su estructura, evolucionando hacia otros modelos y estructuras que garanticen una mayor participación de los grupos implicados de la organización, que posibiliten la toma de decisiones de forma distribuida y que, además, proporcionen a la organización un incremento de la flexibilidad y de la agilidad para adaptarse rápidamente a los constantes cambios que sufre el entorno que le rodea.
El conocimiento y el aprendizaje son hoy en día las piezas fundamentales de este nuevo modelo por ser el medio clave a través del cual es posible reducir la complejidad e incertidumbre que caracteriza este entorno organizacional. Este cambio conlleva la necesidad de una revisión del resto de los procesos vinculados a la organización tradicional en aras de adaptarlos al nuevo enfoque. Entre estos procesos destacan, por su relación con el conocimiento y el empleo del mismo para la dirección estratégica, el proceso de Aprendizaje Organizacional y el de Planificación Estratégica.
En este trabajo de tesis se propone una revisión al proceso de planificación estratégica que esté en consonancia con el nuevo modelo de organización y que dé solución a la problemática actual que tienen las organizaciones para llevarlo a cabo de forma eficaz y eficiente. En esta revisión se propone un modelo que permite diseñar el proceso de planificación estratégica, ejecutarlo para obtener el plan estratégico y, posteriormente, poder realizar el seguimiento de dicho plan. Dada la vinculación e importancia que dentro del proceso de planificación estratégica tiene el proceso de aprendizaje organizacional éste es integrado también dentro del modelo. Debido a la necesidad en la actualidad de ajuste del plan estratégico por los cambios constantes en el entorno y la dificultad para hacerlo, el modelo permite el rediseño ágil y flexible del proceso de planificación estratégica para obtener nuevos planes estratégicos en periodos de tiempo más cortos, logrando así que la organización tenga una mejor sincronía con su entorno.
A nivel de diseño el modelo que se propone está basado en la tecnología multiagente y en el uso de una ontología que permite la formalización del proceso de planificación estratégica y de la información que se maneja. La combinación de ambos elementos posibilita que en la ejecución del proceso de planificación estratégica sea posible que los participantes puedan colaborar, interactuar, generar información y conocimiento que sirva para realizar cada uno de los pasos del proceso y para constituir una experiencia aprovechable para la realización de futuros procesos de planificación estratégica. Esta experiencia constituye además el elemento clave que el modelo propone que puede ser empleado para automatizar los pasos del proceso y mejorar la toma de decisiones.
En definitiva, el modelo propuesto es una solución formal, integral, ágil y flexible para llevar a cabo el proceso de planificación estratégica en las organizaciones actuales y bajo las condiciones que rodean a éstas.

Sistema predictivo progresivo de clasificación probabilística como guía para el aprendizaje 22 enero 2016

Publicado por faraon en Actividades, Innovación educativa, Inteligencia artificial , añadir un comentario

Sistema predictivo progresivo de clasificación probabilística como guía para el aprendizaje
Carlos J. Villagrá Arnedo
Tesis Doctoral
Directores: Dr. Rafael Molina Carmona y Dr. Faraón Llorens Largo
Universidad de Alicante
Alicante, Enero 2016

Acceso al documento completo en RUA

portada tesis Carlos

foto tesis Carlos

El trabajo realizado en esta tesis está basado en el desarrollo de un modelo de predicción progresiva que mejora el proceso de enseñanza-aprendizaje a través del uso de las tecnologías de la información y, en particular, de las técnicas de inteligencia artificial.
Este modelo tiene como base un sistema interactivo gamificado que gestiona las prácticas de la asignatura Matemáticas I, en las que se aprende razonamiento lógico a través de un videojuego llamado PLMan, muy similar al comecocos (PacMan). Los estudiantes acceden durante el curso a este sistema y van progresando y acumulando nota en las prácticas de la asignatura mediante la resolución de mapas del videojuego PLMan.
Los datos procedentes de la interacción de los estudiantes con el sistema gamificado se registran en una base de datos. A partir de estos, se extraen unas características representativas del estado de los estudiantes, consistentes en datos de uso del sistema y resultados de aprendizaje.
El modelo usa la técnica de Machine Learning SVM, y obtiene como resultado la clasificación semanal de los estudiantes en forma de probabilidad de que se encuentren en cada una de tres posibles clases: rendimiento alto, normal y bajo, acumulando los datos recogidos hasta la semana en curso.
Se han realizado experimentos con los datos recogidos durante el curso 2014/15, correspondientes a 336 estudiantes, obteniendo buenos resultados en cuanto a la precisión del algoritmo SVM propuesto. A continuación, se ha realizado un análisis exhaustivo de la correlación de las características empleadas con la nota final, extrayendo las que presentan una mayor relación lineal con esta última. Después, se ha realizado un nuevo experimento empleando sólo estas características seleccionadas, obteniendo unos resultados similares aunque ligeramente inferiores a los de la experiencia inicial, lo que denota que pueden existir relaciones no lineales entre las variables que la técnica SVM puede detectar.
Por último, el modelo planteado presenta los resultados obtenidos de forma que proporcionen información valiosa para profesores y estudiantes. Esta información se muestra en forma de gráficas fáciles de interpretar, constituyendo un mecanismo que permite detectar estudiantes que están en riesgo de fracasar y, en cualquier caso, permite guiarlos para que obtengan el máximo rendimiento.
En definitiva, se trata de un modelo de predicción del rendimiento del estudiante con dos aportaciones principales: clasificación en tres clases con valores de probabilidad y de forma progresiva, y la información visual en forma de gráficas, que representan un mecanismo de guía para la mejora del proceso de enseñanza-aprendizaje.

Estimating difficulty of learning activities in design stages: A novel application of Neuroevolution 18 diciembre 2015

Publicado por faraon en Actividades, Innovación educativa, Inteligencia artificial , añadir un comentario

Estimating difficulty of learning activities in design stages: A novel application of Neuroevolution
Francisco José Gallego Durán
Tesis Doctoral
Director: Dr. Faraón Llorens Largo
Universidad de Alicante
Alicante, 2015

Acceso al documento completo en RUA



In every learning or training environment, learning activities are the basis for practical learning. Learners need to practice in order to acquire new abilities and perfect those previously gained. The key for an optimized learning process is correctly assigning learning activities to learners. Each learner has specific needs depending on previous knowledge and personal skills. A correct assignment for a given learner would be selecting a learning activity that closely matches learner’s skills and knowledge. This brings up the concept of difficulty. Difficulty of a learning activity could be defined as the effort that a learner has to make to successfully complete the learning activity and obtain its associated learning outcomes. So, a difficult activity would simply require much effort to be successfully completed.
Learners presented with too difficult learning activities tend to abandon rather than performing required effort. This situation could be better understood as the learner perceiving the activity as an unbalanced invested-return ratio: too much effort for the expected learning outcomes. A similar case occurs when difficulty is too easy. In that case, effort perceived is low, but learning outcomes are perceived as even lower. If the activity does not pose a challenge for the learner is because the learner already masters the involved abilities, and that makes learning outcomes tend to zero. Both situations drive learners to losing interest.
To prevent this from happening, teachers and trainers estimate difficulties of learning activities based on their own experience. However, this procedure suffers an effect called the Curse of Knowledge: every person that masters an activity, becomes biased for estimating the effort required to master that same activity. Therefore, correctly estimating difficulties of learning activities is an error-prone task when expert-knowledge is used to estimate them. But estimating difficulty without carrying out the learning activity would probably yield even worse results.
In order to escape from this error-prone cycle, the first solution would be to measure the effort involved in successfully completing the learning activity. For that purpose, an objective effort measurement should be defined. This approach has been followed by many previous works and it is the general approach in the field of Learning Analytics. Although this approach yields many types of considerable results, it has an important drawback. It is impossible to have a measure without learners performing the learning activity. Therefore, at design stages of the learning activity, how does the designer know whether the activity is too hard/too easy? Is there a way to have an valid estimation of difficulty of a learning activity before handing it to learners?
This work proposes a new approach to tackle this problem. The approach consists in training a Machine Learning algorithm and measure the “effort” the algorithm requires to find successful solutions to learning activities. The “effort” will be the learning cost: the time the algorithm requires for training. After that, results obtained from training the Machine Learning algorithm will be compared to results measured from actual learners. Under the assumption that learning costs for Machine Learning algorithms and those for learners have some kind of correlation, results from comparing them should show that correlation. If that were the case, then the learning cost that Machine Learning algorithms invest in training could be used as an estimation of the difficulty of the learning activity for learners.
In order to implement this approach and to obtain experimental data, two Neuroevolution algorithms have been selected for the Machine Learning part: Neuroevolution of Augmenting Topologies (NEAT) and Hypercube-based Neuroevolution of Augmenting Topologies (HyperNEAT).
Implementing this proposed approach has yielded several contributions that are presented in this work:
• A new definition of difficulty as a function, based on the progress made over time as an inverse measure of the effort/learning cost.
• A similarity measure to compare Machine Learning results to those of learners and know the accuracy of the estimation.
• A game called PLMan that is used as learning activity in the exper- iments. It is a Pacman-like game composed of up to 220 different mazes, that is used to teach Prolog programming, Logics and a light introduction to Artificial Intelligence.
• An application of NEAT and HyperNEAT to learn to automatically solve PLMan mazes.
• A novel application of Neuroevolution to estimate difficulty of learning activities at design stages.
Experimental results confirm that there exists a correlation between learning costs of Neuroevolution and those of students. Goodness of the presented results is limited by the scope of this study and its empirical nature. Nevertheless, they are greatly significant and may open up a new line of research on the relation between Machine Learning and humans with respect to the process of learning itself.

Applying Neuroevolution to Estimate the Difficulty of Learning Activities 11 noviembre 2015

Publicado por faraon en Actividades, Inteligencia artificial , añadir un comentario

Applying Neuroevolution to Estimate the Difficulty of Learning Activities
Francisco J. Gallego-Durán , Carlos J. Villagrá-Arnedo, Rafael Molina-Carmona, Faraón Llorens-Largo
Departamento de Ciencia de la Computación e Inteligencia Artificial
Universidad de Alicante

16th Conference of the Spanish Association for Artificial Intelligence (CAEPIA 2015)
November 9–12, 2015, Albacete, Spain
Acceso a las Actas

Learning practical abilities through exercises is a key aspect of any educational environment. To optimize learning, exercise difficulty should match abilities of the learner so that the exercises are neither so easy to bore learners nor so difficult to discourage them. The process of assigning a level of difficulty to an exercise is traditionally manual, so it is subject to teachers’ bias. Our hypothesis is about the possibility of establishing a relation between human and machine learning. In other words, we wonder if exercises that are difficult to be solved by a person are also difficult to be solved by the computer, and vice versa.
To try to bring some light to this problem we have used a game for learning Computational Logic, to build neuroevolutionary algorithms to estimate exercise difficulty at the moment of exercise creation, without previous user data. The method is based on measuring the computational cost that neuroevolutionary algorithms take to find a solution and establishing similarities with previously gathered information from learners.
Results show that there is a high degree of similarity between learner difficulty to solve different exercises and neuroevolutionary algorithms performance, suggesting that the approach is valid.