. Résultats, . Td, . Tp, and . .. Test, , p.144

.. .. Bilan,

.. .. Conclusion,

, Partie V Conclusion 148

, Chapitre 7 Conclusion Générale 150

. .. Bilan-des-contributions,

.. .. Apports,

, Apports à l'éducation numérique

. .. Limites,

. .. Perspectives, 155 7.5.1 Situation d'apprentissage composée

.. .. Publications,

, Bibliographies 159

. Règles-d'inférences-2, RDFS : extension du RDF par les constructeurs définis dans la section 5

, OWLSIF : OWL avec la sémantique de IF « IF Semantic », le vocabulaire et la sémantique proposés pour RDF

, RDFS++ : une extension minimale à RDFS qui est RDFS plus « owl :sameAs et owl :In-verseFunctionalProperty

, OWLPrime : Un sous-ensemble du langage OWL défini par Oracle comme éléments du standard OWL pris en charge par le moteur d'inférence natif « Oracle Database semantic technologies ». Les capacités d'OWL sont : ? Notions de base : classe, sous-classe

, ? Caractéristiques de la propriété : transitive, symétrique, fonctionnelle, inverse fonctionnelle, inverse

, ? Comparaisons de classes : équivalence, disjonction

, ? Comparaisons de propriétés : équivalence

, ? Comparaisons individuelles : identiques, différentes

, ? Expressions de classe : complément

, ? Restrictions de propriété : hasValue, someValuesFrom, allValuesFrom

, Règles d'inférence métiers Nous avons défini des règles d'inférence métiers liées à notre domaine d'application qui est l'adaptation, Ces règles sont les suivantes

, ? La règle « LearnerFailedSituation » à base de la note obtenue : permet d'obtenir la liste des apprenants qui ont échoué dans une situation d'apprentissage

E. Sem_apis and . Create_rulebase,

, INSERT INTO mdsys.semr_learnerFailedSituation_rb

, VALUES('failing_rule', 5. '(?lObj1 rdf:type os:Learner)(?sObj2 rdf:type os:Situation)(?sObj2 os:hasFixedMark ?fMark)(?lObj1 os: doSituation ?sObj2)(?lObj os:hasMark ?mark)', 7. '(fMark = 5)and (mark < 5)', 8. '(?lObj1 os:LearnerFailedSituation ?sObj2

. Sem_aliases(sem_alias,

, Code 5.3.1 -Création de la règle échec d'apprenant

, Le filtre dans la ligne (7) permet de limiter le sous-graphe défini par la partie conditionnelle. Ligne (8) représente la conséquence de l'application de la règle. Enfin, la ligne (9) précise l'espace de noms utilisé pour la règle créée. Dans cette règle, le paramètre (fMark = 5) représente la note optimale fixée par l'enseignant ou l'expert pour une situation donnée. La valeur de l'expression logique (mark < 5) représente la note obtenue par l'apprenant et qui est inférieure à la note optimale. Cette condition cible les apprenants qui ont échoué dans l'activité, Cela permet dans la ligne

, Dans le chapitre 4, nous avons défini trois traces sur lesquelles nous avons fondé notre modèle d'adaptation de la ressource et/ou de la situation d'apprentissage aux l'apprenants. Ces traces sont : ? la trace temporelle

, ? la trace de tentatives (le nombre d'essais fait par un apprenant pour résoudre un problème)

, ? la combinaison des deux traces temporelle et de tentatives, la note obtenue à base des deux traces

, nous avons défini dans l'ontologie « eadaptOnto » les propriétés essentielles à notre modèle d'adaptation comme l'illustre le Code 5.3.2. Le détail des différents éléments de l'ontologie en termes de classes

. Règles-d&apos;inférences,

E. Sem_apis and . Create_rulebase,

, INSERT INTO mdsys.semr_adaptedSituation_rb 4. VALUES('learnerGoadaptedSituation_rule', 5. '(?lObj1 rdf:type os:Learner)(?sObj3 rdf:type os:Lecture)(?sObj3 os:doneByLearner ?lObj1)(?lObj1 os: hasMarkTrace ?mark)', 6. '(mark <5, vol.7

. Sem_aliases(sem_alias,

, Code 5.3.4 -Création de la règle learnerGoadaptedSituation_rule

. Règles-d&apos;inférences,

E. Sem_apis and . Create_rulebase,

, INSERT INTO mdsys.semr_adaptedRessource_rb 4. VALUES('learnerGoadaptedRessource_rule', 5. '(?lObj1 rdf:type os:Learner)(?sObj2 rdf:type os:Lecture)(?rObj3 rdf:type os:CoursRessource)(?rObj4 rdf: type os:TdRessource)(?sObj2 os:useResource ?rObj3)(?lObj1 os:doSituation ?sObj2)(?lObj1 os:hasMark ?mark) ', 6. '(mark = 5, vol.7

. Sem_aliases(sem_alias,

, Les différentes relations qui portent sur l'apprenant, la situation, la ressource consommée dans une situation et la note sont illustrées par la ligne (5). Le filtrage des données d'inférences est assurée par la condition exprimée sur la notation comme le montre la ligne (6), La relation déduite dans la ligne

, Adaptation de la ressource basée sur la note, la durée et le nombre de tentatives Dans cette sous-section, nous avons combiné trois données, à savoir : la note

E. Sem_apis and . Create_rulebase,

, INSERT INTO mdsys.semr_adaptedSituationAndRessource_rb

, VALUES('learnerGoadaptedSituationRessource_rule', 5. '(?lObj1 rdf:type os:Learner)(?sObj2 rdf:type os:DirectedWork)(?rObj3 rdf:type os:SimpleSelectiontd)(?sObj3 rdf:type os:Lecture)(?rObj4 rdf:type os:SimpleSelectioncours)(?sObj3 os:useResource ?rObj4)(?sObj2 os: useResource ?rObj3)(?lObj1 os:doSituation ?sObj2)(?lObj1 os:hasMark ?mark)(?lObj1 os:hasDuration ?duration )(?lObj1 os:hasAttempts ?attempts)', 6. '(mark < 5)and(duration >50)and(attempts > 3)', 7. '(?lObj1 os:learnerGoadaptedSituation ?sObj3)(?lObj1 os:learnerGoadaptedRessource ?rObj4)', 8.SEM_ALIASES(SEM_ALIAS('os

. Execute-sem_api, CREATE_ENTAILMENT( 2. 'eadaptOnto_idx', 3 sem_models

, OWLPRIME', 5. 'adaptedSituation_rb', 6

. Sem_apis, . Reach_closure, &. Null, and . User_rules=t,

, ) et (2) créent un index d'inférence nommé « eadaptOnto_idx ». La ligne (3) précise le modèle ontologique utilisé dans le processus d'inférence. Les lignes (5, 6, 7) représentent les bases de règles utilisées pour l'inférence. OWLPrime garantit la mise en correspondance de l'ontologie avec les différentes bases de règles. La ligne (8) précise les caractéristiques suivantes de l'index d'inférence : ? paramètre 1 : le nombre de tours que le moteur d'inférence doit exécuter, REACH_CLOSURE, issue.1

, ? paramètre 2 : représente les composants d'inférence, la valeur par défaut est NULL

, ? paramètre 3 : « USER_RULES=T » cette option est requise lors de l'application de règles définies par l'utilisateur

, L'interrogation de la base de données ontologique dans Oracle est assurée par la procédure « SEM_MATCH » comme détaillé dans le Code 5.3.8. La description des paramètres est comme suit : ? query : un ou plusieurs modèles de triplets

, ? models : un ou plusieurs noms de modèles à interroger

, ? rulebases : un ou plusieurs noms de base de règles créées par l'utilisateur ou natives à Oracle

, ? aliases SEM_ALIASES : une ou plusieurs ontologies à utiliser

, ? filter : tout critère de sélection supplémentaire

, ? index_status : index de base de règles, qui peut avoir trois statuts, à savoir, valide

S. ?-graphs, named_grahps : l'interrogation peut porter sur différents graphes identifiés par leurs noms

, rulebases SEM_RULEBASES, 5. aliases SEM_ALIASES, 6. filter VARCHAR2, 7. index_status VARCHAR2, 8. options VARCHAR2, 9. graphs SEM_GRAPHS

, Code 5.3.8 -Définition de la procédure SEM_MATCH

, Nous avons formulé une requête (5.3.10) pour interroger les données inférées en se basant sur la base de règle « adaptedSituationAndRessource_rb

, Trouver la situation et la ressource adaptée àl'apprenant qui a accompli un TD en utilisant une ressource sur la simple selection dans SQL et qu'il ne l'a pas réussie en produisant les traces suivantes: note < 5, durée > 30 minutes

, Code 5.3.9 -Définition de la procédure SEM_MATCH

, Learner, SELECT lObj1

, FROM TABLE(SEM_MATCH( 3. '(?lObj1 :learnerGoadaptedSituation ?sObj3)(?lObj1 :learnerGoadaptedRessource ?rObj4)(?lObj1 rdf:type : Learner)

. Sem_models,

. Sem_rulebases,

. Sem_aliases(sem_alias,

E. Sem_apis and . Create_rulebase,

, INSERT INTO mdsys.semr_adaptedSituation_rb 3. VALUES('courseAdaptedSituation_rule', '(?lObj1 rdf:type os:Learner)(?sObj3 rdf:type os:Lecture)(?lObj1 os:doSituation ?sObj3)(?lObj1 os:hasMark ?mark )(?lObj1 os:hasAttempts ?attempts)'

. Sem_aliases(sem_alias,

, Code 6.4.1 -Création de la règle à base de tentative

, APPRENTISSAGE AVEC UNE SCÉNARISATION ADAPTÉE cas de l'adaptation de l'apprentissage par rapport à l'apprentissage classique. Ce qui indique une amélioration de l'acquisition pédagogique du groupe en plus de l'homogénéisation de son niveau, EXPÉRIMENTATION, issue.2

, La règle ?? présente l'adaptation de la situation d'apprentissage basée sur la trace temporelle, en cas d'échec de l'apprenant dans la situation actuelle

E. Sem_apis and . Create_rulebase,

, INSERT INTO mdsys.semr_adaptedSituation_rb 3. VALUES('courseAdaptedSituation_rule', '(?lObj1 rdf:type os:Learner)(?sObj3 rdf:type os:Lecture)(?lObj1 os:doSituation ?sObj3)(?lObj1 os:hasMark ?mark )(?lObj1 os:hasDuration ?duration)'

. Sem_aliases(sem_alias,

, Code 6.4.2 -Création de la règle à base de la durée d'interaction

A. Avec and . Scénarisation-adaptée, EXPÉRIMENTATION, issue.2

E. Sem_apis and . Create_rulebase, AttemptsDurationAdaptedResource_rb')

, INSERT INTO mdsys.semr_AttemptsDurationAdaptedResource_rb 3. VALUES('courseAdaptedResource_rule', '(?lObj1 rdf:type os:Learner)(?sObj2 rdf:type os:Situation)(?rObj3 rdf:type os:Ressource)(?lObj1 os: doSituation ?sObj2)(?lObj1 os:exploitResource ?rObj3)(?lObj1 os:hasMark ?mark) (?lObj1 os:hasDuration ? duration)(?lObj1 os:hasAttempts ?attempts)'

. Sem_aliases(sem_alias,

, Nous appliquons par la suite les règles d'adaptation des situations d'apprentissage comme suit : Règle d'adaptation de la situation d'apprentissage à base de la combinaison des deux traces (cas d'échec de l

E. Sem_apis and . Create_rulebase, AttemptsDurationAdaptedSituation_rb')

, INSERT INTO mdsys.AttemptsDurationAdaptedSituation_rb 3. VALUES('courseAdaptedSituation_rule', '(?lObj1 rdf:type os:Learner)(?sObj3 rdf:type os:Lecture)(?lObj1 os:doSituation ?sObj3)(?lObj1 os:hasMark ?mark )(?lObj1 os:hasDuration ?duration)(?lObj1 os:hasAttempts ?attempts)', 4. '(mark < 5)and(duration >50)and(attempts > 3

. Sem_aliases(sem_alias,

E. Sem_apis and . Create_rulebase,

, INSERT INTO mdsys.semr_noteAdaptedSituation_rb 3. VALUES('DWadaptedSituation_rule', 4. '(?lObj1 rdf:type os:Learner)(?sObj3 rdf:type os:Lecture)(?sObj4 rdf:type os:DirectedWork)(?rObj4 rdf:type os:Ressource)(?sObj4 os:useResource ?rObj4)(?lObj1 os:doSituation ?sObj3)(?lObj1 os:hasMark ?mark)(?lObj1 os:hasDuration ?duration)(?lObj1 os:hasAttempts ?attempts)', 5. '(mark = 5)and

. Sem_aliases(sem_alias,

, Création de la partie impérative de la règle learnerSuccesGoNextSituation Selon les statistiques de la Table 6.11 et la figure 6.9, nous remarquons que la note minimale obtenue a augmenté de 81, 5%, la moyenne du groupe a augmenté de plus de 16, 30% et l'écart-type a baissé de 51

, APPRENTISSAGE AVEC UNE SCÉNARISATION ADAPTÉE 6.10.1 Résultats de TD 6, EXPÉRIMENTATION, vol.10, issue.2

, Résultats de moyennes générales FIGURE 6.10 -Comparaison des résultats TD, TP, Test et moyenne générale du groupe avec et sans adaptation. Par ailleurs, il est aussi nécessaire de généraliser les résultats obtenus à travers de tests effectués sur un plus grand nombre d'étudiants

, Conclusion Ce chapitre présente l'évaluation et la validation de nos modèles d'évaluation et le processus

, Le chapitre 5 est dédié à l'implémentation de notre modèle d'évaluation et d'adaptation comme preuve de concept dans une ontologie à base de règles d'inférences. Enfin, le chapitre 6 présente l'évaluation et la validation des contributions au travers des expérimentations de nos approches d'évaluation de l'apprenant et de l'adaptation de la ressource et de la situation d'apprentissage sur une population d

, Ces dernières sont observées, collectées, analysées et modélisées sous forme de mtrace par un système à base de trace (SBT). Le modèle de trace que nous avons défini est à base des deux traces, à savoir, Quelles traces utilisons-nous ? Quel modèle de traces utilisons-nous ? Quelles données de traces sont-elles utiles à nos approches proposées ? À partir des

, Ce processus prend en considération l'exécution d'une ou de plusieurs situations conçues par le concepteur. À la fin de l'exécution de la situation, l'apprenant est évalué par un des modèles d'évaluation que nous avons proposés. En se basant sur sa performance en acquisition et ses résultats obtenus, le système peut lui proposé la prochaine situation adaptée à son niveau et à ses objectifs à atteindre, Nous avons proposé un processus de notation de l'apprenant dans un système de STI et nous avons décrit les différents aspects pour la mise en oeuvre de ce processus

, Après l'état de l'art effectué sur les modèles d'évaluation existants, nous avons développé un processus de notation qui prend en considération les caractéristiques dynamiques d'un profil apprenant. Il se base sur les étapes suivantes

. Bilan-des, . Et, L. A. De, and . Thèse,

, ? observation des événements et traçage des interactions et actions de l'apprenant

, ? collecte, analyse et modélisation des traces

, ? évaluation de la réponse

, ? notation de l'apprenant

, ? adaptation de la ressource et/ou la situation d'apprentissage pour l'apprenant

, Nous avons proposé des modèles d'évaluation basés sur des fonctions de notation quantitatives qui exploitent les traces produites par un apprenant durant une situation d'apprentissage

, Le système suit trois logiques avant, pendant et après l'exécution d'une situation d'apprentissage

, Avant l'exécution de la situation : nous avons proposé un paramétrage de la situation d'apprentissage par le concepteur ou l'expert du domaine en fixant la note complète, la durée optimale et le nombre d'essais autorisés pour qu'un apprenant peu résoudre un problème donné. D'autres paramètres d'atténuation ont été proposés pour indiquer le niveau de difficulté de la ressource utilisée par l'apprenant. L'intérêt de ce paramétrage est l'attribution d'une ressource

, Pendant l'exécution d'une situation : la logique d'observation de l'activité est illustrée comme suit : ? nous avons rattaché pour chaque événement un observateur qui nous permet de tracer toutes les interactions et actions pendant l

, Ces dernières sont modélisées sous forme d'un modèle de trace (m-trace) adapté qui alimente nos modèles d'évaluation par la suite, ? les traces produites sont collectées, analysées et enregistrées dans un système à base de traces (SBT)

, ? la réponse de l'apprenant est vérifiée si elle est correcte ou fausse

, Après l'exécution d'une situation : processus d'évaluation et d'adaptation en se basant sur les traces produites est décrit par les étapes suivantes

, ? la notation du travail de l'apprenant est basée sur nos modèles d'évaluation à base de traces

, ? à travers les résultats obtenus par l'apprenant nous pouvons déduire l'évolution en termes d'acquisition de connaissances en lui attribuant une ressource et/ou situation adaptée à son niveau de

, APPORTS EXPÉRIMENTAUX des stratégies de formation et des ressources à chaque sujet, selon ses résultats et ses besoins. En conséquent, nos contributions représentent une brique fondamentale aux attentes de l'éducation sur le numérique, à la fois en termes d'évaluations traçables et de différenciations basées sur des nécessités spécifiques

, Limites Les recherches que nous avons menées dans cette thèse ont certaines limites et inconvénients. Ci-dessous, nous énumérons les plus importantes identifiées dans nos modèles d'éva

. ?-l&apos;, inconvénient principal de nos modèles d'évaluation à base de traces consiste dans la difficulté de calculer les paramètres d'atténuation car ils sont fixés par un formateur ou un expert de formation

. Par, évaluer ces paramètres nécessite d'avoir une expertise externe dans le domaine pour prévoir la possibilité de régler ces paramètres en fonction des apprenants

, Limites de notre système d'adaptation de la ressource et la stratégie d'apprentissage

, ? La méthode d'adaptation nécessite une construction et un maintien de la base de connaissances (ontologie) qui doit être validée par les experts du domaine

. ?-l&apos;, algorithme de raisonnement nécessite d'interagir avec une base de données de traces et une ontologie, ce qui impose une mise à jour permanente de ces dernières

, Perspectives Les limites révèlent des perspectives pour les travaux futurs

. Long-terme, les perspectives concernent la poursuite de nos travaux de recherche dans le domaine de l'évaluation de l'apprenant et de l'adaptation pédagogique dans d'autres contextes d'application, ce qui suit, nous décrivons quelques pistes intéressantes à nos travaux de

, Nous proposons le test et la simulation de notre processus d'évaluation de l'apprenant et le processus d'adaptation sur une situation composée d'une ou de plusieurs situations élémentaires. Le test sur ce type complexe de situation peut révéler d'autres paramètres cachés de la situation d'apprentissage à prendre en considération

T. Dans-cette, nous avons proposé l'évaluation et l'adaptation individualisée suivant la performance d'acquisition de l'apprenant durant une situation d'apprentissage. Dans le cas d'un travail collaboratif ou un travail de groupe, comment évaluons-nous : en groupe ou individuellement ? comment adaptons-nous les ressources et les situations ? notre système d'évaluation et d'adaptation doit prendre en considération d'autres traces d'apprentissage comme le nombre d'apprenants impliqués dans une situation d'apprentissage, le temps de passivité ou d'activité de chaque apprenant

, Pré-construction du profil apprenant Avant l'exécution de l'application, notre système nécessite un profil d'apprenant déjà construit ou un certain nombre de sessions pour qu'il puisse lui attribuer une situation d'apprentissage adaptée suivant son niveau actuel. Nous pouvons améliorer les performances de notre système en proposant l'établissement d'un pré-test

, Usage Tracking Langage) avec les traces permet d'avoir une couche sémantique pour les observations des événements, interactions et actions. Avec des règles d'analyses de cette couche, nous pouvons détecter les profils similaires, Une combinaison des outils d'UTL

, Un processus d'explication associé à notre processus de notation et d'adaptation pourrait être utile à l'apprenant pour connaître exactement ses faiblesses ; en se focalisant dessus, il peut améliorer son niveau de connaissance par l'exécution de la ressource ou la situation adaptée

, Publications Nos travaux de recherches ont produit les publications scientifiques internationales suivantes : 1. Contributions à l'évaluation des plateformes d'e-Learning

. ?-conférence-internationale-;-chachoua, CSEDU 2016 (International Conference on Computer Supported Education, 2016.

. ?-chapitre-de-livre, Communications in Computer and Information Science, vol.739, 2017.

, Contribution à l'évaluation de l'apprenant fondée sur les traces d'apprentissage : ? Conférence internationale : CSEDU 2016 (International Conference on Computer Supported Education, 2016.

, Contribution à l'adaptation de la ressource et la stratégie d'apprentissage à base des traces d'apprentissage : ? Conférence internationale : ICCE 2016 (International Conference on Computers in Education, 2016.

, Contribution sur les systèmes d'apprentissage POLARISQL

. ?-conférence-internationale, ITS 2016 (Intelligent Tutoring Systems : 13th International Conference, 2016.

, Training and learning architecture (tla) : Experience api (xapi), 2014.

. Dl-acm, Association for computing machinery (acm) digital library, 2005.

A. Abayomi, A. Adenowo, A. Basirat, and . Adenowo, Intelligent tutoring system authoring tools : the design characteristics, International Journal of Technology Enhanced Learning, vol.8, issue.2, pp.114-128, 2016.

B. Aduna and A. L. Sirma, Chapter 6. the serql query language (revision 1.2). user guide for sesame, 2005.

A. Mario, K. Katrin, and R. Daniel, E-assessment as a service. Learning Technologies, IEEE Transactions on, vol.4, issue.2, pp.162-174, 2011.

A. Mario, P. Michael, and R. Dietmar, EduComponents : Experiences in e-assessment in computer science education, vol.38, 2006.

A. Mario, P. Michael, and R. Dietmar, educomponents : a componentbased e-learning environment, ACM SIGCSE Bulletin, vol.39, issue.3, pp.352-352, 2007.

R. John, . Anderson, T. Albert, . Corbett, R. Kenneth et al., Cognitive tutors : Lessons learned. The journal of the learning sciences, vol.4, pp.167-207, 1995.

R. John, . Anderson, J. Christian, and . Lebiere, The atomic components of thought, 2014.

H. James and . Andrews, Testing using log file analysis : tools, methods, and issues, Proceedings. 13th IEEE International Conference on, pp.157-166, 1998.

A. Ivon, B. Park, and W. , Inferring learning and attitudes from a bayesian network of log file data, AIED, pp.33-40, 2005.

A. Yigal, Reliability-based feature weighting for automated essay scoring, Applied Psychological Measurement, vol.39, issue.4, pp.303-313, 2015.

A. Walailak and M. Bart, An application of the analytical hierarchy process to international location decision-making, Gregory, Mike, Proceedings of The 7th

, Annual Cambridge International Manufacturing Symposium : Restructuring Global Manufacturing, pp.1-18, 2002.

C. Peter and . Austin, An introduction to propensity score methods for reducing the effects of confounding in observational studies, Multivariate behavioral research, vol.46, issue.3, pp.399-424, 2011.

R. Shaun, B. Albert, T. Corbett, R. Kenneth, and . Koedinger, Detecting student misuse of intelligent tutoring systems, International conference on intelligent tutoring systems, pp.531-540, 2004.

R. Shaun, B. , P. Salvador, and I. , Educational data mining and learning analytics, Learning analytics, pp.61-75, 2014.

B. Du?an, B. Zorica, M. Aleksandar, J. Branislav, and R. Bo?idar, Developing adaptive e-learning portal in higher education, Toulon-Verona Conference Excellence in Services, 2015.

E. Joseph, . Beck, and G. Yue, Wheel-spinning : Students who fail to master a skill, International Conference on Artificial Intelligence in Education, pp.431-440, 2013.

B. Yoav, D. Stefan, K. Gerd, R. Saif, D. Seaton et al., Model-based collaborative filtering analysis of student response data : Machine-learning item response theory. International Educational Data Mining Society, 2012.

B. Nabila and B. Ladjel, A variety-sensitive etl processes, International Conference on Database and Expert Systems Applications, pp.201-216, 2017.

B. Emmanuelle, Efficacité de l'e-learning en contexte d'entreprise : le rôle de l'environnement d'apprentissage. Systèmes d'Information et Management, vol.12, p.3, 2007.

B. John and . Biggs, Teaching for quality learning at university : What the student does, 2011.

J. Robert and . Blake, The use of technology for second language distance learning, The Modern Language Journal, vol.93, issue.s1, pp.822-835, 2009.

T. Made and . Bloom&apos;s, Bloom's taxonomy of educational objectives, 1965.

C. Boston, The concept of formative assessment. eric digest, 2002.

J. Kevin, . Boudreau, R. Karim, and . Lakhani, Using the crowd as an innovation partner, Harvard business review, vol.91, issue.4, pp.60-69, 2013.

B. Ilyes, J. Stéphane, A. Idir, and B. Ladjel, The role of user requirements in data repository design, International journal on software tools for technology transfer, vol.20, issue.1, pp.19-34, 2018.

B. Colleen, W. Andrew, M. Macdonell, and N. Mark, Argonne National Lab.(ANL), 2017.

C. Brew and L. Claudia, Automated short answer scoring. Handbook of automated essay evaluation : Current applications and new directions, vol.136, 2013.

P. Brim and B. Michel, A taxonomy and evaluation of formalisms for the specification of interactive systems, People and computers X : Proceedings of the HCI'95 conference, p.197, 1995.

B. Christopher, C. Omar, J. T. Stephanie, and T. , Reducing selection bias in quasi-experimental educational studies, Proceedings of the fifth international conference on learning analytics and knowledge, pp.295-299, 2015.

J. M. Bruce and . Bruce, Distance education : a learner-centered paradigm. Clinical laboratory science : journal of the American Society for, Medical Technology, vol.7, issue.3, pp.178-182, 1993.

B. Peter, Adaptive hypermedia : From intelligent tutoring systems to web-based education, Intelligent tutoring systems, pp.1-7, 2000.

B. Peter, Adaptive hypermedia. Modeling and User-Adapted Interaction, vol.11, pp.87-110, 2001.

B. Peter, Adaptive hypermedia for education and training. Adaptive technologies for training and education, vol.46, 2012.

B. Peter, Adaptive and intelligent technologies for web-based eduction, vol.13, pp.19-25, 1999.

B. Peter, E. John, and S. Elmar, Web-based education for all : a tool for development adaptive courseware. Computer Networks and ISDN Systems, vol.30, pp.291-300, 1998.

B. Peter and P. Christoph, Adaptive and intelligent web-based educational systems, International Journal of Artificial Intelligence in Education (IJAIED), vol.13, pp.159-172, 2003.

B. Daniel, T. Colin, and K. Rob, How to represent adaptation in elearning with ims learning design, Interactive Learning Environments, vol.15, issue.2, pp.161-170, 2007.

B. Jill, C. Martin, and L. Claudia, Criterionsm online essay evaluation : An application for automated evaluation of student essays, IAAI, pp.3-10, 2003.

B. Jill, L. Claudia, and S. Richard, Automated evaluation of essays and short answers, 2001.

C. Andrew, . Butler, D. Jeffrey, . Karpicke, L. Henry et al., Correcting a metacognitive error : feedback increases retention of low-confidence correct responses, Journal of Experimental Psychology : Learning, Memory, and Cognition, vol.34, issue.4, p.918, 2008.

B. Brian and . Screener, , 2003.

C. Diego, D. E. Giuseppe, . Giacomo, L. Domenico, L. Maurizio et al., Tractable reasoning and efficient query answering in description logics : The dl-lite family, Journal of Automated reasoning, vol.39, issue.3, pp.385-429, 2007.

C. Marie-françoise, O. Sirinya, P. André, and S. Florence, Enrichissement du profil utilisateur à partir de son réseau social dans un contexte dynamique : application d'une méthode de pondération temporelle, 2015.

C. Marie-françoise, O. Sirinya, P. André, and S. Florence, Construction du profil social de l'utilisateur dans un contexte dynamique : application d'une méthode de pondération temporelle, vol.21, pp.65-94, 2016.

R. Jaime and . Carbonell, Ai in cai : An artificial-intelligence approach to computer-assisted instruction, IEEE transactions on man-machine systems, vol.11, issue.4, pp.190-202, 1970.

C. Zulma, F. Javier, and L. , Modelado del estudiante en sistemas tutores inteligentes. TE & ET, 2010.

C. Soraya, M. Jamal, and E. Pascal, Polarisql : An online tutoring system for learning sql language, Intelligent Tutoring Systems : 13th International Conference, ITS 2016, vol.9684, p.467, 2016.

C. Soraya and T. Nouredine, Hybrid ranking method for e-learning platform selection : A flexible approach, International Conference on Computer Supported Education, pp.214-236, 2016.

C. Soraya, T. Nouredine, J. Malki, and . Pascal, ESTRAILLIER : e-learning platform ranking method using a symbolic approach based on preference relations, Proceedings of the 8th International Conference on Computer Supported Education, pp.114-122, 2016.

C. Soraya, T. Nouredine, M. Jamal, and E. Pascal, Towards a trace-based adaptation model in e-learning systems, Proceedings of the 24th International Conference on Computers in Education. India : Asia-Pacific Society for Computers in Education, ICCE 2016, 2016.

C. Soraya, T. Nouredine, M. Jamal, and E. Pascal, Towards a trace-based evaluation model for knowledge acquisition and training resource adaption, Proceedings of the 8th International Conference on Computer Supported Education, pp.121-128, 2016.

C. Hsuan-pu, C. , W. , K. Han, J. Et-timothy et al., Scorm sequencing testing for sequencing control mode, Advanced Information Networking and Applications, 2006. AINA 2006. 20th International Conference on, vol.2, p.5, 2006.

C. Suming, C. Arthur, and D. Adnan, Computer adaptive testing using the samedecision probability, Proceedings of the Twelfth UAI Conference on Bayesian Modeling Applications Workshop, vol.1565, pp.34-43, 2015.

C. Murray, E. Chong, S. Das, V. Kolovski, M. Perry et al., Oracle database semantic technologies developer's guide, 11g release 2 (11.2), 2013.

C. Liviu, Z. Cristian, B. Stefan, C. Vitaly, and C. George, Cloud9 : A software testing service, ACM SIGOPS Operating Systems Review, vol.43, issue.4, pp.5-10, 2010.

A. Cheryl, . Cisero, M. James, H. G. Royer, . Marchant-iii et al., Can the computer-based academic assessment system (caas) be used to diagnose reading disability in college students, Journal of Educational Psychology, vol.89, issue.4, p.599, 1997.

C. Jacob, Statistical power analysis for the behavioral sciences (rev, 1977.

C. Cristina, G. Abigail, and V. Kurt, Using bayesian networks to manage uncertainty in student modeling, User modeling and user-adapted interaction, vol.12, issue.4, pp.371-417, 2002.

C. Cristina and Z. Xiaohong, Building and evaluating an intelligent pedagogical agent to improve the effectiveness of an educational game, Proceedings of the 9th international conference on Intelligent user interfaces, pp.6-13, 2004.

C. William, Large-scale assessment, locally-developed measures, and automated scoring of essays : Fishing for red herrings ? Assessing Writing, vol.18, pp.100-108, 2013.

C. Ricardo, M. Eva, J. Luis-pérez-de-la, C. Mónica, and T. , Modelado del alumno : un enfoque bayesiano. Inteligencia Artificial, Revista Iberoamericana de Inteligencia Artificial, vol.5, issue.12, 2001.

G. Crisp, Interactive e-assessment : moving beyond multiple-choice questions. Centre for Learning and Professional Development, vol.3, pp.12-31, 2009.

J. Terence and . Crooks, The impact of classroom evaluation practices on students, Review of educational research, vol.58, issue.4, pp.438-481, 1988.

D. Souripriya and S. Jagannathan, Database technologies for rdf, Reasoning Web International Summer School, pp.205-221, 2009.

D. Jovan, D. Predrag, and ?. Veis, Evolution of e-learning. Learning, p.4, 2010.

P. Da?i?, V. Nedeff, and S. ?ehovi?, Adaptive hypermedia systems in e-learning. Journal of Modelling and Optimization in the Machines Building Fields (MOCM), vol.13, pp.384-395, 2007.

D. Predrag, D. Jovan, C. Bojan, and ?. Veis, A review of intelligent tutoring systems in e-learning, 2016.

D. Semire, An overview of automated scoring of essays, The Journal of Technology, Learning and Assessment, vol.5, issue.1, 2006.

D. Tarek, L. Sofiane, S. Yannick, P. Christophe, R. Et-alain et al., Un système à base de traces pour la modélisation et l'élaboration d'indicateurs d'activités éducatives individuelles et collectives. mise à l'épreuve sur moodle

. Moodle, , 2010.

D. John, A. Katherine, . Rawson, J. Elizabeth, . Marsh et al., Improving students' learning with effective learning techniques : Promising BIBLIOGRAPHIES 165 directions from cognitive and educational psychology, Psychological Science in the Public Interest, vol.14, issue.1, pp.4-58, 2013.

E. Wenger, Artificial intelligence and tutoring systems, 1987.
URL : https://hal.archives-ouvertes.fr/hal-00703016

M. Richard, . Felder, K. Linda, and . Silverman, , vol.78, pp.674-681, 1988.

M. Richard, J. Felder, and . Spurlin, Applications, reliability and validity of the index of learning styles, International journal of engineering education, vol.21, issue.1, pp.103-112, 2005.

F. William, Constructing questions for interviews and questionnaires : Theory and practice in social research, 1994.

G. Rick, The socratic method : Teaching by asking instead of by telling, 2001.

G. Dragan and H. Marek, Ontology mappings to improve learning resource search, British Journal of Educational Technology, vol.37, issue.3, pp.375-389, 2006.

J. Wangui, G. , D. Morrow, E. Niki, and . Davis, Online formative assessment in higher education : A review of the literature, Computers & Education, vol.57, issue.4, pp.2333-2351, 2011.

E. Wanda and . Gill, The ready to teach program : A federal initiative in support of online courses for teachers. Online Submission, 2011.

G. Michael, Processing language input in the circsim-tutor intelligent tutoring system, Artificial Intelligence in Education, pp.210-221, 2001.

G. Stefan, M. Florian, R. Sabrina, and S. Ralf, Proceedings of the 2nd International Workshop on Story-Telling and Educational Games (STEG'09), vol.498, 2009.

G. Paulo, A. Bruno, R. Luis, S. Arnaldo, J. Barbeira et al., Using ontologies for elearning personalization, Communication & Cognition, vol.41, issue.1, p.127, 2008.

T. John, . Gorgone, B. Gordon, . Davis, S. Joseph et al., Model curriculum and guidelines for undergraduate degree programs in information systems, Association of Information Technology Professionals (AITP), 2002.

C. Arthur, . Graesser, L. U. Shulan, G. Tanner, J. et al., Autotutor : A tutor with dialogue in natural language, Behavior Research Methods, vol.36, issue.2, pp.180-192, 2004.

E. A. Graf and J. H. Fife, Difficulty modeling and automatic generation of quantitative items : recent advances and possible next steps, pp.157-179, 2012.

G. Sabine, Adaptivity in learning management systems focussing on learning styles, 2007.

G. Sabine and L. Beate, An evaluation of open source e-learning platforms stressing adaptation issues, Proceedings of the 5th IEEE International Conference on Advanced Learning Technologies, ICALT'05, pp.163-165, 2005.

J. Greenberg and R. Davenport, Semantic web construction : an inquiry of authors' views on collaborative metadata generation, International Conference on Dublin Core and Metadata Applications, pp.45-52, 2002.

E. Jim, . Greer, I. Gordon, and . Mccalla, Student modelling : the key to individualized knowledge-based instruction, vol.125, 2013.

G. Foteini and H. Ioannis, Teaching ai search algorithms in a web-based educational system. International Association for Development of the Information Society, 2013.

G. Foteini, P. Isidoros, and H. Ioannis, An educational system for learning search algorithms and automatically assessing student performance, International Journal of Artificial Intelligence in Education, vol.27, issue.1, pp.207-240, 2017.

G. Begoña and M. Marcelo, The Future of Ubiquitous Learning : Learning Designs for Emerging Pedagogies, 2015.

P. J. Guo, Online Python Tutor : Embeddable web-based program visualization for CS education, Proceedings of the 44th ACM Technical Symposium on Computer Science Education, SIGCSE'13, pp.579-584

J. Philip and . Guo, Online python tutor : embeddable web-based program visualization for cs education, Proceeding of the 44th ACM technical symposium on Computer science education, pp.579-584, 2013.

C. , HADJI : L'évaluation à l'école. Numéro 9782091222707 in Questions d'enseignants. 2015 édition, 2015.

M. Thair, H. Hamtini, and F. Nawwaf, Evaluation of open-source elearning platforms based on the qualitative weight and sum approach and analytic hierarchy process, 2012.

M. Chandra and H. , Learner-centred differentiation model : A new framework, Australasian Journal of Gifted Education, vol.18, issue.2, p.55, 2009.

H. Jiangang, S. Zhan, and . Alina-von-davier, Analyzing process data from game/scenariobased tasks : an edit distance approach, JEDM-Journal of Educational Data Mining, vol.7, issue.1, pp.33-50, 2015.

H. Steve, A. Seaborne, P. Eric, and . Hommeaux, , vol.21, 2013.

H. Michael, R. Long, C. Amburn, K. Tara, and T. Poeppelman, Experience api and team evaluation : evolving interoperable performance assessment, The Interservice/Industry Training, Simulation & Education Conference (I/ITSEC), 2014.

H. Carlos and J. Reyes, Developing an intelligent tutoring system for vehicle dynamics, vol.106, pp.838-847, 2013.

G. Hwang, F. Kuo, Y. Peng-yeng, and C. Kuo-hsien, A heuristic algorithm for planning personalized learning paths for context-aware ubiquitous learning. Computers & Education, vol.54, pp.404-415, 2010.

E. Joseph, Engagement tracing : using response times to model student disengagement. Artificial intelligence in education : Supporting learning through intelligent and socially informed technology, vol.125, p.88, 2005.

K. Gregory, M. Aimilia, A. Sophia, C. Vassilis, P. Dimitris et al., Rql : A functional query language for rdf, The Functional Approach to Data Management, pp.435-465

. Springer, , 2004.

K. Tanja, G. Baschera, J. Kohn, K. Karin, R. Verena et al., Design and evaluation of the computer-based training program calcularis for enhancing numerical cognition, Frontiers in psychology, vol.4, 2013.

K. Tanja, A. Giovanni, B. Barbara, S. , and J. Kohn, Michael von ASTER et Markus GROSS : Cluster-based prediction of mathematical learning patterns

, International Conference on Artificial Intelligence in Education, pp.389-399, 2013.

K. Spiro, Interactivity : a concept explication, New media & society, vol.4, issue.3, pp.355-383, 2002.

K. Aniket, H. Ed, . Chi, and S. Bongwon, Crowdsourcing user studies with mechanical turk, Proceedings of the SIGCHI conference on human factors in computing systems, pp.453-456, 2008.

K. Severin, K. Tanja, A. Busetto, S. Barbara, J. Kohn et al., Stealth assessment in its-a study for developmental dyscalculia, International Conference on Intelligent Tutoring Systems, pp.79-89, 2016.

K. Evgeny, D. E. Paul, . Bra, and P. Mykola, Ah 12 years later : a comprehensive survey of adaptive hypermedia methods and techniques. New Review of Hypermedia and Multimedia, vol.15, pp.5-38, 2009.

K. Viswanathan, R. Rob, . Weitz, and R. David, A comparison of model-tracing and constraint-based intelligent tutoring paradigms, International Journal of Artificial Intelligence in Education, vol.15, issue.2, pp.117-144, 2005.

K. Ken and T. Michael, things you should know about intelligent tutoring systems, 2013.

R. B. Kozma, Transforming education : Assessing and teaching 21st century skills. The transition to computer-based assessment, vol.13, p.207, 2009.

K. Rohit, K. Gregory, A. M. Chung, and R. Bruce, First evaluation of the physics instantiation of a problem-solving-based online learning platform, Artificial Intelligence in Education, pp.686-689, 2015.

L. Julien, S. Lotfi, . Settouti, P. Yannick, and M. Et-alain, Trace-based framework for experience management and engineering, Knowledge-Based Intelligent Information and Engineering Systems, pp.1171-1178, 2006.

S. Andrew, A. E. Lan, C. Waters, . Studer, G. Richard et al., Sparse factor analysis for learning and content analytics, Journal of Machine Learning Research, vol.15, issue.1, pp.1959-2008, 2014.

K. Thomas, . Landauer, W. Peter, . Foltz, and L. Darrell, An introduction to latent semantic analysis, Discourse processes, vol.25, pp.259-284, 1998.

K. Thomas, . Landauer, L. Darrell, and F. Peter, Automatic essay assessment. assessment in e-ducation : Principles. Policy and Practice, vol.10, pp.295-309, 2003.

L. Diana, Rethinking university teaching : A conversational framework for the effective use of learning technologies, 2013.

L. Claudia and C. Martin, Automated scoring of short-answer questions, Computers and the Humanities, vol.37, issue.4, pp.389-405, 2003.

L. I. Longzhuang, S. Hongchi, Y. Shang, and C. Su-shing, Open learning objects for data structure course, Journal of Computing Sciences in Colleges, vol.18, issue.4, pp.56-64, 2003.

L. I. Yunyao, K. Rajasekar, R. Sriram, V. Shivakumar, and H. V. Jagadish, Regular expression learning for information extraction, Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp.21-30, 2008.

L. Zhi and W. Haiquan, A modeling method based on bayesian networks in intelligent tutoring system, Computer Supported Cooperative Work in Design, pp.967-972, 2007.

L. Markus and E. Gregor, High-quality specification of self-adaptive software systems, Software Engineering for Adaptive and Self-Managing Systems (SEAMS), 2013.

, ICSE Workshop on, pp.143-152, 2013.

L. Danny, P. Colm, and . Howlin, Real world usage of an adaptive testing algorithm to uncover latent knowledge, 7th international conference of education, research and innovation (ICERI2014 proceedings). IATED, pp.504-511, 2014.

M. Urszula, . Kaczmar, K. Halina, and P. Mariusz, Intelligent techniques in personalization of learning in e-learning systems, Computational Intelligence for Technology Enhanced Learning, pp.1-23, 2010.

M. Brent, R. Kenneth, . Koedinger, M. Antonija, and M. Santosh, On using learning curves to evaluate its, AIED, pp.419-426, 2005.

M. Brent, M. Antonija, R. Kenneth, . Koedinger, and M. Santosh, Evaluating and improving adaptive educational systems with learning curves, User Modeling and User-Adapted Interaction, vol.21, issue.3, pp.249-283, 2011.

M. Romain, New possibilities and challenges for assessment through the use of technology. Towards a research agenda on computer-based assessment, p.6, 2008.

M. Noboru, W. William, . Cohen, R. Kenneth, and . Koedinger, Teaching the teacher : tutoring simstudent leads to more effective cognitive tutor authoring, International Journal of Artificial Intelligence in Education, vol.25, issue.1, pp.1-34, 2015.

M. Wafa, Approche ontologique pour la modélisation et le raisonnement sur les trajectoires : prise en compte des aspects thématiques, temporels et spatiaux. (Ontological approach for modeling and reasoning about trajectories : taking into account the thematics, temporals and spatials aspects), 2013.

M. Janet, K. Nate, and F. Bridgid, Delayed versus immediate feedback in children's and adults' vocabulary learning, Memory & Cognition, vol.37, issue.8, pp.1077-1087, 2009.

M. Alistair and B. Dan, Skos core vocabulary specification, 2005.

M. Eva, L. Tomasz, and . Cruz, Bayesian networks for student model engineering, Computers & Education, vol.55, issue.4, pp.1663-1683, 2010.

M. Alain, C. Pierre-antoine, C. Amélie, G. Olivier, and L. Et-marie, Trace-based reasoning-modeling interaction traces for reasoning on experiences, The 26th International FLAIRS Conference, pp.1-15, 2013.

, Through Educational Data MINING : Enhancing teaching and learning through educational data mining and learning analytics : An issue brief, Proceedings of conference on advanced technology for education, 2012.

A. Tosun, M. , A. Basar, and B. , Bayesian networks for evidence-based decisionmaking in software engineering, IEEE Transactions on Software Engineering, vol.40, issue.6, pp.533-554, 2014.

J. Robert, . Mislevy, T. John, K. E. Behrens, . Dicerbo et al., Design and discovery in educational assessment : Evidence-centered design, psychometrics, and educational data mining, JEDM-Journal of Educational Data Mining, vol.4, issue.1, pp.11-48, 2012.

M. Antonija, M. Brent, and S. Pramuditha, Intelligent tutors for all : The constraint-based approach, IEEE Intelligent Systems, issue.4, pp.38-45, 2007.

H. Edna and . Mory, Feedback research revisited. Handbook of research on educational communications and technology, vol.2, pp.745-783, 2004.

M. Tom, Formative qualitative evaluation for" exploratory" its research, Journal of Interactive Learning Research, vol.4, issue.2, p.179, 1993.

M. Tom, Authoring intelligent tutoring systems : An analysis of the state of the art, International Journal of Artificial Intelligence in Education (IJAIED), vol.10, pp.98-129, 1999.

Y. Mohamed and S. , AEHS-LS) : Implementation and evaluation, An approach to adaptive e-learning hypermedia system based on learning styles, vol.3, pp.15-28, 2011.

N. David, E-assessment by design : using multiple-choice tests to good effect, Journal of Further and Higher Education, vol.31, issue.1, pp.53-64, 2007.

J. David, D. Nicol, and . Macfarlane-dick, Formative assessment and self-regulated learning : A model and seven principles of good feedback practice. Studies in higher education, vol.31, pp.199-218, 2006.

O. Stellan, Some principles of intelligent tutoring, University of Zurich OLAT TEAM (OVERALL) : OLAT 7.8-Manuel d'utilisation, vol.1, pp.203-238, 1987.

O. Steven, W. William, and D. Innovations, White paper : Adaptive learning systems, 2014.

M. Rena, . Palloff, and P. Keith, Assessing the online learner : Resources and strategies for faculty, vol.14, 2008.

P. Zacharoula, A. Anastasios, and . Economides, Temporal learning analytics visualizations for increasing awareness during assessment, RUSC. Universities and Knowledge Society Journal, vol.12, issue.3, pp.129-147, 2015.

J. Et-hee-jun and C. , Factors influencing adult learners' decision to drop out or persist in online learning, Educational Technology & Society, vol.12, issue.4, pp.207-217, 2009.

O. Park and L. Jung, Adaptive instructional systems. Educational Technology Research and Development, vol.25, pp.651-684, 2003.

P. Harrie and J. T. Jeuring, Ontology based feedback generation in design-orientated e-learning systems, Proceedings of the IADIS International Conference, pp.992-996, 2004.

, Thanos PATELIS : An overview of computer-based testing, 2000.

P. Judea, Probabilistic reasoning in intelligent systems : networks of plausible inference, 2014.

P. Neil, C. Owen, and W. Vincent, Adaptive educational games : Providing non-invasive personalised learning experiences, Digital Games and Intelligent Toys Based Education, pp.28-35, 2008.

A. Peña-ayala, Educational data mining : A survey and a data mining-based analysis of recent works. Expert systems with applications, vol.41, pp.1432-1462, 2014.

P. Les, When "the state of the art" is counting words. Assessing Writing, vol.21, pp.104-111, 2014.

P. Agnès and A. Eleonora, Linum : Un projet numérique pour interroger l'enseignement de la lecture littéraire. Revue de recherches en littératie médiatique multimodale, 2017.

P. Agnès and A. Eleonora, Penser la lecture littéraire par et pour le numérique : conception, activités et usages en question. Repères. Recherches en didactique du français langue maternelle, pp.197-213, 2017.

P. Thao and P. , Architecture à base de situations pour le traitement des quiproquos dans l'exécution adaptative d'applications interactives, 2013.

P. Thao, P. Mourad, R. Pascal, and E. , Handling the misunderstanding in interactions : Definition and solution, International Conference on Software Engineering & Applications, pp.47-52, 2011.

P. Thao, P. Mourad, R. Pascal, and E. , Agent-based architecture and situation-based scenario for consistency management, Computer Science and Information Systems (FedCSIS), 2013 Federated Conference on, pp.1041-1046, 2013.

P. Pipatsarun and V. Jiracha, Adaptive intelligent tutoring systems for e-learning systems, Procedia-Social and Behavioral Sciences, vol.2, issue.2, pp.4064-4069, 2010.

L. David, K. Poole-et-alan, and . Mackworth, Artificial Intelligence : foundations of computational agents, 2010.

P. Eric and A. Seaborne, Sparql query language for rdf, 2006.

R. Bo?idar-lj, S. Marijana, . Despotovi?-zraki?, M. Du?an, . Bara? et al., Web portal for adaptive e-learning, Telecommunication in Modern Satellite Cable and Broadcasting Services (TELSIKS), 2011 10th International Conference on, vol.1, pp.365-368, 2011.

R. Chaitanya, M. David, and . Williamson, Automated essay scoring : Psychometric guidelines and practices. Assessing Writing, vol.18, pp.25-39, 2013.

A. Reyes, J. Et-yobani, and M. , Evaluation module based on bayesian networks to intelligent tutoring systems, International Journal of Information Management, vol.37, issue.1, pp.1488-1498, 2017.

A. Mohammed, H. Razek, A. Jameel, and . Bardesi, Adaptive course for mobile learning, Computational Intelligence, Communication Systems and Networks (CICSyN), 2013 Fifth International Conference on, pp.328-333, 2013.

M. Charles, . Reigeluth, A. Sinem, C. Zengguan, D. Pratima et al., Personalized integrated educational system : Technology functions for the learner-centered paradigm of education, Journal of Educational Computing Research, vol.53, issue.3, pp.459-496, 2015.

R. Marta, R. P. Díaz-redondo, A. José, J. Pazos-arias, J. García-duque et al., An extension to the adl scorm standard to support adaptivity : The t-learning case-study, Computer Standards & Interfaces, vol.31, pp.309-318, 2009.

R. Elaine, User modeling via stereotypes, Cognitive science, vol.3, issue.4, pp.329-354, 1979.

R. Manuel and . Navarro, Procesos cognitivos y aprendizaje significativo, 2008.

R. Ido, R. Shaun, B. Vincent, A. Kenneth, and R. Koedinger, A metacognitive act-r model of students' learning strategies in intelligent tutoring systems, International Conference on Intelligent Tutoring Systems, pp.854-856, 2004.

C. Marta, . Rosatelli, A. John, and . Self, A collaborative case study system for distance learning, International Journal of Artificial Intelligence in Education, vol.14, issue.1, pp.97-125, 2004.

R. Liam, A. Terry, and A. Walter, Methodological issues in the content analysis of computer conference transcripts, International journal of artificial intelligence in education (IJAIED), vol.12, pp.8-22, 2001.

J. Haymore, S. , C. R. David, C. Dwyer, and N. , The computer enters the classroom, Teachers college record, vol.100, issue.3, pp.656-669, 1999.

R. Santhi, B. Priya, and J. M. Nandhini, Review of intelligent tutoring systems using bayesian approach, 2013.

S. Friedrich and B. Julius, The transition to computer-based assessment. Luxembourg : Office for Official Publications of the European Communities, SCORM : SCORM 2004 Handbook. The e-Learning Consortium, 2006.

L. Sofiane, S. Yannick, P. Pierre-antoine, C. , J. et al., A trace-based systems framework : Models, languages and semantics, 2009.

L. Sofiane, S. Yannick, P. Damien, C. Pierre-antoine, C. Et-alain et al., A trace-based framework for supporting digital object memories, Workshops Proceedings of the 5th International Conference on Intelligent Environments, pp.39-44, 2009.

L. Sofiane, S. Yannick, P. Jean-charles, M. Et-alain, and M. , A tracebased system for technology-enhanced learning systems personalisation, The 9th IEEE International Conference on Advanced Learning Technologies, pp.93-97, 2009.

S. Marianne, D. Landon, F. James, . Brinkley, and S. Dan, A dataflow graph transformation language and query rewriting system for rdf ontologies, SSDBM, pp.544-561, 2012.

J. Valerie and . Shute, Stealth assessment in computer-based games to support learning. Computer games and instruction, vol.55, pp.503-524, 2011.

J. Valerie, D. Shute, and . Zapata-rivera, Adaptive educational systems. Adaptive technologies for training and education, vol.7, p.27, 2012.

?. Marián, B. Michal, and B. Mária, Alef : A framework for adaptive webbased learning 2.0. Key Competencies in the Knowledge Society, pp.367-378, 2010.

S. Stephen, M. Richard, and . Luecht, A review of models for computer-based testing, 2012.

D. Thomas, C. Snyder, . Brey, A. Sally, and . Dillow, , pp.2016-2022, 2014.

S. Sergey and B. Peter, Evaluation of topic-based adaptation and student modeling in quizguide, User Modeling and User-Adapted Interaction, vol.25, issue.4, pp.371-424, 2015.

R. Sottilare, A. Graesser, X. Hu, and H. Holden, Design recommendations for intelligent tutoring systems : Learner modeling, vol.1, 2013.

, SPHERE RESEARCH LABS : ideone.com -Online Compiler and IDE, vol.29

E. Steven and . Stemler, A comparison of consensus, consistency, and measurement approaches to estimating interrater reliability, Research & Evaluation, vol.9, issue.4, pp.1-19, 2004.

S. Andrea and T. Marco, Adaptive construction and delivery of web-based learning paths, Frontiers in Education Conference, 2009. FIE'09. 39th IEEE, pp.1-6, 2009.

L. Daniel and . Stufflebeam, Empowerment evaluation, objectivist evaluation, and evaluation standards : Where the future of evaluation should not go and where it needs to go, Evaluation practice, vol.15, issue.3, pp.321-338, 1994.

S. Pramuditha and M. Antonija, Kermit : A constraint-based tutor for database modeling, International Conference on Intelligent Tutoring Systems, pp.377-387

. Springer, , 2002.

T. Nguyen, D. Lucas, H. Tomá?, and L. Schmidt-thieme, Multi-relational factorization models for predicting student performance, Proc. of the KDD Workshop on Knowledge Discovery in Educational Data, pp.27-40, 2011.

N. Thompson and D. Wiess, Computerised and adaptive testing in educational assessment. The transition to computer-based assessment. New approaches to skills assessment and implications for large-scale testing, pp.127-133, 2009.

I. Teresa-machín, V. Torres, and S. Estrada, Intelligent tutor system for learning object oriented programming, 2017.

, TUTORIALS POINT TEAM : Free online IDE and terminal, vol.29

. Wim-j-van-der-linden, A. W. Cees, and . Glas, Elements of adaptive testing, 2010.

J. R. Van-seters, M. A. Ossevoort, J. Tramper, J. Martin, and . Goedhart, The influence of student characteristics on the use of adaptive e-learning material, vol.58, pp.942-952, 2012.

V. Mieke, D. Piet, and C. Geraldine, The contribution of learner characteristics in the development of computer-based adaptive learning environments, Computers in Human Behavior, vol.27, issue.1, pp.118-130, 2011.

V. Kurt, W. Pamela, C. P. Jordan, . Rosé, B. Dumisizwe et al., The architecture of why2-atlas : A coach for qualitative physics essay writing, International Conference on Intelligent Tutoring Systems, pp.158-167, 2002.

J. Anthony, J. M. Viera, and . Garrett, Understanding interobserver agreement : the kappa statistic, Fam Med, vol.37, issue.5, pp.360-363, 2005.

A. Michael-von, M. Weinhold, Z. Et-ralf, and . Horn, Neuropsychologische Testbatterie für Zahlenverarbeitung und Rechnen bei Kindern, 2006.

G. Michael, . Von-aster, S. Ruth, and . Shalev, Number development and developmental dyscalculia, Developmental Medicine & Child Neurology, vol.49, issue.11, pp.868-873, 2007.

W. Jakob, National tests in denmark-cat as a pedagogic tool, Association of Test Publishers, vol.12, issue.1, 2011.

W. Shu-lin and C. Wu, Application of context-aware and personalized recommendation to implement an adaptive ubiquitous learning system, Expert Systems with applications, vol.38, pp.10831-10838, 2011.

W. Joe, R. Scott, G. John, and W. Stephen, Facilitating human interaction in an online programming course, Proceedings of the 45th ACM technical symposium on Computer science education, pp.665-670, 2014.

W. Barbara, Advanced educational technologies : The learning environment, Computers in human behavior, vol.13, issue.4, pp.571-594, 1997.

W. Gerhard and S. Marcus, User modeling and adaptive navigation support in wwwbased tutoring systems, User Modeling, pp.289-300, 1997.

W. Oliver, Issues in computerized ability measurement : Getting out of the jingle and jangle jungle. The transition to computer-based assessment, pp.145-150, 2009.

M. David, . Williamson, X. I. Xiaoming, and B. Jay, A framework for evaluation and use of automated scoring. Educational measurement : issues and practice, vol.31, pp.2-13, 2012.

Y. Yongwei, W. Chad, . Buckendahl, J. Piotr, . Juszkiewicz et al., A review of strategies for validating computer-automated scoring, Applied Measurement in Education, vol.15, issue.4, pp.391-412, 2002.

Z. Telmo, D. Paloma, and A. Ignacio, Modeling games for adaptive and personalized learning, The Future of Ubiquitous Learning, pp.217-239, 2016.

Z. Jianping, Intelligent tutoring systems : research status and its development in china, IEEE NLP-KE'05. Proceedings of 2005 IEEE International Conference on, pp.683-689, 2005.

Z. Abdelhamid, A. Benaissa, B. Hadhoum, P. Patrick, and C. Bertelle, Dynamic case-based reasoning based on the multi-agent systems : Individualized follow-up of learners in distance learning, Intelligent Distributed Computing VI, pp.51-57, 2013.