Pédagogie 3.0 : Analyse par l’impact sur les résultats scolaires

Après 1 an comme titulaire de ma 6e année, à mettre en place cette approche complète et prometteuse, je me devais de faire un bilan afin de regarder dans les notes des élèves si j’avais réussi ou non à avoir un impact sur ces dernières. Voici que je vous présente les résultats de la première année de l’implantation de la pédagogie 3.0. Notez que je suis à compléter la seconde vidéo que je diffuserai sous peu et qui explique les 3 autres parties (plus pratico-pratique) de l’approche. Voici dans un premier temps, l’impact au niveau du taux de réussite de ces élèves :

taux de réussite pour image a la une

Ne serait-ce que ces résultats, c’était déjà très flatteur, toutefois, je voulais en savoir plus afin de découvrir qui était le plus touché par cette approche et est-ce que la moyenne du groupe ou de certains élèves pourraient me faire découvrir les endroits où travailler plus fort l’année prochaine!

Comment je m’y suis pris pour avoir les données.

Dans GPI, j’ai pris les notes de la 5e année ainsi que de celle-ci. Car en compilant et regardant seulement les résultats de cette année, je ne voyais pas clairement l’impact de l’approche. Bien que j’ai eu au courant de l’année jusqu’à 9 élèves en échec (en écriture), 6 ont pu se ressortir du trou et terminer convenablement. J’ai ensuite gardé que les notes en français lecture et écriture ainsi que ceux en mathématiques. En réalisant la moyenne de ces 4 catégories, j’ai pu observer que mes élèves s’étaient améliorés de près de 4% au courant de l’année entre le début et la fin de l’année. Mais en soi, ça ne me disait pas grand-chose… Est-ce beaucoup 2.1% d’amélioration entre la fin de cette année et la fin de la 5e? J’ai donc passé beaucoup de temps à trouver une analyse des résultats qui saurait me donner une lecture juste des endroits de ce progrès et si ce 2% était en fait que la pointe d’un Iceberg plus important en fait de succès de l’approche…

impact1

 Dans le graphique de la lecture, les élèves étaient déjà en forte décroissance pendant leur 5e année et on poursuivit cette “trajectoire” pendant le passage en 6e. Une moyenne de 64.3 en début d’année avec 9 élèves en échec, ça brasse le prof autant que les élèves. Il fallait stopper les chutes et inverser le cours de choses. Au niveau de l’écriture, on remarque la même chute avec le passage avec la pédagogie 3.0, plus axée sur un développement de l’autonomie. La pente a toutefois été plus dure à remonter si on compare avec le gain entre la 1ère et la 3e étape. Lors de cette dernière étape, j’ai pris le taureau par les cornes et les élèves ont eu 4 productions écrites complètes avec la grille de correction complète modifiée. En effet, j’ai alloué plus de points dans ces grilles aux parties moins bien réussies (au lieu que la partie sur la structure du texte, et celle des phrases ne valent respectivement que 20% chacune, j’ai changé le tout à 30%). Ainsi, pour avoir de meilleures notes, il leur fallait absolument mettre l’emphase sur ces éléments. Rendus au test du ministère, avec une grille équilibrée, ils ont pu obtenir un gain plus appréciable dans ces parties, et ainsi, remonter plus haut que leurs moyennes de la 5e année. 

impact2

Au niveau des mathématiques, vous observez une certaine ressemblance entre le graphique de la lecture et de la résolution. Pourtant, je n’ai vraiment pas mis l’emphase sur ce volet, passant essentiellement le temps et l’attention des élèves sur l’amélioration de la lecture. Je tirerais donc une belle conclusion préliminaire (que je vais valider cette année) en mentionnant que le gain ici observé est dû au progrès au niveau de la lecture. En effet, le premier pilier secondaire de la pédagogie 3.0 porte justement sur la recherche d’informations (que ce soit dans un texte, dans un projet, sur le Web, dans une question ou dans son propre avis par rapport à un sujet). J’étais tout de même très surpris de voir un revirement aussi important des résultats des élèves. Il faut aussi savoir qu’il n’y avait pas de note au bulletin à la première étape et que le résultat “du début 6e” est en fait lors de la seconde étape, ce qui explique que les notes n’ont pas descendu autant que dans les 3 autres tableaux. Les élèves étant déjà plus expérimentés à l’importance de travailler seul et savoir demander de l’aide lors de leur étude.

Dans le graphique traitant du raisonnement, là, j’ai été très surpris. Car nous avons énormément travaillé sur ce point cette année et pourtant les résultats ne sont pas au rendez-vous. Il faut savoir que j’ai utilisé ici les résultats de la seconde étape, car lors de la première, les élèves avaient connues une “bulle” en obtenant une moyenne de classe à 84,3% (voir l’article traitant de cet événement). Bien que j’ai poursuivi la publication des vidéos explicatifs et l’approche du début de l’année, les résultats n’ont pas été maintenus. Je crois que ça a avoir avec l’affect (intelligence émotionnelle). Les élèves ayant connus un trop gros succès en début d’année, ils n’ont pas vu par la suite l’importance reliée à l’apprentissage et sont arrivés mal préparés aux évaluations, se croyant sûrs d’eux. Au niveau du pilier de la gestion de la performance (3e pilier secondaire de l’approche), j’ai aussi modifié le tout en cours d’année. Au début, ils avaient un jeu-questionnaire et s’ils obtenaient 85% et plus, ils étaient exemptés du test, sinon, nécessairement, ils devaient faire le test. Ce qui a donné comme résultat un genre de paresse, c’est à dire où je dirais que la majorité des élèves “essayaient” le jeu-questionnaire et s’ils n’étaient pas assez bons, alors ils étudiaient pour le test… Lorsque j’ai réalisé qu’au lieu de s’engager pour réussir du premier coup, j’ai enlevé “la chance de se reprendre” et hop, les notes ont chuté. Dans la dernière étape, ils ont fait 3 gros jeux-questionnaires couvrant chacun un chapitre et à la fin, ils ont pu refaire (avec des données différentes) celui qu’ils ont moins bien réussi. Il est certes important qu’ils puissent apprendre de leurs erreurs, toutefois la société étant ce qu’elle est présentement, il est important aussi de pouvoir démontrer ces connaissances lors d’une évaluation plus unique qu’en ayant constamment la “chance” de ce reprendre. Qu’on le veuille ou non, ou encore que ces paroles proviennent de Bill Gate ou non (voir les 11 éléments qu’on n’apprend pas dans une école), reste que plusieurs éléments cités ici me paraissent véridiques. C’est pourquoi j’ai modifié l’approche en cours d’année. L’an prochain, je vais quand même répéter le tout afin qu’ils puissent voir qu’ils sont capables d’obtenir de bons résultats et j’accentuai l’emphase sur les stratégies déployées pour qu’ils puissent obtenir de bons résultats, sans avoir nécessairement recours à la reprise pour y parvenir.

 

L’intégration TIC.

Ayant l’opportunité d’avoir des ultras portables que personne ne voulait à l’école, j’ai pu ainsi faire utiliser l’accès à la technologie dans des proportions près du 50% du temps de classe. Essentiellement, ils l’ont utilisé afin de collaborer (etherpad,blogue…), s’évaluer (moodle, claroline), pour s’informer et communiquer (création de Wikis, Prezi, guerre des présentations), créer (film, création de jeu RPG, contenu numérique, pièces de théâtre multimédia…) et on terminait la semaine en jouant, toute la classe dans un jeu de scrabble (http://www.lettrecomptetriple.fr/). Terminer la semaine en faisant ainsi en travaillant le vocabulaire, c’est chouette!

Comme toujours, ce n’est pas les TIC qui stimulent les jeunes, mais bien la valeur ajoutée de ces derniers dans des projets ou présentations qui les stimulent vraiment. Le fait d’avoir moins d’ordinateurs que la quantité d’élèves est aussi un facteur je crois, c’est-à-dire que se sentant choyé d’avoir accès à la technologie, ils sont beaucoup moins portés à perdre leur temps avec et ils profitent de ce moment pour être efficace.

 

Est-ce que la pédagogie 3.0 obtient plus d’impact auprès des filles ou des garçons?

Bon, savoir que mes élèves ont stabilisé et redressé leurs notes ne me donnait pas encore suffisamment d’informations pour voir ce que je pouvais améliorer ou encore, quels élèves en profitaient le plus. J’ai alors pris l’évolution des résultats entre le début et la fin de cette année et de leur dernière afin de comparer les différences et voir s’il y en avait qui étaient plus parlant. C’est pourquoi j’ai séparé les résultats des garçons et des filles afin d’observer s’il y avait des différences significatives. Voici les résultats en français:

gars-fille-francais

Le plus grand progrès à ce niveau a été d’arrêter et d’inverser la descente au niveau de la lecture. Dans la seconde vidéo de la pédagogie 3.0 (disponible d’ici une semaine), vous verrez les stratégies déployées à ce sujet. Au niveau de l’écriture, je dois par contre avouer que je m’explique assez mal le fait que seulement les garçons ont augmentés en moyenne de 4% cette année et rien pour les filles. Nous avions la dictée folle hebdomadaire, les productions écrites complètes aux 2 semaines avec correction complète, et beaucoup d’écrits sur différents sujets (permanence de l’apprentissage, blogues, etherpad, Wiki…). Je crois toutefois avoir une piste, en effet, mes interventions n’étaient pas suffisamment adaptées à chacun. L’année prochaine, je débuterai avec différents tests à l’écrit et à l’ordinateur corrigés afin de trouver les forces et les défis de chacun et mettrai en place une approche différenciée à ce niveau. Donc, poursuivre le déploiement du pilier de la recherche d’informations et couplé le tout avec des portraits types d’élèves ayant des besoins ou forces similaires.

gars-fille-math

 

Au niveau des mathématiques, le raisonnement a connu une bonne hausse et les filles ont doublé les garçons à ce niveau. Concernant la résolution, j’ai déjà mentionné mes idées à ce sujet. 

 

Résultat en fonction des 4 groupes dans la classe.

J’étais bien content de voir que les garçons avaient plus profité au niveau de l’amélioration de la lecture en français et que les filles avaient plus bénéficié en mathématiques, toutefois, j’étais curieux de savoir “qui” bénéficiaient le plus ou le moins de cette approche. C’est pourquoi, basé sur la moyenne de chaque élève dans les 2 matières et ce, au dernier bulletin de la 5e année, j’ai replacé ma liste de classe en ordre croissant. Ayant 24 élèves, j’ai ensuite simplement divisé tout ce beau monde en 4 groupes de 6-7 élèves. Et voici l’impact de la pédagogie 3.0 sur ces différents groupes (gars et filles mélangés).

4 types eleves francais

En rouge, on observe l’a fluctuation des élèves pendant leurs 5es années alors qu’en vert, ce sont leurs progrès pendant cette année.

Au niveau de la lecture, quelle ne fut pas ma surprise de voir que les plus faibles se sont améliorés de près de 10% au cours de cette année, c’est donc dire qu’ils ont rattrapé plus de % qu’ils en avaient perdu antérieurement! Je vais poursuivre dans cette direction, c’est bien certain!

L’écriture a aussi été bénéfique pour les faibles et les plus faibles. Les plus forts (qui ont moins de marge de manœuvre pour s’améliorer) gagneront sûrement plus l’année prochaine avec mon intention de cerner, dès leurs arrivées, leurs forces et défis pour l’année. Fait à noter que les élèves les plus faibles ont connus une moyenne d’amélioration de 18% dans leur production écrite lors du test du ministère! De plus, j’étais absent pendant ce moment de l’année (congé parental), c’est pourquoi ce résultat est très intéressant et plutôt objectif (puisque la remplaçante ne connaissait pas ces élèves).

 

4 types eleves math

Au niveau du raisonnement, les très faibles semblent avoir écopé le plus, eux qui pourtant, semblent avoir le plus bénéficié d’une amélioration au niveau de la lecture. Toutefois, leurs problèmes au niveau de se doter des méthodes de travail efficaces semble les avoirs “rattrapés” ici. Notez aussi que le 13% d’amélioration pour les faibles (donnée obtenue en soustrayant la moyenne de la 3e étape moins celle de la première) n’a pas été représentatif lors des examens du ministère. Ce groupe n’a obtenu qu’une amélioration que de 2% par rapport à leur première étape.

Enfin, au niveau de la résolution de problème, mes élèves ont obtenu de moins bonnes performances que pendant leur 5e année, bien que nous avons passé beaucoup de temps à ce niveau, n’obtenant que des fluctuations minimes tout au long de l’année. Je crois que la “bulle” du début de l’année a beaucoup plus affecté l’engagement des élèves. Essentiellement, car ils devaient se dire qu’ils étaient bons et que cet élément ne méritait pas autant d’effort.

Conclusion

1- Je suis bien content d’apprendre que mon approche, globalement, a inversé le cours de leurs résultats qui étaient descendant.

2-Que l’approche axée sur l’amélioration de la recherche d’informations (lecture) a été très payante. Je vais poursuivre le déploiement à ce niveau.

3-Que les résultats des élèves les plus faibles ont été positivement influencés.

4-Ces résultats au niveau du taux de réussite!

5-2 des 3 élèves ayant des PIA se sont améliorés cette année, toutefois pas suffisamment pour réussir leurs années.

6-Que je vais poursuivre le déploiement et la recherche au niveau des différents piliers de mon approche! Et bien sûr, vous les communiquer!

 

Au plaisir!

Stéphane Côté, juillet 2013

Pédagogie 3.0 : Analyse par l’impact sur les résultats scolaires

5 votes, 4.20 avg. rating (85% score)

Leave a Reply




Post Comment

 
 
Le contenu du site reflète les opinions de Stéphane Côté. Tous droits réservés.
 

Utilisateurs en ligne

Users: 14 Guests, 2 Bots