L'andragogie, un principe clé pour la formation aux adultes
22 décembre 2021
Conceptualisé dans les années 1970 par Malcolm Knowles, l'andragogie est la science de l'éducation aux adultes. Ce principe vient se confronter à la pédagogie qui est davantage centrée sur l'éducation aux enfants et aux jeunes adultes.
Par ce principe, il a été reconnu que les besoins des adultes, en terme de formation, sont différents de ceux des enfants. En effet, l'apprentissage des adultes n'a pas pour but d'assouvir les mêmes objectifs que ceux des nouvelles générations. Lorsqu'un enfant voudra obtenir une bonne note et la reconnaissance de son entourage, l'adulte, lui, préférera apprendre de nouvelles informations qui pourront lui permettre d'atteindre de nouvelles compétences.
Dans cette même optique, la formation aux adultes devra satisfaire des désirs qui sont non seulement personnels, mais aussi professionnels.
Le contexte de la formation aux adultes est particulier. En général, un adulte ne commence pas son apprentissage en partant de zéro. Il cherche souvent à améliorer ses compétences ou des pratiques professionnelles qui sont déjà acquises. Ainsi, il faudra émettre une distinction entre les termes "former" et "enseigner".
L'enseignement se pratique dans les classes d'enfants et de jeunes adultes, à partir d'un programme qui est prédéfini en amont, avec une hiérarchisation au sein de la classe : l'enseignant et les élèves. L'enseignement vise toujours à l'assimilation de connaissances, dans le but d'acquérir un savoir et un savoir-faire.
A l'inverse, la formation s'effectue de façon individualisée selon les groupes et les expériences des apprenants, à partir d'un besoin dans le but d'acquérir des compétences applicables tout de suite, en situation réelle. Un formateur se rapproche d'avantage du coach que de l'enseignant, car il accompagne ses apprenants vers de l'assimilation de nouvelles compétences.
En corrélation avec tous les éléments vus précédemment, l'andragogie est un concept qui ne s'applique pas à la formation initiale. Ce principe se confond facilement avec la formation continue, aussi nommée formation tout au long de la vie. Pour être efficace, la formation basée sur le concept de l'andragogie doit s'adresser à des personnes ayant déjà travaillées. De plus, elle doit se passer hors des lieux de formation initiale. La formation doit être centrée sur l'apprenant, ses pratiques et son contexte professionnel. Par exemple, lors d'une formation pour apprendre à maîtriser les techniques de vente, le formateur pourrait spécialiser son cours et les exemples donnés en fonction du domaine de ses apprenants.
En 1970, dix ans avant que le terme "andragogie" soit entériné par l'Unesco, Malcolm Knowles a défini les quatre principes à prendre en compte pour la formation des adultes.
1 - L'apprenant doit être conscient de son besoin d'apprentissage.
Pour que la formation soit efficace, l'apprenant doit être conscient de son besoin de formation. Ainsi, il doit être capable d'émettre des demandes liées à ses besoins. L'apprenant adulte, ayant la volonté d'acquérir de nouvelles compétences ou de ses perfectionner, doit être convaincue que l'information reçue lui servira pour être motivé dans son travail.
L'apprenant évolue ici dans un principe d'auto-évaluation, où il diagnostiquera lui-même ses acquis en total autonomie. L'apprentissage s'effectue ici dans un climat d'acceptation et de coopération. Contrairement à la pédagogie, l'andragogie demande que l'apprenant soit impliqué personnellement dans son apprentissage. En andragogie, le formateur n'a donc pas d'aspect "supérieur" face à l'apprenant. Il doit prendre en compte les besoins de l'apprenant pour construire son programme, en le questionnant sur ses objectifs, ses motivations et ses attentes.
2 - L'adulte apprend grâce à la mise en relation avec ses expériences personnelles.
Comme évoqué précédemment, l'apprenant adulte possède déjà une expérience professionnelle lorsqu'il effectue sa formation. Ainsi, le formateur doit prendre en considération les expériences de ses apprenants. Ici, les échanges entre formateur et apprenants sont sources de motivation puisqu'ils proviennent de contextes réels auxquels les apprenants peuvent associer leurs nouveaux apprentissages. En donnant des exemples de situations réelles, les apprenants vont pouvoir se rendre compte de leurs erreurs ou de leurs succès passés, grâce à une théorisation des éléments.
L'adulte, ici, a besoin de mettre en relation les sujets abordés par le formateur avec ce qu'il connait déjà grâce à son bagage professionnel. Ainsi, il va d'automatisme effectuer des comparaisons entre ce qu'il a déjà fait et ce qu'il apprend à faire.
3 - L'apprentissage des adultes se doit d'être concret.
L'apprentissage chez l'adulte est très intimement relié à des contextes réels de leur vie ou de leur emploi. Contrairement aux enfants, les apprenants adultes ont besoin de concret. Ils ont constamment besoin de savoir les bienfaits de la formation et comment celle-ci peut améliorer leur quotidien. Pour les adultes, le "terrain" est le lieu de la compréhension.
Ainsi, le formateur doit tout faire pour que l'apprenant participe activement à la formation en favorisant la prise de parole. L'apprenant adulte a besoin de savoir où est-ce qu'il en est dans son apprentissage, pour émettre rapidement un bilan d'acquisition de compétences.
4 - L'apprentissage chez l'adulte nécessite une mise en pratique immédiate des savoir-faire acquis.
Afin de corréler avec l'expérience terrain évoqué dans le point précédent, l'adulte apprenant doit émettre une application immédiate de ses connaissances et compétences nouvellement acquises. Le formateur, pour être efficace, doit tout miser sur la mise en pratique de résolution de problèmes.
Contrairement aux enfants où la mémorisation de contenu est mise à l'honneur, avec les adultes, il faut toujours rester dans la mise en pratique. La rétention d'information est beaucoup plus importante chez l'apprenant adulte lorsqu'il participe de lui-même à son apprentissage. C'est pourquoi, le formateur doit aller droit au but et laisser place à l'expérimentation. Les informations complémentaires du cours pourront être données en "bonus", mais il ne faut surcharger l'adulte d'informations.
Elaborer des formations efficaces pour adulte est un véritable challenge pour les formateurs qui se doivent de préparer un nombre considérable d'exercices pratiques, sans tomber dans la répétition, qui peut être lassante pour l'apprenant. Cependant, comme pour les enfants, le formateur devra valoriser et mettre en avant les compétences acquises par l'apprenant afin de le motiver dans son action.
En 1990, Knowles va plus loin et émet des préconisations pour favoriser la formation aux adultes. Dans un premier temps, il évoque le fait qu'il faut tenir compte de l'environnement physique et relationnel du candidat pour instaurer un climat propice à l'apprentissage. De plus, il est important de diagnostiquer les besoins en apprentissage avant de commencer la formation. Le formateur devra alors formuler des objectifs clairs à son programme.

L'Union européenne a franchi un cap historique avec l'entrée en vigueur de l'IA Act le 1er août 2024. Cette législation novatrice, première du genre à l'échelle mondiale, redéfinit les règles du jeu pour toutes les entreprises impliquées dans le développement ou l'utilisation de systèmes d'intelligence artificielle. Alors que le compte à rebours a déjà commencé pour certaines dispositions applicables dès février 2025, comprendre ce nouveau cadre réglementaire devient une priorité stratégique pour les organisations de toutes tailles. Chez LESPRATIQUES, nous proposons une formation gratuite jusqu'au 31 décembre 2025, conçue pour rendre ce texte accessible à tous – dirigeants, managers, communicants, RH, indépendants – et vous aider à comprendre ce qui change concrètement pour votre activité. Une révolution réglementaire basée sur le risque Une révolution réglementaire basée sur le risqueL'originalité fondamentale de l'IA Act réside dans son approche graduée, qui adapte les exigences réglementaires au niveau de risque potentiel de chaque technologie d'IA. Ce principe pragmatique vise à encourager l'innovation tout en protégeant efficacement les citoyens européens contre les risques les plus significatifs Au sommet de cette pyramide réglementaire se trouvent les systèmes à"risque inacceptable", purement et simplement interdits. Cette catégorie comprend notamment les technologies de manipulation comportementale, les systèmes de notation sociale ou encore l'utilisation non encadrée de l'identification biométrique à distance dans les espaces publics. Ces interdictions entreront en vigueur dès février 2025, créant une urgence immédiate pour les entreprises concernées. Viennent ensuite les systèmes à "haut risque", autorisés mais soumis à des exigences strictes. Cette catégorie englobe les applications d'IA utilisées dans des domaines sensibles comme le recrutement, l'éducation, l'accès au crédit ou encore l'application de la loi. Pour ces systèmes, les exigences incluent une évaluation rigoureuse des risques, une supervision humaine effective et une documentation technique exhaustive avant toute mise sur le marché. Les systèmes à "risque limité", principalement ceux qui interagissent directement avec les personnes comme les chatbots, sont soumis essentiellement à des obligations de transparence. Enfin, la majorité des applications d'IA, considérées comme présentant un risque minimal, restent largement non réglementées pour éviter d'entraver inutilement l'innovation L'IA générative sous surveillance renforcée L'IA générative sous surveillance renforcéeFace à l'essor vertigineux des modèles d'IA générative comme ChatGPT ou Midjourney, l'IA Act introduit un régime spécifique pour ces technologies particulièrement puissantes. Tous les fournisseurs de modèles d'IA à usage général doivent documenter leurs systèmes et respecter le droit d'auteur, mais ceux dont les modèles présentent des "risques systémiques" font l'objet d'une attention particulière. Ces modèles avancés, définis notamment par leur puissance de calcul et leur utilisation généralisée, devront être soumis à des évaluations approfondies et des tests d'adversité pour identifier et atténuer les risques potentiels avant leur déploiement. Ces obligations entreront en vigueur en août 2025, laissant un délai relativement court aux entreprises concernées pour adapter leurs pratiques. Un impact transversal sur les acteurs de l'écosystème IA L'IA Act établit des responsabilités différenciées selon la position des acteurs dans la chaîne de valeur de l'intelligence artificielle.Les fournisseurs de systèmes d'IA, qu'ils soient basés en Europe ou non, supportent la majeure partie des obligations réglementaires. Ils doivent notamment garantir la conformité de leurs produits avant leur mise sur le marché européen, mettre en place des systèmes de gestion des risques appropriés et fournir une documentation détaillée permettant d'évaluer cette conformité. Les déployeurs, c'est-à-dire les organisations qui utilisent professionnellement des systèmes d'IA, ont également des responsabilités significatives. Ils doivent notamment assurer une supervision humaine adéquate, utiliser les systèmes conformément aux instructions des fournisseurs et signaler les incidents graves ou dysfonctionnements. Cette répartition des responsabilités transforme profondément les relations entre fournisseurs et clients de technologies d'IA, nécessitant une collaboration renforcée pour garantir la conformité de bout en bout. Des sanctions dissuasives pour non-conformité Le régime de sanctions prévu par l'IA Act témoigne de la détermination européenne à faire respecter ces nouvelles règles. Pour les violations les plus graves, comme l'utilisation de systèmes interdits, les amendes peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial annuel, dépassant même les sanctions prévues par le RGPD. Ces montants considérables, combinés au pouvoir des autorités nationales d'ordonner le retrait du marché des systèmes non conformes, créent un risque financier et opérationnel majeur pour les entreprises qui négligeraient leurs obligations. La conformité à l'IA Act devient ainsi non plus une option, mais une nécessité stratégique. FAQ : les questions clés sur l'IA Ac Quand les différentes dispositions de l'IA Act entreront-elles en vigueur? Février 2025: interdictions et obligations de littératie en IA Août 2025: règles pour les modèles d'IA à usage général Août 2026: application complète pour les systèmes à haut risque Août 2027: fin de la période transitoire pour certains systèmes intégrés Mon entreprise est-elle concernée si son siège est hors d'Europe? Oui, l'IA Act s'applique à toute organisation dont les systèmes d'IA sont utilisés sur le territoire européen ou dont les résultats affectent des personnes situées dans l'UE, indépendamment de la localisation du siège social. Quelles sont les principales étapes pour se mettre en conformité? Inventorier vos systèmes d'IA existants et planifiés Évaluer leur niveau de risque selon les critères de l'IA Act Mettre en place une gouvernance adaptée Former vos équipes aux enjeux de la conformité Adapter vos processus de développement et d'acquisition Documenter rigoureusement vos mesures de conformité Transformer la contrainte en opportunité Au-delà de la simple conformité réglementaire, l'IA Act représente une opportunité stratégique pour les organisations qui sauront s'y adapter rapidement. En développant une expertise en IA responsable et conforme, elles pourront non seulement éviter les sanctions, mais aussi se différencier sur un marché de plus en plus attentif aux questions éthique. Conclusion Cette transformation nécessite d'acquérir de nouvelles compétences et de repenser les processus de développement et d'utilisation de l'IA dans une perspective de "conformité dès la conception" (compliance by design). La formation des équipes aux enjeux techniques, juridiques et éthiques de l'intelligence artificielle devient ainsi un investissement stratégique pour toute organisation souhaitant continuer à innover dans ce nouvel environnement réglementé.Pour vous accompagner dans cette transition et développer les compétences nécessaires, notre formation spécialisée en IntelligenceArtificielle aborde en profondeur les implications de l'IA Act et les meilleures pratiques pour développer et utiliser une IA responsable et conforme. Découvrez notre programme complet ici et préparez votre organisation à exceller dans cette nouvelle ère de l'IA réglementée.

L'entrée en vigueur de l'IA Act européen marque un tournant décisif dans la régulation de l'intelligence artificielle mondiale. Pour les entreprises développant ou utilisant des systèmes d'IA, ce nouveau cadre réglementaire crée des risques sans précédent qui pourraient, s'ils sont mal anticipés, avoir des conséquences dévastatrices. Comprendre ces risques et mettre en place des stratégies efficaces pour y faire face devient une priorité stratégique pour les dirigeants soucieux de pérenniser leur activité dans cette nouvelle ère réglementaire. Vous souhaitez découvrir les nouvelles obligations liées à l'intelligence artificielle en Europe ? Formez-vous gratuitement avec notre micro-formation «Comprendre et anticiper l’IA ACT» Le spectre des sanctions financières L'IA Act introduit un régime de sanctions particulièrement dissuasif, avec des amendes qui dépassent même celles prévues par le RGPD. Pour les infractions les plus graves, comme l'utilisation de systèmes d'IA interdits, les sanctions peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial annuel, selon le montant le plus élevé. Ces sommes colossales représentent une menace existentielle pour la plupart des entreprises, quelle que soit leur taille.Le texte prévoit une gradation des sanctions selon la nature de l'infraction. Les manquements aux obligations principales relatives aux systèmes à haut risque peuvent entraîner des amendes allant jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires . Même la simple fourniture d'informations incorrectes ou trompeuses aux autorités compétentes peut être sanctionnée à hauteur de 7,5 millions d'euros ou 1% du chiffre d'affaires.Ces montants considérables témoignent de la détermination européenne à faire respecter ce nouveau cadre réglementaire et créent une incitation économique majeure à la conformité pour toutes les organisations concernées. L'exclusion du marché européen Au-delà des sanctions financières directes, les autorités nationales de surveillance du marché ont le pouvoir d'ordonner le retrait immédiat des systèmes d'IA non conformes. Pour une entreprise dont le modèle d'affaires repose en partie ou totalement sur ces technologies, l'impact pourrait être catastrophique. Imaginez devoir soudainement cesser de commercialiser votre produit phare sur le marché européen, avec ses 450 millions de consommateurs . Ou pire encore, devoir désactiver un système d'IA intégré à votre infrastructure critique ou à votre chaîne de production. Les conséquences vont bien au-delà des pertes de revenus immédiates et peuvent compromettre durablement la viabilité de votre activité. Pour les systèmes classés à "haut risque", l'obligation de mener des évaluations de conformité avant toute mise sur le marché crée également un risque de retard significatif dans le lancement de nouveaux produits ou services. Ces délais supplémentaires peuvent faire perdre un avantage concurrentiel précieux, particulièrement dans des secteurs où l'innovation rapide est déterminante. La crise de réputation et de confiance Dans un monde où la confiance des clients et partenaires est devenue un actif stratégique, être identifié comme non conforme aux règles éthiques et juridiques en matière d'IA peut causer des dommages réputationnels durables. Les consommateurs sont de plus en plus sensibles aux questions éthiques liées aux technologies numériques. Une étude récente indique que près de 80% des clients européens déclarent qu'ils changeraient de fournisseur si celui-ci était sanctionné pour des pratiques d'IA non conformes. Ce risque est particulièrement élevé pour les services impliquant des données personnelles ou des décisions à fort impact sur la vie des individus. Au-delà du marché grand public, les conséquences peuvent être tout aussi sévères dans les relations B2B. Vos partenaires commerciaux, eux-mêmes soumis à des obligations réglementaires, pourraient reconsidérer leur collaboration avec votre entreprise si vous représentez un risque de conformité pour leurs propres opérations. Dans certains secteurs, notamment les marchés publics, la conformité réglementaire devient même un prérequis pour participer aux appels d'offres. Les perturbations opérationnelles en cascade La non-conformité à l'IA Act peut également provoquer des perturbations opérationnelles majeures au sein de votre organisation. L'interdiction soudaine d'utiliser certains systèmes d'IA peut paralyser des processus critiques qui en dépendent, créant un effet domino sur l'ensemble des opérations. Imaginez devoir abandonner du jour au lendemain votre système automatisé de gestion des talents, votre outil d'analyse prédictive de la demande ou votre solution d'optimisation de la chaîne d'approvisionnement. Sans alternative immédiatement disponible, vous seriez contraint de revenir à des méthodes manuelles moins efficaces ou de développer en urgence des solutions de remplacement conformes. Ces situations de crise mobilisent des ressources considérables et détournent l'attention de l'organisation de ses objectifs stratégiques. Le coût réel de la non-conformité dépasse ainsi largement le montant des amendes potentielles, incluant des pertes de productivité, des coûts de redéveloppement et un impact sur votre capacité d'innovation. Les zones grises juridiques et les risques d'interprétation L'IA Act étant une législation nouvelle et complexe, de nombreuses incertitudes subsistent quant à son interprétation et son application pratique. Ces zones grises créent un risque supplémentaire pour les entreprises, qui peuvent se retrouver en infraction malgré leurs efforts de bonne foi pour se conformer. La classification des systèmes d'IA, notamment dans la catégorie "haut risque", comporte encore des ambiguïtés. Une erreur d'appréciation peut conduire soit à négliger des obligations réglementaires essentielles, vous exposant à des sanctions, soit à mettre en œuvre des mesures de conformité excessives et coûteuses pour des systèmes qui n'y sont pas soumis. L'articulation de l'IA Act avec d'autres réglementations comme le RGPD ou les réglementations sectorielles spécifiques crée également des défis d'interprétation. Dans certains cas, les exigences de ces différents textes peuvent sembler contradictoires, plaçant les entreprises dans une situation délicate où respecter une obligation pourrait potentiellement en compromettre une autre. FAQ : Les points clés de la conformité à l'IA Act Quelles sont les sanctions prévues par l'IA Act ? Jusqu'à 35 millions € ou 7% du chiffre d'affaires pour l'utilisation de systèmes interdits Jusqu'à 15 millions € ou 3% du chiffre d'affaires pour non-respect des obligations principales Jusqu'à 7,5 millions € ou 1% du chiffre d'affaires pour informations incorrectes aux autorités Quelles entreprises sont concernées par cette réglementation ?Toute organisation qui développe, met sur le marché ou utilise des systèmes d'IA dans l'UE, ou dont les systèmes produisent des résultats utilisés dans l'UE, indépendamment de sa localisation géographique. Comment déterminer si mon système d'IA est à "haut risque" ? Un système est considéré à haut risque s'il correspond à l'un des cas d'usage listés dans l'annexe III de l'IA Act (recrutement, éducation, crédit, etc.) ou s'il est utilisé comme composant de sécurité dans un produit couvert par les législations listées en annexe I. Face à ces défis majeurs, les entreprises ont le choix entre subir passivement cette révolution réglementaire ou l'anticiper activement pour en faire un avantage concurrentiel. Voici les stratégies clés pour réussir cette transition. Développer une expertise interne en IA responsable La première étape consiste à développer au sein de votre organisation une véritable expertise en matière d'IA éthique et conforme. Cette compétence stratégique vous permettra non seulement d'anticiper les exigences réglementaires, mais aussi de concevoir des systèmes d'IA intrinsèquement conformes dès leur conception. Cette approche de "compliance by design" réduit considérablement les coûts de mise en conformité a posteriori et minimise les risques juridiques.Elle nécessite une formation approfondie des équipes techniques et managériales aux principes de l'IA responsable et aux spécificités de l'IA Act. Mettre en place une gouvernance de l'IA robuste La conformité à l'IA Act ne peut être assurée par des actions ponctuelles ou isolées. Elle nécessite la mise en place d'une gouvernance structurée de l'IA au sein de votre organisation, avec des processus clairs pour l'évaluation, le développement, l'acquisition et le déploiement de systèmes d'IA. Cette gouvernance doit inclure une définition précise des responsabilités, des mécanismes de surveillance et d'audit, ainsi que des procédures d'escalade en cas d'incident. Elle doit également s'intégrer harmonieusement dans votre gouvernance globale des données et des technologies, en cohérence avec vos autres obligations réglementaires comme le RGPD. La mise en place de cette gouvernance est un projet transversal qui implique de nombreux départements : IT, juridique, conformité, ressources humaines, mais aussi les métiers qui utilisent ou développent des solutions d'IA. Cette approche collaborative garantit que la conformité devient l'affaire de tous et s'intègre naturellement dans les processus existants. Repenser vos relations avec l'écosystème L'IA Act redéfinit les responsabilités des différents acteurs de la chaîne de valeur de l'IA, créant de nouvelles dynamiques contractuelles et partenariales. Les fournisseurs de systèmes d'IA doivent désormais garantir la conformité de leurs produits, tandis que les déployeurs ont la responsabilité d'utiliser ces systèmes conformément aux instructions et d'assurer une surveillance humaine adéquate. Cette nouvelle réalité nécessite une révision approfondie de vos relations avec vos fournisseurs et clients. Les contrats doivent être adaptés pour refléter clairement la répartition des responsabilités en matière de conformité, les garanties offertes et les recours disponibles en cas de non-conformité. Pour les organisations qui développent et utilisent leurs propres systèmes d'IA, la clarification des responsabilités internes est tout aussi importante. Qui est responsable de l'évaluation des risques ? De la documentation technique ? De la supervision humaine ? Ces questions doivent trouver des réponses claires et formalisées. Former et sensibiliser l'ensemble des collaborateurs L'IA Act introduit une obligation explicite de "littératie en IA" pour toute personne impliquée dans le développement ou l'utilisation de systèmes d'IA. Cette exigence, applicable dès février 2025, reconnaît que la conformité ne peut être assurée sans une compréhension minimale des enjeux de l'IA par tous les acteurs concernés. Au-delà de cette obligation légale, la formation de vos équipes représente un investissement stratégique pour garantir que les principes de l'IA responsable sont intégrés dans toutes les décisions relatives à ces technologies. Du développeur au dirigeant, en passant par les utilisateurs métiers, chaque collaborateur doit comprendre les implications de l'IA Act pour son activité spécifique. Notre programme de formation en Intelligence Artificielle répond précisément à ce besoin, en offrant un contenu adapté aux différents profils et niveaux de responsabilité au sein de votre organisation.Accessible ici , il vous permet de développer rapidement les compétences nécessaires pour naviguer avec confiance dans ce nouvel environnement réglementé. Une opportunité de leadership dans l'ère de l'IA responsable L'IA Act représente sans conteste un défi majeur pour les organisations qui développent ou utilisent l'intelligence artificielle. Mais au-delà des risques, cette révolution réglementaire offre une opportunité unique de repenser votre approche de l'IA dans une perspective plus responsable et durable. Les entreprises qui sauront anticiper ces exigences et développer une expertise en IA conforme bénéficieront d'un avantage compétitif significatif. Elles pourront non seulement éviter les sanctions et perturbations liées à la non-conformité, mais aussi se positionner comme des acteurs de confiance dans un marché de plus en plus sensible aux questions éthiques. Cette transformation nécessite d'investir dès maintenant dans le développement des compétences et la mise en place des processus appropriés. Notre formation spécialisée en Intelligence Artificielle vous accompagne dans cette démarche, en vous donnant les clés pour transformer cette contrainte réglementaire en opportunité stratégique.









