Ils ne sont ni hors du temps, ni sans talent. Mais souvent, hors du système.
Ces jeunes marocains sans diplôme, dont les trajectoires sont invisibilisées, assistent à la montée en puissance de l’intelligence artificielle avec autant de fascination que d’inquiétude.
Entretien avec Abdeljalil Sadik, consultant en stratégie et gouvernance des systèmes d’information et expert en cybersécurité et IA.
FNH : En quoi l’IA peut-elle devenir un partenaire de travail plutôt qu’un substitut ?
Abdeljalil Sadik : Il faudrait définir ce qu’est l’IA. Il s’agit d’un domaine de l’IT qui vise à créer des systèmes capables d'effectuer des tâches généralement associées à l'intelligence humaine. En d’autres termes, un ensemble de technologies qui permettent aux machines de simuler des fonctions cognitives humaines, avec des applications qui vont des chabots aux véhicules autonomes, en passant par l'analyse de données complexes. Cela étant, il faut cesser d’opposer l’humain à la machine. L’IA, dans ces versions actuelles, n’est pas là pour remplacer, mais pour augmenter les capacités humaines, si nous en faisons un outil d’appui, et non de soumission. Ce qui m’intéresse, c’est ce que j’appelle l’intelligence augmentée, c’est-à-dire une IA qui aide à structurer une idée, à tester une hypothèse, à éclairer une décision. Pas une IA qui décide à notre place, sans explication. Aujourd’hui, l’IA peut nous libérer des tâches répétitives, faciliter l’apprentissage et surtout élargir l’accès au savoir. Mais ce qu’elle ne peut pas faire et ne fera jamais, c’est penser avec discernement, écouter, comprendre une nuance sociale ou un non-dit. C’est pourquoi je défends une approche «Human in the loop» : l’IA assiste mais l’humain garde toujours le dernier mot.
FNH : Quels usages concrets peuvent aider les jeunes à mieux apprendre, créer ou se projeter ?
A.S : Il y a des usages très simples, mais très puissants, qui peuvent changer la donne pour des jeunes éloignés du système classique.
Des simulateurs d’entretien, des outils de rédaction assistée, des plateformes d’orientation, des générateurs de pitch, de logos, d’idées d’activité… Ce sont des leviers de projection pour ceux qui doutent encore d’eux-mêmes. Mais pour que l’IA serve réellement ces jeunes, il faut les former à s’en servir avec esprit critique. Sinon, on risque de créer une nouvelle dépendance, ou de renforcer les écarts. L’IA doit être une rampe d’élan, pas un écran de plus. J’aime dire que «l’IA peut ouvrir des portes, mais c’est à nous de construire les passerelles» : humaines, pédagogiques, culturelles.
FNH : Comment garantir un usage éthique, sûr et équitable de l’intelligence artificielle ?
A.S : L’éthique de l’IA, ce n’est pas une abstraction. C’est une question concrète de justice sociale. Prenons l’exemple des ATS, ces logiciels de tri de CV ou des algorithmes de notation de freelances. S’ils ne sont pas encadrés, ils reproduisent des biais invisibles, parfois violents : un prénom, une adresse, un parcours atypique suffisent à écarter une candidature. Amazon l’a expérimenté. D’autres plateformes le pratiquent encore. Ce que je défends, c’est une IA transparente, explicable, contrôlable. Une IA dont on connaît les critères. Une IA que l’on peut corriger. Et pour cela, il faut un cadre réglementaire fort, à l’image de ce qui se fait en Europe, avec une classification par niveau de risque et des sanctions claires. Mais cela ne suffit pas. Il faut aussi penser l’équité dès la conception. Impliquer des juristes, des sociologues, des éducateurs. Ne pas coder hors-sol. C’est le principe de l’IA inclusive by design, voire IA design by inclusion.
FNH : Quels débouchés numériques ou cyber pour les jeunes sans diplôme ?
A.S : Il faut repenser la compétence. Beaucoup de jeunes savent déjà coder, créer des visuels, modérer des espaces numériques, assurer un support technique. Mais ils ne trouvent pas leur place, faute de validation, faute de ponts. Je reste persuadé que l’on peut créer des écosystèmes d’opportunités accessibles comme les micro-services numériques, les coopératives locales, les plateformes d’auto-formation certifiante et les badges validés par des professionnels. Il faut valoriser ces compétences comme des voies d’avenir dans la cybersécurité, la maintenance informatique, l’accompagnement technique ou la création de contenu. Ce sont des métiers concrets, utiles et évolutifs. Encore faut-il que le système les reconnaisse et les structure. L’intelligence artificielle ne doit pas seulement servir la performance, elle doit devenir un outil de justice et de lien, c’est en tout cas, ma conviction. Là où nous pourrions percevoir dans l’IA une promesse discrète celle de rendre visibles les talents que l’institution ne voit plus, aucune technologie ne remplace la présence humaine. L’IA ne peut se révéler que si elle s’inscrit dans une relation vivante, enracinée dans la confiance et le lien. La machine peut suggérer, simuler mais c’est l’humain qui accueille, relie et fait exister. Par ailleurs, l’inclusion ne se décrète pas, elle se structure et se planifie. Si l’IA ne doit pas rester un outil réservé à une élite technicienne, il faudra revaloriser les compétences pratiques, assouplir les certifications, et ancrer la formation dans les réalités des territoires. Cela étant, pour finir, j’alerte sur un autre risque, celui d’une IA dépolitisée, livrée aux logiques de marché ou à des algorithmes opaques. Je plaide pour une gouvernance clairvoyante, une régulation ferme, une souveraineté numérique assumée. Une IA sans transparence est une IA dangereuse. L’équité doit se penser dès la première ligne de code. L’heure n’est plus aux constats, mais elle est à la stratégie et à la capacité de faire dialoguer technologie, éthique et inclusion.