Collector
Gitex Arica Morroco 2026/Philippe Beaudoin : « On veut des biais culturels qui nous ressemblent… » | Collector
Gitex Arica Morroco 2026/Philippe Beaudoin : « On veut des biais culturels qui nous ressemblent… »
Fraternité Matin

Gitex Arica Morroco 2026/Philippe Beaudoin : « On veut des biais culturels qui nous ressemblent… »

Intervenant-paneliste au Gitex-Africa Morroco 2026, Philippe Beaudoin, enseignant-chercheur canadien et ancien ingénieur de Google et expert en IA donne son avis dans cet entretien qu’il a accordé à Fratmat.info au Gitex Arica Morroco 2026, sur la construction d’une intelligence artificielle (IA) responsable pour l’Afrique.Comment définiriez-vous une IA réellement « alignée » avec les besoins de l’humanité ?Une IA alignée est une IA qui va être utilisée par des personnes un peu partout, de différentes cultures, de différents milieux. Et chacune de ces personnes-là ont des interactions tous les jours avec des gens autour d'eux. Ces personnes se reconnaissent dans les mêmes valeurs, les croyances communes. Une IA alignée, c'est une IA pour laquelle on a le même ressenti. On a l'impression que cette IA-là, on pourrait la côtoyer au quotidien et on ne serait pas surpris. Ce sont des blagues, des valeurs, des croyances qu'on reconnaît.Pourquoi est-ce important de construire une IA responsable pour l’Afrique ?Il y a de plus en plus de choses qu'on délègue à l'IA. Si on n'a pas une IA qui est responsable et alignée, chacune des décisions qui vont être prises par cette IA-là vont nous ressembler de moins en moins. On va avoir l'impression qu'on a délégué cela à des gens qui ne nous comprennent pas ou à un système qui ne nous comprend pas tel qu'on est. Elle ne comprend pas à notre réalité, notre manière de voir le monde. La vraie importance de construire une IA éthique, responsable, bienveillante, n'a rien à voir avec le fait que cela va sauver l'humanité ou pas. C'est juste que cela ne vas pas être une IA qui opère correctement dans le milieu dans lequel on veut le voir opérer, notre pays, notre juridiction, etc.L’Afrique peut-elle développer une souveraineté en intelligence artificielle ?La réponse c'est oui. Il faut regarder la souveraineté à plusieurs niveaux. Naturellement, il n'y a pas d'IA sans centre de données, sans énergie pour les faire fonctionner. Il n'y a pas d'IA sans données. Tout cela, on sait qu'on en a besoin. Pour moi, c'est des aspects de langue, mais surtout de culture. Donc, une IA qui va parler de notre langue, oui. Mais une IA qui va respecter notre culture. On a besoin de cela pour être souverain, de s'assurer que ça existe. Parfois, on peut penser que c'est tellement compliqué de créer une grosse IA. Et que, c’est seulement de grandes compagnies américaines qui peuvent le faire. Mais la vérité, c'est que de plus en plus, on est capable de créer l'IA par une couche.C'est-à-dire ?C'est-à-dire avoir une couche d'entraînement qui serait plus générique, mais dans laquelle la culture n'existerait pas. Ce serait que la connaissance de la langue. Et les couches supérieures qu'on ajoute par la suite, avec quelque chose qu'on appelle du post-training en anglais, de l'entraînement postérieur. Toutes ces couches-là, on peut les faire en Afrique. Ce n'est pas si goûteux que ça. Si on se met ensemble pour créer les couches fondamentales, par exemple avec des modèles open source, des modèles à code source ouvert ou à données ouvertes, pour nous permettre de créer cette espèce d'IA unifiée-là. On viendra spécialiser avec nos croyances, nos cultures, notre manière d'être dans le monde par la suite. De cette manière-là, l'Afrique peut créer des IA supérieures.Comment éviter que les biais des données dans l’IA reproduisent ou aggravent certaines inégalités en Afrique ?Dans un premier temps, il faut savoir que les biais algorithmiques désignent les erreurs systématiques et répétitives dans les systèmes d'intelligence artificielle (IA) qui produisent des résultats injustes, discriminatoires ou préjudiciables, favorisant certains groupes au détriment d'autres. Ce problème majeur de l'IA survient lorsque les modèles apprennent à partir de données non représentatives ou reflétant des préjugés humains, sociaux ou historiques.Ce qu'on sait aujourd'hui par la technologie, c'est que ces biais-là peuvent finir par disparaître tranquillement avec l'entraînement postérieur, avec le post-training. C'est que, les données qu'on va collecter sur Internet servent essentiellement à créer la couche de compréhension du langage. Il y a des biais qui viennent de cela. Mais ils sont corrigés par la suite avec des interactions que les entraîneurs vont avoir avec l'IA. Mais toutes ces interactions-là permettent de créer une IA où il n'y a pas de biais. Décider, c'est avoir des biais. Dans sa beauté, dans sa richesse, dans sa diversité. On veut des biais culturels qui nous ressemblent. Et ça, ça se fait dans la phase de post-training.Est-ce que c'est cher de créer une IA ? C'est en fait ce qu'on veut vous faire croire d'une certaine manière. Ce que les grandes entreprises américaines veulent vous faire croire. C'est tellement cher. C'est tellement complexe. Ne le faites pas. Laissez-nous le faire. Je vous dirais de ne pas vous laisser jeter la poudre aux yeux par des gens qui nous disent que c'est trop cher. Mais de réaliser qu'on peut le faire en partie. On peut surtout se regrouper. L’intérêt des pays africains, ou même des pays en Europe, c'est de créer cette base commune-là sur laquelle on va pouvoir créer des IA qui nous ressemblent.Entretien réalisé à Marrakech au Maroc

Go to News Site