Découvrez nos formations en alternance, 100% financées. - Je postule !
Retour à tous les articles

20 juin 2024

Introduction à l'IA : biais, inclusion & mixité

Manon Roux - Ironhack France

Intelligence Artificielle

Aujourd’hui, seulement 12% des chercheurs en IA dans le monde et 6% des développeurs de logiciels professionnels sont des femmes. Pourtant l'IA est notre futur à TOUS et à TOUTES et si ne nous voulons pas accentuer les biais déjà présents dans notre société il est important d'en prendre conscience au plus vite. C’est pour cette raison que nous plaçons le premier événement de notre semaine dédiée à l’IA, sous le signe de l’inclusion et de la mixité.

Camille Morvan est experte en sciences cognitives, Laura Bokobza est Sparring Partner en freelance et Daniella Tchana, fondatrice de STEM4ALL, une association qui agit pour la mixité et l'inclusion dans les métiers des sciences et technologies. Elles vous parlent des enjeux d’un secteur qui se doit d’être plus inclusif et vous partagent comment elles y participent au quotidien !

Sommaire

Types d'IA :

  • L'IA générative est capable de créer du nouveau contenu de manière autonome tels que des textes, des images, des vidéos, des sons et d'autres types de données.

  • L'IA prédictive fait référence à l'utilisation de l'apprentissage automatique pour identifier des logiques dans des données existantes et faire des prédictions sur les événements futurs.

Contexte historique et avancées :

  • L'IA a des racines qui remontent aux années 1950.

  • Des avancées significatives comme le développement des transformers par Google ont conduit aux capacités modernes de l'IA.

Biais et défis :

  • Les modèles d'IA peuvent reproduire et même exacerber les biais humains présents dans les données d'entraînement.

  • Corriger ces biais est complexe, et les tentatives de forcer la diversité dans les sorties de l'IA peuvent parfois conduire à des inexactitudes.

Importance de la diversité dans l'IA :

  • Augmenter la représentation des femmes et des personnes de couleur dans le développement de l'IA est crucial pour réduire les biais.

  • La diversité dans les équipes conduit à des modèles d'IA plus précis et plus représentatifs.

Impact sociétal de l'IA et responsabilité :

  • L'IA reflète les structures et les biais de la société, et les aborder nécessite un changement sociétal général.

  • L'utilisation collective de plusieurs systèmes d'IA peut aider à atténuer les biais individuels, mais une vigilance continue et des considérations éthiques sont nécessaires.

Table ronde: Introduction à l'IA : biais, inclusion & mixité

Manon Roux

Bonjour à tous et à toutes, j'espère que vous m'entendez bien, merci beaucoup d'être là et désolée pour le tout petit retard.

Je suis Manon, je suis en charge du marketing chez Ironhack et j'organise toute cette semaine de l'IA. Je vous ai réservé un programme et un line-up très sympa pour cette semaine, donc j'espère que vous serez présents au fur et à mesure de la semaine. Et surtout, aujourd'hui, je suis accompagnée de Laura, Daniela et Camille qui vont répondre à toutes vos questions et partager leurs expériences et leurs savoirs sur ce passionnant sujet qu'est l'IA.

Donc peut-être, si chacune, vous pouvez vous présenter en quelques mots. La première à gauche de mon écran, c'est Laura. Laura, est-ce que tu peux nous dire un petit mot sur toi, s'il te plaît ?

Laura Bokobza

Bonjour à toutes et tous, je suis Laura Bokobza, je suis sparring partenaire de dirigeant après une grosse carrière en corpo. Et mon lien avec l'IA, c'est que ça fait trois ans que je suis l'administratrice indépendante de Flint Media qui fait de l'IA dans l'information et la désinformation.

Manon Roux

Super, merci Laura. Camille, est-ce que tu peux te présenter, s'il te plaît ?

Camille Morvan

Oui, bonjour à tous, bonjour à toutes.

Donc moi, je suis Camille Morvan, j'ai fait dix ans de recherche en sciences cognitives et neurosciences. Donc j'ai passé ma thèse au Collège de France. Après, j'ai travaillé dans différentes facs, dont Harvard.

J'ai travaillé sur la prise de décision et les biais cognitifs dans mon travail de recherche. Et ensuite, pendant dix ans, j'ai fondé et dirigé une société qui s'appelle Goshaba, qui fait de l'évaluation des soft skills à travers des jeux vidéos cognitifs. Et je suis aujourd'hui, du coup, chairman de cette société, donc je ne suis plus à temps plein.

Et mon lien avec l'IA, c'est que pendant ma thèse, j'ai fait du machine learning, qui à l'époque ne s'appelait pas IA, mais bon, voilà, j'ai fait du machine learning. Et au sein de Goshaba, on a développé des outils cognitifs et des outils d'IA pour tester les soft skills. Voilà, merci de l'invitation.

Manon Roux

Merci, Camille. Et Daniela, tu nous dis quelques mots sur toi, s'il te plaît.

Daniela Tchana

Oui, je suis Daniela Tchana. Moi, à la base, j'ai un doctorat en mécanique et nanotechnologie, mais puis je me suis lancée dans tout ce qui est adaptive learning, lorsque j'ai lancé Bismarck Edu, pour faciliter l'apprentissage personnalisé et concevoir en fait des algorithmes pour faciliter la transmission, en fait, d'une pédagogie plutôt inversée et une pédagogie adaptée à l'étudiant. Et entre autres, j'ai fondé STEM4All, qui est une association pour promouvoir les métiers de STEM, sciences, technologies, enginnement et mathématiques, auprès des jeunes filles et des femmes et des personnes de QPV.

Donc voilà, je baigne un peu dans tout ce qui est IA, mais également tout ce qui est nouvelles technologies depuis plus de 10 ans. Voilà.

Manon Roux

Merci beaucoup à toutes les trois. Je voulais vous introduire rapidement Ironhack pour ceux et celles qui ne connaissent peut-être pas encore. Donc Ironhack, on est une école de tech internationale qui a été fondée il y a plus de dix ans et l'objectif c'était vraiment de pouvoir former des personnes en reconversion professionnelle aux métiers de la tech en leur donnant des compétences techniques via des formations intensives de trois mois. Aujourd'hui, on est présent à Paris où on a notre campus mais aussi dans pas mal d'autres pays en Europe et aux États-Unis et puis on a des formations aussi 100% en ligne.

Il ne suffit pas d'être un homme jeune, blanc et geek pour se lancer dans la tech. On veut montrer que toute personne peut avoir accès au métier de la tech que ce soit entre 18 et 65 ans mais évidemment aussi les femmes puisqu'on a plus de 55% de nos étudiants qui sont des femmes et on en est très très fiers. Et évidemment, il n'y a pas forcément de prérequis non plus.

Nous, on forme vraiment des personnes qui sont débutantes sur ces sujets pour que chacun et chacune puisse avoir l'opportunité de lancer sa carrière dans ce secteur. Donc aujourd'hui, on a des formations en développement web, en UX/UX design, en data analysis et en cybersécurité.

Et dernièrement, on a lancé aussi trois nouvelles formations en Data Science et Machine Learning, IA Engineering, DevOps et Cloud Computing. Et on a également ouvert justement une école dédiée à l'IA avec des formations plus courtes pour les personnes qui souhaitent intégrer l'IA dans leur métier.

Ce sont des cours 100 % en ligne, pour l'instant 100 % en anglais, avec des formations de 6 à 8 semaines en 30 à 40 heures et juste le soir, pour permettre à n'importe quel professionnel de se perfectionner sur ces sujets.

En tout cas, on va dès à présent rentrer dans le vif du sujet, en commençant par la première question qui est évidemment, mais qu'est-ce que l'IA et depuis quand existe-t-elle ?

Laura Bokobza

Merci beaucoup Manon.

L'IA c'est plus vieux que moi et j'ai 51 ans.

Donc on a toujours ce fantasme que ça vient d'arriver, parce que c'est effectivement le grand public qui a entendu parler d'IA générative assez récemment, fin 2022 avec le lancement de Chat GPT et l'adoption massive de Chat GPT, mais en fait l'IA ça a commencé dans les années 50.

Et je vais en profiter, je suis sûre que Camille aura plein de choses à rajouter sur le sujet, mais pour rappeler que le terme intelligence dans Artificial Intelligence, puisque l'IA c'est la traduction littérale en français d'un terme anglo-saxon, c'est l'intelligence, non pas l'intelligence en raison, mais l'intelligence en fait de la veille, comme dans la CIA, l'agence centrale d'intelligence aux États-Unis, qui est l'agence des espions en fait. Donc on n'est pas du tout sur l'intelligence de raisonnement comme nous on peut l'entendre en français, on est sur l'intelligence plus de veille.

Et c'est vraiment important de comprendre cette différence, parce qu'on associe vraiment ça au raisonnement, alors que ce n'est pas du tout le cas. Donc depuis les années 50, évidemment, il y a eu beaucoup d'avancées, je voulais juste mentionner quand même la grosse avancée entre 2008 et 2010, avec un papier de recherche, un document de recherche qui a été publié, un article par 8 personnes de Google, qui a parlé des transformers, avec le modèle Generative Pre-Train Transformer, qui a donné naissance à l'acronyme GPT, que maintenant on connaît tous.

Et donc c'était des modèles, c'était les prémices en fait des modèles qui permettaient de générer du contenu de haute qualité dans différents domaines, donc langage, musique, images, comme on voit maintenant, mais qui ont permis vraiment de cette percée de l'IA générative, puisqu'il y a beaucoup plus que l'IA générative. Mais je suis sûre que Camille tu veux rajouter, tu as des choses à rajouter sur le sujet.

Camille Morvan

Oui, déjà merci pour ce début de définition, c'est intéressant. Je ne vais pas en parler de trois plombes non plus, mais en gros, ce que je voudrais dire sur la définition de l'IA, c'est que comme c'est un terme qui renvoie à des techniques, on pourrait avoir tendance à croire que c'est presque une science, comme s'il y avait une définition à l'intelligence artificielle, comme s'il y avait un début, une fin, et quelque chose de très bien identifié. Et je voulais juste dire que ce n'est pas le cas, parce qu'en fait le terme d'intelligence artificielle, c'est plus un terme quasiment marketing, qui va regrouper tout un tas de techniques à une époque donnée.

Donc quelque chose qui était considéré comme l'intelligence artificielle en 1990, ne le sera pas forcément en 2020 ou en 2050.

Et donc là, je te rejoins aussi Laura, sur le fait qu'il y a, on va dire, des aspects techniques de l'intelligence artificielle, et après il y a la façon dont l'intelligence artificielle est représentée dans, on va dire, dans le grand public. Et justement, il y a cette confusion, par exemple, sur le terme d'intelligence.

C'est qu'évidemment, dans le grand public, quand on utilise le mot intelligence artificielle, on comprend quelque chose qui est intelligent et qui est artificiel, et en fait ce n'est ni l'un ni l'autre. D'une part, ce n'est pas intelligent, sauf effectivement, Laura, au sens où tu le dis, éventuellement de Veil. Et ce n'est pas non plus artificiel, dans le sens où en fait, ce qui tombe aujourd'hui sous l'ombrelle de l'intelligence artificielle, c'est des technologies qui sont énormément supervisées par des êtres humains.

Donc, voilà, je voulais dire ça. Après, je pense qu'on peut, sans trop, voilà, par rapport à l'histoire, on peut dire que depuis 1950, il y a eu différentes vagues, différentes vagues par rapport à l'intelligence artificielle, avec des vagues d'optimisme, mais aussi des vagues de déception.

Et notamment, il y a eu ce qu'on appelle l'hiver de l'intelligence artificielle, le AI winter, pendant lequel il y a eu très peu de choses qui ont avancé. Voilà, donc je voulais juste dire,

l'intelligence artificielle, c'est un terme marketing, ce n'est pas un terme scientifique.

Il y a des choses qui sont considérées comme de l'intelligence artificielle à un temps donné qui ne le seront plus demain. Et ce qu'on appelle aujourd'hui l'intelligence artificielle qu'on a tous dans nos téléphones, c'est, par exemple, le traitement de texte, c'était considéré au moment de sa création comme de l'intelligence artificielle. Le fait qu'on utilise Google Maps, Google Maps, c'est de l'intelligence artificielle.

Alors, ce qu'on peut dire si on veut trouver une espèce de définition, moi ce que j'ai trouvé, c'est qu'il y a en gros deux principes, c'est l'autonomie et le fait d'être adaptable. L'autonomie et l'adaptabilité. Moi je mettrais ça dans les deux éléments clés de l'intelligence artificielle.

Manon Roux

Super. Daniela, est-ce que tu veux compléter un peu, s'il te plaît ?

Daniela Tchana

Je rejoins, je rebondis en fait sur la dernière phrase qu'on venait d'avoir, adaptabilité et entraînement, parce que comme je travaille beaucoup avec les jeunes, j'ai l'habitude de leur dire que l'IA, en fait, c'est un programme informatique qui imite l'intelligence humaine. Et pour être assez simple, on leur dit, en tant qu'humain on sait quoi, on sait parler, on sait écrire, on sait calculer, on sait jouer, on sait conduire, on sait traduire, on sait analyser, on sait dessiner, mais en fait, une IA, ce programme informatique apprend à faire toutes ces choses-là. Et c'est ce que je peux appeler d'IA avec les plus jeunes.

Et comparé à d'autres programmes informatiques classiques, on peut dire que son avantage, l'avantage principal de l'IA, c'est qu'elle peut s'entraîner, elle peut s'améliorer en étant entraînée avec l'humain. En s'entraînant, elle peut s'améliorer, elle peut s'adapter. Donc voilà ce que je peux rajouter sur ce qu'on vient d'entendre sur la définition de l'IA.

Manon Roux

Merci à toutes les trois. Je pense qu'au moins ça met un bon cadre à ce qu'est l'IA et de quoi on parle quand on appelle l'IA. Je pense que, je ne sais pas si vous voulez peut-être un tout petit peu préciser, on entend différents termes, que ce soit IA prédictive, IA générative.

Est-ce qu'on peut préciser un tout petit peu ces termes-là peut-être ? Est-ce qu'il y en a une qui veut préciser ça ?

Laura Bokobza

Oui, je peux là-dessus préciser.

L'IA générative, c'est celle dont on entend tous parler, c'est ChatGPT, c'est Suno, c'est Mid-Journey, ça va donc générer en fait quelque chose sur la base de données d'entraînement et sur la base d'une instruction qu'on appelle prompt en IA.

Donc on va donner une instruction à l'IA pour qu'elle génère quelque chose qui n'existait pas avant.

L'IA prédictive, c'est une intelligence artificielle, donc avec tous les guillemets qu'on a mis sur les mots intelligence et artificielle, c'est beaucoup du machine learning comme l'a évoqué Camille.

Donc en fait, ça va te permettre, par exemple, sur la maintenance des ascenseurs, sur la lecture d'une radio, des diagnostics médicaux, ça va permettre de tirer des conclusions à partir d'informations que tu donnes à cette IA, ça va tirer des conclusions en se basant sur tout l'entraînement qu'elle a eu qui peut être évidemment bien plus important que l'entraînement que peut avoir un humain. On a vu des avancées assez importantes sur l'IA prédictive, par exemple, dans le domaine de la santé, avec une précision et une justesse de diagnostics posés par l'IA sur de la lecture de radio, par exemple, de mammographie pour les cancers du sein.

Mais ça permet aussi de dire, attention, l'ascenseur va tomber en panne dans une semaine, envoyez un technicien avant que ce soit le cas. Donc là, ça a vraiment des applications hyper concrètes.

Manon Roux

Super. Merci beaucoup pour ces précisions. Camille, en intro, justement, tu parlais du fait que tu avais travaillé sur les biais.

Je pense que les biais, c'est quelque chose dont on entend beaucoup parler aussi dans les médias. À la fois, ça génère beaucoup de questions et peut-être d'espoir aussi. Comme tu le dis, Laura, il y a beaucoup de possibilités qui vont arriver, mais aussi peut-être pas mal de peurs et le besoin de justement bien comprendre quelles en sont les limites.

Est-ce que, Camille, tu peux nous expliquer un peu ce qu'on entend le mot biais et, quand, c'est associé à l'IA, à quoi on fait référence ?

Camille Morvan

Merci beaucoup, Manon, pour la question. Donc, je... Je vais commencer par qu'est-ce que c'est qu'un biais de manière générale ?

Parce que c'est un terme mathématique, en fait, le biais. Ensuite, je parlerai rapidement des biais cognitifs parce que finalement, c'est une bonne façon de comprendre ce qui existe après comme biais algorithmique en IA. Donc, ce qu'on appelle un biais, le terme mathématique du biais, c'est une déviation systématique par rapport à la moyenne.

Donc, si vous imaginez, par exemple, si on prend la taille moyenne... Si on prend la taille des individus en France, on va avoir une courbe en cloche, comme ça, avec très peu d'individus qui sont très petits, très peu d'individus qui sont très grands, beaucoup d'individus qui sont autour de la moyenne ou de la médiane. Donc, vous voyez cette courbe en cloche, là ?

C'est vraiment... Cette courbe en cloche, c'est le modèle mathématique qui capture la grande majorité des phénomènes naturels. Donc, on a une courbe en cloche qui est centrée autour d'une moyenne.

Ce qu'on appelle un biais, c'est quand... Imaginons, par exemple, ma perception de la taille des gens. Si j'ai un biais où je pense que les gens sont plus petits que ce qu'ils ne sont réellement, dans ma tête, cette cloche, elle va être décalée de quelques centimètres.

Un biais, c'est ça. C'est toujours ça, en termes mathématiques.

C'est toujours une déviation systématique par rapport à la moyenne.

Donc, une déviation, ça veut dire qu'il y a un écart. Systématique, ça veut dire que c'est toujours le cas. Et dans la notion de biais, l'écart, il est toujours dans la même direction.

Donc, si mon biais à moi, c'est de croire que les gens sont plus grands que ce qu'ils ne sont, j'aurai toujours un biais dans le sens de les gens sont plus grands, et ça sera toujours ce biais-là. Donc, ça, ça m'amène très naturellement au biais cognitif. Donc, les biais cognitifs, c'est tous ces moments où les êtres humains, quand ils jugent les autres ou quand ils jugent leur environnement, vont avoir une déviation systématique.

Bon, par exemple, une déviation systématique, ça va être, si je vous demande quel est l'animal domestique le plus répandu en France, est-ce que c'est le poisson, est-ce que c'est l'oiseau ou est-ce que c'est le chien, globalement, les gens vont dire l'animal domestique le plus répandu, c'est le chien. En fait, c'est pas le chien, c'est le poisson, et il y a beaucoup, beaucoup, beaucoup plus de poissons que de chiens comme animal domestique. Mais c'est un biais qu'on a parce qu'on voit beaucoup plus de chiens.

Donc ça, c'est un biais cognitif, c'est parce qu'on voit quelque chose plus souvent, on va avoir tendance à croire que cette chose que l'on voit plus souvent est plus fréquente.

Et on voit bien que c'est une erreur de jugement, puisqu'on ne voit pas tout. On n'est pas Dieu, donc on ne voit pas dans la Terre, on ne voit pas dans le ciel, on ne voit pas derrière les murs, etc.

Donc ça, c'est le biais cognitif. Le biais cognitif, donc, il va, alors il est présent sur plein de trucs, comme je pense que tout le monde le sait, il y a beaucoup, beaucoup de biais cognitifs. Donc bon, si jamais il y a des questions, n'hésitez pas, on peut en parler.

Les biais cognitifs et l'illusion de la rationalité humaine

Manon Roux

Je pense que c'est intéressant ce que tu dis, par exemple, je ne sais pas si pour que les personnes du public se rendent compte, je ne sais pas si par exemple quand vous découvrez une nouvelle information et après vous avez l'impression de la voir partout.

Laura Bokobza

Et c'est d'ailleurs un des rares biais qui portent le nom d'un groupe terroriste. C'est assez amusant ce biais Baddour Meinhof, il est génial, mais ça arrive à tout le monde, tu réfléchis à une voiture, tu veux changer de voiture, tu te renseignes sur une voiture et tu vas l'avoir partout dans la rue en fait, alors que tu ne faisais pas gaffe avant. C'est clairement les biais cognitifs, nous en sommes tous.

Camille Morvan

Effectivement, le truc qui est intéressant en fait, si on regarde l'histoire des idées et l'évolution des idées les plus présentes à une époque donnée, l'époque dans laquelle on vit nous, par rapport par exemple au XVIe siècle, l'époque dans laquelle on vit actuellement, on croit que l'être humain est rationnel, et donc on s'étonne que puisque nous sommes rationnels, nous ayons des biais.

En fait, c'est exactement l'inverse. L'être humain n'est pas rationnel et le biais est la norme.

C'est un peu le problème de l'humanité, c'est de croire qu'on est très intelligent et qu'on peut tout contrôler. C'est faux.

C'est juste ce à quoi on est extrêmement doué par rapport aux autres animaux, c'est à se raconter des histoires.

Et en fait, on est super fort pour se raconter des histoires et les croire. Et parmi les choses qui font qu'on est très fort pour se raconter des histoires, il y a le biais que tu viens de décrire, par exemple, qui est génial. Tu vois, par exemple, tu as des personnes qui voient des liens entre tout, tout le temps.

Tous les trucs complotistes, c'est ça. C'est la capacité humaine à créer des liens entre des trucs qui n'en ont pas et à se raconter des histoires à dormir debout. Ça, c'est vraiment une capacité humaine.

On est tellement fort à ça que les histoires à dormir debout qu'on a inventées, elles sont devenues réelles. Par exemple, l'argent ou les frontières. Je pense qu'il faut vraiment voir le biais cognitif plutôt comme la norme.

Et pour plein de raisons idéologiques de notre époque capitaliste, on a besoin de croire que l'être humain est un individu rationnel. Voilà, donc on prend le problème à l'envers. Et alors ça, ça nous amène au biais algorithmique.

Comme généralement l'intelligence artificielle d'une manière ou d'une autre récupère du feedback pour apprendre et que ce feedback que l'intelligence artificielle utilise pour apprendre, ça vient de données. Soit c'est nourri par quelqu'un, soit ça vient de données qui sont présentes sur Internet. Mais en tout cas, ça se nourrit de données qui sont elles-mêmes générées d'une façon ou d'une autre par des êtres humains.

Et donc comme l'être humain est biaisé, l'IA va être biaisé.

Daniela Tchana

Merci. Si je peux reprendre. Effectivement, sur les biais algorithmiques, les données utilisées pour former les modèles ne sont pas généralement représentatives de la population générale.

Ce qui fait en sorte que le modèle peut être mal formé sur des groupes sous-représentés. Et on a tous ces biais qui sont créés. Ces discriminations, si on peut utiliser le terme, qui sont créées par l'IA.

Et si on prend, par exemple, l'exemple qui a été assez connu, c'était quand on prend par la reconnaissance faciale entre un homme et une femme et les personnes de couleur et les personnes blanches. En fait, très vite, on se rend compte qu'aujourd'hui,

si vous regardez la majorité des banques d'images, ce sont des banques d'images qui contiennent une grande représentation d'hommes blancs.

Ce qui fait en sorte que l'algorithme a à la fois plus de données d'hommes blancs pour lui permettre de mieux apprendre et il est également incité à être meilleur sur cette population-là que quand on lui pose des questions sur une femme noire ou encore sur une jeune étudiante ou jeune fille noire.

Il aura beaucoup plus de mal parce que les données qui sont le plus centrées ne sont pas des données qui représentent cette catégorie de personnes.

Laura Bokobza

Je vais même aller plus loin par rapport aux exemples que tu donnes, Daniela, pour aller dans ton sens. Un des premiers essais de machine learning, je vous parle de ça, c'était il y a une petite dizaine d'années, Amazon a voulu utiliser des algorithmes pour leur permettre de trier des CV de gens qui postulaient pour entrer chez Amazon mais les données d'entraînement, c'étaient les salariés d'Amazon. Comme dans les salariés d'Amazon, il y avait beaucoup d'hommes.

L'outil, je vais appeler ça une IA, mais avec tous les guillemets qu'on a mis depuis le début de cette table ronde, l'outil éliminait systématiquement toutes les femmes. Ils ont discontinué cet outil, il n'a été mis en place que quelques semaines. On a eu la même problématique avec les crédits Apple qui ne donnaient pas de crédit aux femmes, même si elles gagnaient plus d'argent que leur mari, qui a attribué systématiquement les crédits aux hommes, etc.

Il y a aussi la reproduction de nos biais dans les données d'entraînement, pas seulement parce qu'il y a plus de données disponibles, mais aussi parce que la façon dont les humains ont agi pendant tout ce temps-là avant qu'on ait les outils, il y avait des biais dans l'humain comme l'a très justement dit Camille.

Manon Roux

Je pense que là vous marquez un point et alors moi la question que je me pose maintenant, c'est à la fois quand on parle de mathématiques, Camille, on sait que quand je pense à l'IA, je me dis que c'est exponentiel. Et donc oui, quand on se dit que plus on donne à « manger » un algorithme, plus il va potentiellement générer des données, etc.

Donc là, moi je me dis tout de suite déjà si de base les données sont biaisées, à quel point justement le fait d'utiliser de la technologie et le fait d'utiliser l'IA, ça va sur-représenter des biais de base ? Est-ce que ça on a une idée ? Est-ce qu'il y a un impact ?

Ou justement pas du tout ?

Camille Morvan

Je pense que… Je ne sais pas si j'ai bien compris ta question. Je vais démarrer après et tu me diras si c'est ça que tu voulais dire.

Moi, ce que ça m'évoque, ta question, c'est le fait que, en fait, quand on parle d'IA, en fait, souvent, le but recherché, me semble-t-il, c'est de l'automatisation. Sur tout ce qui peut être fait avec l'intelligence artificielle, il y a des artistes qui l'utilisent, par exemple, des écrivains, des chefs d'entreprise, etc. Comme c'est un outil, c'est un outil comme tout autre outil, si on prend l'écriture, avec l'écriture, tu peux à la fois écrire des poèmes, écrire des comptes rendus médicaux, ou écrire des déclarations de guerre, ou des protocoles de torture.

Donc, en fait, si on prend l'IA, si on prend l'exemple de l'écriture, la métaphore de l'écriture, avec l'IA, on va pouvoir faire toutes sortes de choses. Et je pense que selon le but dans lequel on utilise cette technologie, on va percevoir l'IA différemment, on va découvrir de nouvelles fonctionnalités de l'IA, potentiellement, il y aura des dangers dans un cas qu'il n'y aura pas dans un autre, etc. Alors, par rapport à ta question, je pense que ce qui est sous-jacent à ta question, c'est que comme on est dans un système capitaliste où un des objectifs principaux, enfin en tout cas, un des objectifs des entreprises, c'est de gagner de l'argent.

Donc souvent, l'investissement qui va être fait dans l'IA, il est fait par des entreprises. L'objectif de ces entreprises, c'est de gagner de l'argent. Donc en fait, là où l'IA a un spectre d'utilisation très très vaste, en fait, ça va être utilisé sur un truc assez précis qui est automatiser des trucs pour que ça coûte moins cher.

Souvent, ça va être ça. Donc soit automatiser des trucs, soit remplacer des gens. Mais là, tu ne parlais pas de remplacer des gens, je pense que tu parlais vraiment de l'automatisation.

Donc, les entreprises, pour mille raisons, vont vouloir utiliser de l'IA pour faire des choses plus vite et moins cher.

Et donc là, le problème des biais devient hyper présent. C'est-à-dire que, puisque on cherche à automatiser, ça veut dire que quelque chose qu'on faisait une fois par jour, d'un coup, on va pouvoir le faire 100 000 fois par jour.

Et donc, si à chaque fois que cet outil est utilisé, il y a un biais, avant, on avait un biais une fois par jour, maintenant, on l'a 100 000 fois par jour. Voilà. Et c'est un peu le problème, en fait, de...

Parce que l'être humain, il est tout le temps biaisé, mais par hasard, comme l'être humain n'est pas une machine, il peut toujours y avoir un peu des choses aléatoires qui vont se produire. Il va y avoir des perturbations dans le système, et puis un jour, finalement, le biais ne va pas se présenter ce jour-là.

Avec l'intelligence artificielle, le problème, c'est qu'à partir du moment où on a un outil d'automatisation qui est hyper précis, si cet outil est biaisé, il est biaisé à l'échelle.

Donc, si on prend l'exemple des CV et de l'utilisation de l'automatisation pour le recrutement, là, effectivement, on a un gros problème, parce que là où on avait peut-être 100 recruteurs qui avaient chacun potentiellement des biais un peu différents, et puis peut-être un jour, ils sont fatigués, alors les biais sont moins forts, etc., là, on a un outil qui va lire les CV de manière automatisée, c'est sûr que 100% des CV vont suivre ce risque de biais. Donc, moi, je comprends ce que tu dis dans ce sens-là.

Manon Roux

– Oui, c'est ça, exactement, et je pense que c'est un super exemple, celui que tu viens de donner. Je ne sais pas si, notamment, Laura et Daniela, vous avez un peu des exemples, justement, en fait, des risques liés, justement, à ces biais, et à exactement ce que vient de dire Camille, le fait que ça va devenir quelque chose d'exponentiel, qui risque, justement, de se reproduire encore plus que quand c'est de base l'humain qui le fait.

Daniela Tchana

Oui, donc, du coup, en fait, je pense que l'IA, vu qu'elle traite les données à grande échelle, c'est tout à fait normal qu'il y ait des soucis à grande échelle, en fait, par exemple, des modèles, par exemple, sur même le traitement ou l'interprétation des résultats, parce que, voilà, les données qui étaient entrées étaient déjà biaisées, donc, du coup, les résultats qu'on va obtenir à la fin aura un impact sur les décideurs qui vont pouvoir interpréter, en fait, les modèles ou bien les résultats qu'ils vont avoir, en fait, avec déjà des préjugés. Et également, même, on peut avoir des répercussions assez fortes, en fait, sur tout ce qui est culturel, parce qu'on ne parle pas des stéréotypes culturels, également, qu'on peut générer avec l'IA.

Et je pense que si on ne change pas, en fait, si on ne travaille pas, en fait, sur comment atténuer ces biais, on aura une discrimination, je peux le dire, à grande échelle et sur tous les plans, sur tous les plans où l'IA sera utilisée.

Manon Roux

– Laura, est-ce que tu as quelque chose à rajouter ?

Daniela Tchana

– Je voudrais juste rajouter, quand même, que ce qui est amusant, c'est que les modèles de langage, donc les gens comme Google, OpenAI, etc., ont essayé de corriger ces biais,

ils en sont conscients, ils ont essayé de corriger ces biais autour de l'inclusion et de la diversité, mais en fait, ils n'y arrivent pas.

C'est-à-dire que là, quand Google a sorti son Gemini, il y a eu, comme le modèle avait été entraîné pour forcer de la représentation de diversité, on a eu des George Washington noirs, donc ça ne reflétait plus du tout la réalité historique. On a eu aussi des femmes dans certains métiers anciens dans lesquels on sait que les femmes ne les ont pas occupées.

Donc en fait, c'est très compliqué à corriger, même s'il y a une prise de conscience des gens qui fabriquent les modèles que ces biais existent à cause des données d'entraînement. Le problème, c'est que la correction peut être pire que le mal, en fait.

Laura Bokobza

Si je peux me permettre de rebondir, je pense que pour corriger ces biais, je pense que c'est un travail de fond qui doit déjà s'effectuer sur la représentation de chaque personne, je peux dire, chaque groupe de la société. Aujourd'hui, combien de pourcentages de femmes travaillent dans les IA ? Combien sont derrière ces algorithmes qui sont fournis, ces données qui sont fournies ?

Et donc, si on n'a même pas déjà une représentation de cette population capable déjà de pouvoir transmettre les données représentatives, on ne pourra pas corriger, on ne pourra pas vraiment dire qu'on corrige tous ces biais. Parce que si on veut se mettre dans la peau d'un président noir ou bien d'une femme présidente, il faut déjà avoir des exemples à fournir et non de fournir des données fictives, des données qui ne sont pas vraiment représentatives. Donc, je pense que c'est un travail aussi déjà d'éducation de fond, mais également un travail de représentation qu'il faudra faire pour essayer de corriger en fait tous ces biais.

La correction des biais dans l'intelligence artificielle : Un défi de société

Manon Roux

Tu me fais une transition parfaite, justement, parce que je pense que déjà le premier biais est à complètement raison sur le fait qu'après il y a en termes de culture, évidemment de genre, de handicap, de manière globale, les biais, ça traite tout un tas de sujets et de problématiques. Mais justement, quand on parle des femmes, je pense que de manière globale, alors évidemment dans les métiers de la tech mais même de manière globale, souvent on a cette problématique de l'invisibilité des femmes où on n'a pas de modèle. Donc comment est-ce qu'on fait pour contrer justement ces biais quand la donnée de base n'existe pas, ou notamment au niveau des femmes, comment est-ce qu'on fait pour débiaiser, entre guillemets, les modèles ?

Est-ce qu'il y a des éléments de réponse déjà par rapport à ça ? Ou pas du tout ?

Camille Morvan

Moi, je veux bien du coup rajouter, parce que ça fait le lien entre ta question et ce que Daniela venait d'exposer. En fait, c'est intéressant cette question de correction des biais parce qu'on se rend compte que, comme d'habitude, le problème est très mal posé. En fait, la difficulté, ça ne va pas être de trouver la solution au problème.

La vraie difficulté ici, c'est de savoir qu'est-ce qu'on essaie de résoudre. Et en fait, dire que l'intelligence artificielle est biaisée, ça ne veut pas dire… Pour corriger quelque chose, il faut savoir vers quoi on a envie d'aller.

En fait, si on ne se pose jamais la question de vers quoi on a envie d'aller, on ne sait pas tellement dans quel espace on travaille. C'est un peu ce que vous avez évoqué les unes et les autres en disant qu'en fait, on n'a pas de modèle.

Ça ressemblerait à quoi une société dans laquelle le genre ne serait pas aussi discriminant ?

Ça ressemble à quoi une société dans laquelle l'origine ethnique et géographique ne soit pas aussi discriminante ? Ces sociétés-là, on ne les connaît pas puisque, par définition, la société dans laquelle on vit, elle est fondée sur de l'injustice, de l'injustice avant tout, on va dire, ethnique et géographique. Et en second plan, de l'injustice de genre.

C'est des sociétés qui fonctionnent comme ça. Je veux dire, tous les pays riches sont riches parce qu'ils ont exploité d'autres pays. Les êtres humains sont riches parce qu'ils exploitent la nature et les autres animaux.

Les êtres humains mâles sont en haut des pyramides parce que, de fait, ce qui est structurel dans la société humaine actuelle, c'est l'injustice de genre. C'est des choses structurelles. Et je pense que c'est là où, en fait, si on veut s'attaquer à la problématique de l'IA, on ne peut pas s'y attaquer tout seul parce que, en fait, c'est une problématique de société avant tout.

Ce qui est intéressant avec l'IA, en revanche, c'est que ça permet d'avoir une discussion un peu dépassionnée sur le sujet des biais.

Parce que de dire, tiens, cette intelligence artificielle-là, elle ne reconnaît pas les peaux noires au même titre qu'elle reconnaît les peaux blanches. L'avantage, c'est qu'on peut regarder ce biais sans en faire tout un plat parce qu'on ne peut pas appeler ça raciste.

On peut juste appeler ça biaisé. Pour moi, ce qui est super intéressant dans les discussions qu'on a autour de l'intelligence artificielle, c'est que ça permet de séparer l'idéologie de, on va dire, la mécanique mathématique dans le cas de l'intelligence artificielle ou cognitive dans le cas de l'être humain. Ça veut dire qu'un être humain, même qui est plein de bonnes volontés et qui ne veut pas être raciste ou sexiste, il va l'être parce qu'il baigne dans ce bain-là.

Mais chez l'être humain, c'est difficile de séparer les deux. Alors que sur l'intelligence artificielle, on peut le séparer. Et du coup, sur la question de la correction, comme l'intelligence artificielle mime le monde dans lequel elle existe, elle est biaisée.

Si on ne veut plus qu'elle soit biaisée, comme il n'y a pas d'autre monde à mimer, elle va juste être plus vague.

C'est tout. Elle ne peut pas être précise autrement puisqu'on ne lui a pas proposé de monde différent à mimer. Bon, ça, c'est mon point de vue. Après, peut-être que vous avez d'autres...

Daniela Tchana

Non, mais il y a des façons. Tu as complètement raison. Mais il y a des façons de contourner ça.

Par exemple, moi, je vous l'ai dit, je suis administratrice indépendante d'une société qui s'appelle Think Media, qui a été cofondée par un journaliste et un chercheur en IA. Et le journaliste, Benoît Raphaël, que je vous incite à suivre sur LinkedIn et sa newsletter, parce qu'il publie énormément sur l'IA, fait plein d'expérimentations. Et par exemple, lui, il a trouvé qu'une façon de corriger tous ces biais-là, c'est de faire interagir plusieurs IA entre elles.

Donc, en fait, il fait jouer des rôles à différentes IA. Et c'est le collectif, comme dans l'humain, en fait, comme si on met plusieurs avis autour d'une table en tant qu'être humain, on va théoriquement avoir un résultat supérieur, la somme des parties... Enfin, le tout est supérieur à la somme des parties.

Et en fait, il joue ça avec des IA. Il est en train de leur faire... Il leur a fait écrire un bouquin.

Et donc, il y a quand même aussi des façons. Alors, je rejoins évidemment complètement ce qu'a dit Camille sur les biais de la société et que le problème vient de la société, et pas des IA, évidemment. Mais il y a des façons quand même aussi de contourner ça tout en utilisant les IA dans la société d'aujourd'hui qui, malheureusement, est bien lourde de ces biais.

Manon Roux

C'est hyper intéressant ce que tu dis, Laura, parce que du coup, pour moi, la solution de base, c'est mettre de la diversité dans du collectif. Et en fait, finalement, il y a déjà pas mal d'études là-dessus aussi qu'au sein d'un groupe, finalement, la diversité, c'est une force et ça va apporter justement plus que la somme des individualités, excatement ce que tu disais avant.

Donc, Daniela, je pense que t'as peut-être quelque chose à ajouter là-dessus aussi sur le sujet de la diversité pour contrer les biais ?

Daniela Tchana

Alors... Je dirais que la diversité, c'est assez large en fait comme expression et ça touche tellement de secteurs. Pour moi, aujourd'hui, si on veut contrer un biais, il faut regarder déjà où se trouve le problème.

Comme l'a dit Camille, il faut déjà regarder où se trouve le problème et voir comment résoudre ce problème. Et quand on prend, par exemple, moi, je parle déjà de la représentation des femmes dans ces métiers de l'IA. Pour moi, il faut déjà voir que le taux de femmes est inférieur à 35 % de femmes travaillant dans les IA, derrière les algorithmes.

Comment augmenter ce taux de représentation des femmes et ça démarre dès l'âge de 6 ans. Ce n'est pas juste comme ça, d'un claquement de doigts, qu'on va pouvoir faire ce changement. Et plus on aura des femmes qui travaillent dans ce domaine, plus on aura...

On va travailler en fait sur... On va pouvoir réduire certains biais liés par exemple au genre, à la représentation du genre. Plus on aura par exemple des personnes de couleur qui travaillent dans ce domaine, plus on aura en fait des informations qui seront plus exactes et on aura en fait...

On va diminuer le taux de biais en fait dans ce secteur-là. Et donc pour moi, je pense qu'il faut regarder sur quel domaine on veut travailler, sur quel biais on veut vraiment apporter une amélioration et regarder le programme vraiment dans toute sa grandeur et dans tout son... Je peux dire dans tout son contexte, pas juste regarder un petit point, et se dire peut-être en changeant les données agorimiques qu'on va pouvoir résoudre le problème.

Non, je pense que c'est beaucoup plus dense et beaucoup plus large que ça.

Manon Roux

Oui, donc pour toi, il y a aussi un sujet au niveau de l'éducation, de la sensibilisation. L'éducation, même au plus jeune âge, est clé pour qu'il y ait aussi plus de personnes qui s'orientent vers ces métiers et qui participent aussi à la création justement de ces modèles, si je résume un peu.

Daniela Tchana

Mais pour moi, c'est la base. C'est la base, en fait. Oui, je dirais qu'il serait beaucoup plus rapide de modifier et de diminuer les biais que de diminuer les flux de la société, en fait.

Ce sera beau, c'est l'avantage aussi de l'IA, c'est que plus on prend conscience, plus c'est une intelligence qui s'entraîne et qu'on entraîne. Et c'est nous, les humains, qui fournissons les données. Il sera beaucoup plus facile de...

Je ne dis pas facile, mais il sera beaucoup plus rapide de changer, en fait, de diminuer ses biais que de décider de changer toute la société. Et donc l'IA pourra contribuer également à changer la société.

Manon Roux

Non, mais j'allais dire que c'est bien pour ça que je trouve important que, justement, qu'on fasse aussi des tables rondes et c'est bien pour ça que je vous ai invitées toutes les trois. C'est aussi pour montrer, et je pense que moi, mon objectif avec cette semaine de l'IA, il était évidemment aussi de mettre plus de femmes sur le devant de la scène pour parler de ces sujets, déjà pour qu'on ait peut-être une autre version de l'histoire, et puis aussi pour montrer que vous, vous êtes chercheuses professionnelles sur ces sujets-là et que vous êtes dirigées vers ces sujets.

Laura Bokobza

Du coup, j'en profite, puisque j'ai contribué de façon très lointaine à un effort qui s'appelle Women Love AI Marketing. Et on publie lundi prochain une liste de 101 femmes qui travaillent là-dedans. Donc le site est déjà ouvert et ça sera publié lundi prochain.

Et on veut justement mettre en lumière le fait qu'il y a des femmes et des femmes de toutes les origines en termes de diversité qui contribuent aussi à ce domaine.

Manon Roux

Super. Si tu peux nous mettre, je ne sais pas si tu as un lien ou si tu peux remettre le nom dans le chat.

Laura Bokobza

Oui, je vais remettre le lien dans le chat. Merci beaucoup.

Manon Roux

Idéal. Et du coup, Camille, je te laisse compléter ce que tu voulais dire.

Les distinctions cruciales entre représentation, expérience et compétences

Camille Morvan

Merci. Je voulais préciser quelque chose que je pense que c'est hyper important quand on parle de biais. Je pense qu'il faut vraiment séparer…

Pour moi, il y a trois choses qu'il faut vraiment séparer. Il y a la représentation, l'expérience et les compétences. Je vais vous donner un exemple précis sur le sexisme.

Si on parle de la représentation dans la partie sur le sexisme, le fait d'avoir plus de femmes dans des positions de pouvoir, c'est bien parce que du coup, on a des rôles modèles, etc. Ça, c'est la partie représentation. Ça ne veut pas dire pour autant que quand on a une femme à une position de pouvoir…

Je veux vraiment revenir à ce que c'est super important. Il ne faut pas essentialiser les différences de genre, les différences de couleur de peau, les différences géographiques. Une femme peut être porteur d'énormément de biais sexistes.

On peut être noir et être extrêmement raciste anti-noir. C'est possible. Et à l'inverse, on peut être un homme blanc de 55 ans et être un féministe et un anticolonialiste hors pair.

Je me doute qu'on est d'accord là-dessus, mais la raison pour laquelle je pense que c'est vraiment important de le redire, c'est parce que je trouve que depuis une quinzaine d'années, il y a une confusion énorme entre la représentation, l'expérience et les compétences. La représentation, c'est avoir plus de diversité dans des postes de pouvoir. C'est bien en soi pour une question de représentation parce que ça permet aux jeunes de se projeter, de voir des Noirs, des Arabes, des Homos, etc.

Ça permet de se projeter. Ça, c'est la question représentation. Après, il y a la question expérience.

Oui, bien sûr, il faut permettre aux minorités de s'exprimer parce qu'en tant que minorité, il y a des expériences qui sont vécues qui sont importantes à entendre, mais il ne faut pas confondre ça avec la compétence, c'est-à-dire la capacité à réfléchir. Qu'est-ce que c'est que le sexisme ? Qu'est-ce que c'est que le racisme ?

Qu'est-ce que c'est que l'homophobie ? Qu'est-ce que c'est que la grossophobie ? On peut avoir un chercheur très mince et très athlétique qui travaille sur la grossophobie et qui peut venir nous parler de la grossophobie parce qu'il a cette compétence.

Pour autant, faire parler quelqu'un qui a été victime de grossophobie, ça a son intérêt aussi. Mais je pense qu'il ne faut vraiment pas mélanger tout parce que moi, je trouve qu'on m'invite souvent sur des plateaux pour parler de sexisme comme si, parce que je suis une femme, je peux en parler. Mais non, moi, je considère que je peux en parler pas parce que je suis une femme, mais parce que ça fait 30 ans que je bosse dessus.

Je pense que c'est vraiment important, je trouve, de remettre ces trois trucs à plat. Et parfois, elles sont conjointes parce qu'il se trouve qu'il y a plus de personnes noires qui travaillent sur la colonisation et de femmes qui travaillent sur le sexisme, peut-être. Mais en fait, ce n'est même pas sûr.

Je pense que c'est bien de reséparer les trois facteurs, je dirais.

Manon Roux

Je suis complètement d'accord. C'est juste que je vois qu'il est déjà 10h53 et on a un sacré paquet de questions. Donc, juste, on va peut-être passer aux questions-réponses avec le public.

Je m'excuse d'avance, on ne va absolument pas pouvoir toutes les traiter parce qu'à date, j'en ai reçu plus de 48. Donc, on a fait une petite sélection avec Léa qui travaille avec moi. Je vais en mettre en avant quelques-unes et je suis vraiment désolée pour celles qu'on ne pourra pas traiter.

Mais malheureusement, je pense qu'on pourrait rester des jours sur ce sujet, clairement. Donc, on va déjà essayer d'en répondre à quelques-unes. Il y a une question de Maëlle qui nous dit peut-on considérer que Léa devienne un psychologue dans le sens où on peut converser avec elle sans a priori ?

C'est une question assez intéressante. Est-ce que justement, sur cette partie un peu conversationnelle, parce qu'on a même vu récemment que maintenant, on pouvait générer de la vidéo par Léa, qu'en fait, on ait l'impression de converser avec un humain ? Avec tout ce qu'on vient de dire, qu'est-ce que ça peut faire ?

Daniela Tchana

Moi, j'ai déjà été challengée par des dirigeants que j'accompagne qui m'ont dit c'est bon, bientôt, on n'aura plus besoin de toi, on va le faire avec une IA. Alors, il y a du pour et du contre. Je vais évidemment d'abord citer les contres.

Il faut faire quand même très attention. Il y a des cas déjà aux États-Unis, d'accompagnement de personnes dépressives où Léa n'a pas eu la sensibilité que peut avoir un humain. Et puis surtout, et là, ça vient rajouter quelque chose, mais Camille en parlera sans doute mieux que moi, c'est que souvent, les personnes qui ont besoin de thérapie, il y a des vrais sujets d'interaction sociale, et ce n'est pas en arrêtant d'interagir avec des humains qu'elles vont résoudre leurs problèmes d'interaction sociale.

On est en train de passer… Il ne faut pas aller trop loin non plus, je trouve, là-dedans. Mais là, c'est peut-être ma génération qui parle et peut-être mes biais à moi.

Camille Morvan

Moi, je veux bien rajouter là-dessus parce qu'en fait, je me forme en psychiatrie et en psychanalyse depuis quelques années, puis j'ai fait pas mal de psychologie clinique. Alors, moi, je trouve que c'est un truc hyper prometteur, l'IA conversationnelle, pour traiter de certaines questions problématiques qu'on pourrait avoir. Et là où je rejoins la personne qui a posé la question, c'est que l'avantage de l'IA, c'est qu'il n'y a pas de préjugés.

Donc, a priori, on devrait pouvoir tout dire. Donc, pourquoi pas ? Le deuxième truc qui va plutôt en faveur de ce que dit cette personne, c'est qu'en fait, il y a plein de mauvais psys aussi.

Donc, quitte à avoir un mauvais psy, autant que ce soit de l'IA ou de vraies personnes, on s'en fout un peu. Et après, en vrai, là où je sais que ça ne marche pas, en fait, la thérapie sous forme d'IA, d'une part, c'est parce que moi, j'ai fait partie d'un groupe de tests. Ce n'était pas de la psychothérapie, c'était du coaching.

Et du coup, j'avais un coach automatisé en IA, mais ça, c'était il y a assez longtemps, c'était à 5-6 ans. Et en fait, je peux témoigner du fait que ça ne tient pas dans le temps, parce qu'en fait, il y a un moment où ce dont on a besoin, ce n'est pas… En fait, des avis, il y en a plein partout.

Je peux demander à Google des avis, je n'en ai rien à cirer de parler avec une IA, en réalité. Mais ce qu'on cherche, et ça, c'est ce que Freud a théorisé, et ensuite, Lacan, etc., en fait, ce qui… Alors, je sépare coaching et psychothérapie.

En coaching, on peut faire ce qu'on veut. De toute façon, le coaching, ce n'est pas… Le coaching, c'est une technique, donc on fait un peu ce qu'on veut.

En thérapie et en psychothérapie, pour que ça marche, il faut qu'il y ait du transfert. Et le transfert ne peut fonctionner qu'avec un être humain. Donc, le transfert, finalement…

Enfin, je pense que tout le monde sait ce que c'est que le transfert, mais c'est ce qu'on projette sur l'autre. Mais là où, très précisément, dans le transfert, dans la thérapie, ce qui est important, c'est de projeter sur l'autre la capacité qu'on donne à l'autre de pouvoir nous aider, que ce soit vrai ou pas. C'est pour ça qu'il y a des mauvais psys qui font des très bonnes thérapies.

Parce qu'en fait, le succès de la thérapie ne dépend pas tant que ça du psy, mais dépend beaucoup de… Juste, des fois, le psy, le fait qu'il ne dise rien, ça suffit. Parce que si la personne qui a un soin arrive à projeter suffisamment d'espoir sur l'être humain qui l'écoute, ça va marcher.

Et ça, ça ne peut pas marcher avec une IA.

Manon Roux

– Daniela, est-ce que tu avais un avis un peu par rapport à ça ?

La confiance et les limitations de l'IA

Laura Bokobza

– Ouais, moi, ce que je vais dire, déjà, c'est qu'on n'oublie pas que l'IA, en fait, va converser avec nous en fonction des données qu'elle aura emmagasinées. Donc, ça veut dire qu'elle sera limitée si les données ne sont pas constamment mises à jour. En fait, c'est sûr qu'à un moment donné, elle sera assez limitée dans ses conversations, dans son analyse.

Et aussi, il faut voir qu'il y a toute la partie un peu humaine, c'est-à-dire émotions, toute cette partie un peu empathie, en fait, qu'on ne peut pas avoir avec l'IA. Donc, à ce jour, même s'il y a certaines IA qui sont entraînées pour répondre à des émotions, elles restent limitées, elles ne sont qu'entraînées avec les émotions, avec les données qu'elles ont reçues, mais elles ne peuvent pas répondre à toutes nos émotions, pas encore, jusqu'à ce que je sache. Et aussi, je pense qu'il faut qu'on comprenne quand même que les conversations sont limitées par les données, en fait, sur lesquelles elles ont été entraînées.

Donc, on ne peut pas dire qu'on peut aujourd'hui établir une conversation complètement libre, comme avec l'IA, quoi.

Manon Roux

Oui, je pense que c'est hyper intéressant. On a eu pas mal de questions par rapport à ça, ou justement à l'importance des données, qui en fait est majeure. Au-delà de l'importance de la construction du modèle, il y a aussi évidemment l'importance de comment le modèle est alimenté.

Et je pense que tu fais très bien de le surligner. Et tu me fais une aussi très bonne tradition, on avait une question justement de Dimitri, sur la confiance, en fait. Vu tous les biais, est-ce qu'on peut faire confiance à l'IA pour pro-perso ?

Cette question de la confiance, elle revient souvent aussi. Est-ce que vous avez un peu des éléments de réponse pour raconter ?

Daniela Tchana

Mais cette question de la confiance, qui est effectivement extrêmement pertinente, c'est une question qu'on a sur tout et tout le temps. C'est-à-dire qu'on ne peut pas juste… La confiance, évidemment, dans l'IA intrinsèque, la confiance à ce que l'IA, même si intrinsèquement, on lui fait confiance, est-ce qu'il ne peut pas y avoir une attaque, un acte, etc.

Il faut quand même se dire qu'il y a beaucoup de bon sens. Il faut approcher les choses avec du bon sens, en fait. Est-ce qu'il y a des…

Vous ne donneriez pas à votre psy votre code de carte bleue, donc ne le donnez pas à l'IA qui fait votre psy.

À un moment donné, vous ne croyez pas forcément sur parole tout ce que vous dit quelqu'un. Donc, pourquoi vous croiriez sur parole tout ce que vous dit l'IA ?

Pourquoi ? Parce que c'est une machine derrière qui paraît toute puissante. On se dit « waouh, je lui fais confiance ».

Moi, j'ai été atterrée par la démonstration de OpenAI avec la voix Sky, non pas parce qu'elle ressemble à la voix de Scarlett Johansson, mais parce qu'ils lui ont fait prendre des intonations, « c'est trop gentil », etc. Genre, elle sait tout sur tout, mais elle est trop flattée qu'on parle d'elle. C'est quoi cette reproduction des biais, là, pour le coup, une vraie reproduction des biais.

On sent bien que c'est des mecs qui ont bossé derrière, quand même. Myra Muraty, je ne sais pas trop quel poids elle a eu là-dessus, mais ce n'est pas parce que c'est une IA qu'elle a forcément raison.

Manon Roux

Oui, là, je suis d'accord avec toi. Pareil, je me souviens, quand je suis entrée en école, nous, on était tous évidemment étudiants, on voulait gagner du temps. Donc, on n'avait pas de chaîne GPT, mais on avait Wikipédia, et je me souviens très bien que la première chose que nos enseignants nous ont dit, c'est trianguler l'information, en fait.

Apprenez à recevoir l'information, à réfléchir par vous-même, et à avoir ce processus de sélection et vraiment de réflexion qui est propre à nous-mêmes.

Effectivement, on est biaisés, mais de base, ne pas intégrer, et je pense que c'est d'autant plus important avec ce qu'on a vu avec les fake news, avec les vidéos qui vont être de plus en plus performantes et les fausses vidéos, etc., d'avoir, sans devenir complètement parano, mais d'avoir vraiment ce processus de se poser la question d'attention, d'où ça vient, quelle est la source, par qui c'est utilisé, parce qu'effectivement, plus ça va aller, comme tu dis, Camille, à l'échelle, il y a peut-être des gens très mal intentionnés, et ça va faire de plus en plus de contenu, mais à l'inverse, il y a aussi, je trouve, beaucoup de positifs qui peuvent faire aussi de grandes avancées. Donc, je pense que cette question de la confiance, et merci Laura d'avoir répondu comme ça, mais effectivement, elle est primordiale sur le fait d'essayer de faire un peu un pas en arrière et d'utiliser son cerveau d'humain pour aussi se dire, voilà, qu'est-ce que je reçois et comment je traite l'information. Camille, tu veux compléter un peu là-dessus ?

Camille Morvan

Non, moi, je trouve que c'est très très bien, la réponse est hyper complète, et peut-être, ça peut rebondir, là, j'étais en train de passer un peu en vue les questions, et je vois qu'il y avait effectivement plusieurs questions dans cette direction-là, est-ce que je peux lui faire confiance ou pas, notamment quelqu'un qui demande si l'IA peut être volontairement corrompue par une puissance extérieure.

En fait, l'IA n'est pas un truc idéal qui serait corrompu. L'IA est corrompue par une puissance intérieure qui est l'être humain, il n'y a pas besoin d'aller chercher très loin, et je suis tout à fait d'accord avec ce que vous avez dit, trianguler.

Moi, je pense qu'il faut aussi savoir faire confiance à ses ressentis sur certains sujets, pas sur tout, pas tout le temps, et c'est bien de les... Pour moi, un ressenti, c'est un signal d'alerte, et après, ce ressenti, il faut en faire quelque chose, ça ne suffit pas en soi. Moi, j'ai des amis, par exemple, j'avoue, j'ai des amis complotistes, et ils vont juste douter de tout, tout le temps.

Mais ça ne suffit pas en soi de douter de tout, tout le temps. C'est très bien de douter, évidemment, il faut douter, mais après, douter pour en faire quoi ? Il faut aller creuser après les sujets.

Donc je pense que, oui, c'est faire confiance à son ressenti, se dire, là, on est en train de me demander un truc bizarre ou de me dire un truc bizarre, bon, allez, je vais aller réfléchir aussi, réfléchir par moi-même. Il y avait une question par rapport au sens critique. Le sens critique, pour moi, c'est aussi, de temps en temps, être capable de revenir à ce qu'on sait, soi, parce que si on écoute trop, on est dans un monde qui est devenu tellement complexe qu'on peut nous servir n'importe quelle soupe sur l'économie, sur la technologie, sur la science, sur n'importe quoi, on peut nous servir n'importe quelle soupe parce que tout est trop complexe.

Donc, de temps en temps, il faut revenir à ce qu'on sait, aussi, de base, je pense, et pas trop se laisser embarquer dans des trucs qui paraissent très prometteurs, mais où on ne comprend pas grand-chose.

Manon Roux

Oui, et puis, je pense que, une fois de plus, pour en revenir à ça, je pense que ce que disait Daniela sur l'éducation et la sensibilisation des plus jeunes âges, elle est, on ne peut plus importante, et évidemment qu'il y a le rôle de l'école, des parents, aussi, là-dedans, de sensibiliser à ces sujets-là. On parle beaucoup des réseaux sociaux, mais, en fait, finalement, l'IA, ça va être un peu pareil, de, au moins, voilà, attirer l'attention sur le fait de dire, juste, sur le fait de dire que ce n'est pas parce que ça sort de ChatGPT que c'est vrai, comme au début, ou quand ce n'est pas parce que ça sortait de Wikipédia que c'était vrai, et sans jeter la pierre à Wikipédia.

Articles Similaires

Recommandé pour vous

Prêt à rejoindre ?

Plus de 10,000 personnes en réorientation professionnelle et entrepreneurs ont lancé leur carrière dans le secteur des technologies grâce aux bootcamps d'Ironhack. Commencez votre nouveau parcours professionnel et rejoignez la révolution technologique!