AV¶ÌÊÓÆµ

Campus n°159

Le rectorat voit l'IA comme une opportunité

3DO4Rodin.jpg

L’UNIGE a récemment publié une prise de position sur le recours à l’intelligence artificielle dans la recherche, l’enseignement, l’apprentissage et l’administration. Explications avec la vice-rectrice chargée de ce dossier, Juliane Schröter.

Un sentiment d’«urgence réglementaire». C’est ce qui a saisi les différentes universités du monde pour essayer d’encadrer au mieux, sans pour autant le restreindre, l’usage par leur communauté de l’intelligence artificielle (IA) générative qui a explosé dès la parution de la première version publique de ChatGPT (OpenAI) en novembre 2022. L’±«²Ô¾±±¹±ð°ù²õ¾±³Ùé de Genève n’est bien sûr pas restée les bras ballants. Le nouveau Rectorat, entré en fonction en avril dernier, a en effet publié en juillet 2024 une prise de position officielle sur la question (complétant la précédente, tant il est vrai que les choses évoluent rapidement) dans un souci de répondre à la demande de la communauté de disposer de règles claires en la matière. Il a également décidé de consacrer un de ses dicastères au numérique et en particulier à l’intelligence artificielle. Il est dirigé par la vice-rectrice Juliane Schröter, professeure au Département de langue et de littérature allemandes (Faculté des lettres).

«Nous voyons dans cette nouvelle technologie une opportunité, °ùé²õ³Ü³¾±ð-³Ù-±ð±ô±ô±ð. Nous soutenons l’évolution de l’IA générative et sommes favorables à son utilisation, son développement et son étude par les membres de la communauté universitaire.» L’usage de l’IA, que ce soit dans la recherche, dans l’enseignement et l’apprentissage ou dans l’administration, doit néanmoins obéir à des principes de légalité, d’intégrité académique, de transparence, d’économie et d’écologie (lire l’encadré ci-contre).

«En cas de non-respect de ces principes, de faute professionnelle, de fraude ou encore de plagiat, l’institution dispose des procédures habituelles en la matière, avertit la vice-rectrice. Ces risques existent depuis toujours, mais ils prennent une nouvelle dimension avec l’arrivée de l’IA générative. Cela dit, comme il est impossible et parfaitement inapproprié de surveiller les faits et gestes de tout le monde, nous comptons sur – et croyons fermement à – la responsabilité de chaque utilisateur et chaque utilisatrice de notre communauté. Et nous leur demandons d’être proactifs, c’est-à-dire de s’informer et de se former aux bonnes pratiques de l’IA.»

Afin de soutenir et d’accompagner la communauté universitaire dans un usage de nouvelles technologies qui lui soit bénéfique, l’institution a mis une série d’outils à sa disposition (lire la colonne en page 30). «Nous aimerions encore élargir cette offre, en particulier avec une réflexion sur la question de l’évaluation des apprentissages en présence de l’IA générative, développe Juliane Schröter. Nous souhaiterions aussi recommander une liste d’IA à notre communauté, telles des versions gratuites, incluses dans nos licences, ou open source.»

Par ailleurs, si le Rectorat édicte les règles générales, c’est bel et bien aux facultés et centres interfacultaires qu’il revient de définir concrètement les modalités de l’intégration de l’IA générative dans leurs activités puisque les domaines de recherche et les enseignements diffèrent grandement d’une structure à l’autre.

Intégrité scientifique
La première crainte que les grands modèles de langage font naître concerne la production de texte. La capacité de ces outils à rédiger au kilomètre sur n’importe quel sujet peut représenter une menace pour l’intégrité scientifique. À une époque où la quantité de publications reste le critère central d’évaluation de la valeur des scientifiques, la tentation est grande de faire écrire ses articles scientifiques, ses mémoires ou encore ses monographies entièrement par des IA. Trop grande, sans doute, pour certains et certaines. C’est pourquoi les spécialistes s’attendent à une augmentation significative du nombre de productions scientifiques partiellement ou totalement frauduleuses. Mais la majorité des chercheurs et des chercheuses de l’UNIGE et d’ailleurs – Juliane Schröter en est convaincue – utilisera ces outils de manière responsable, sachant pertinemment où s’arrête la simple assistance et où commence la tricherie.

«Il ne faut pas négliger le fait que les IA sont susceptibles de constituer une aide précieuse – et tolérée, voire recommandée – pour les chercheurs et chercheuses, souligne Juliane Schröter. Leurs capacités à traduire les textes représente un soutien pour celles et ceux qui ne sont pas anglophones et qui ont jusqu’à présent été désavantagé-es dans de nombreux domaines où l’anglais est omniprésent. L’IAG est aussi un moyen de surmonter la peur de la page blanche en proposant un début de texte, une structure, des idées de chapitres. Cela dit, il nous faut continuer d’évaluer toutes les propositions de l’IA avec un œil critique. Car ces outils ont pour l’instant de sérieuses limitations.»

Biais de genre
Le fonctionnement des IA reste en effet, au moins en partie, une boîte noire. On ne sait pas toujours exactement comment elles sont arrivées à tel ou tel résultat. Ce qui pose la question de leur fiabilité. Il existe de nombreux travaux qui se sont intéressés aux biais de ces outils. Selon la nature des données d’apprentissage que les IA ont ingurgitées, les résultats peuvent en effet négliger certaines parties de la société ou en favoriser d’autres. Comme elle l’a rapporté dans un colloque récent, Isabelle Collet, professeure associée à la Faculté de psychologie et des sciences de l’éducation, a par exemple demandé à une IA génératrice d’images de représenter une femme d’environ 50 ans, sans autre précision. Le logiciel a généré 15 propositions quasiment identiques, soit une femme blanche, mince, blonde ou avec des cheveux blancs et courts et manifestement âgée de plus de 50 ans.

«Quand on se penche sur la qualité des données avec lesquelles l’IAG a été alimentée, on arrive rapidement à des questions d’ordre philosophique, note Juliane Schröter. Est-ce qu’on veut se contenter des données qui existent déjà dans le domaine public, dont celles disponibles sur Internet? Dans ce cas, nous serons confrontés aux biais déjà bien connus de genre, d’ethnie, etc. Désire-t-on au contraire des données «équilibrées»? Dans ce cas, on se heurtera à la difficulté de savoir ce que sont des données dites «équilibrées» et de déterminer qui décide qu’elles le sont ou pas. On risque alors de se retrouver avec un tout petit groupe d’individus qui choisira pour le reste de la population, ce qui pose d’évidents problèmes démocratiques.»

Il existe un certain nombre d’initiatives, notamment en Suisse, visant à une plus grande «souveraineté numérique» et à ne pas donner trop de pouvoir aux grands modèles de langage des géants américains comme OpenAI, Microsoft ou Google. La Swiss AI Initiative, par exemple, (au comité de laquelle participe François Fleuret, professeur au Département d’informatique, Faculté des sciences), créée en décembre 2023, a pour objectif d’offrir «une perspective nationale et à long terme sur la recherche, l’éducation et l’innovation basées sur l’IA». La structure a en tout cas commencé récemment ses travaux sur le dernier super­ordinateur ALPS, inauguré le 14 septembre au Centre suisse de calcul scientifique (CSCS) de l’±«²Ô¾±±¹±ð°ù²õ¾±³Ùé de Lugano. Doté de 10 000 processeurs graphiques (GPU) dernier cri, cet appareil se trouve à la 6e place dans le classement de novembre de Top500 qui répertorie les 500 superordinateurs les plus puissants au monde.

De son côté, la communauté open source fait aussi des progrès en développant des modèles plus petits et plus adaptés. Sur le site huggingface.co, par exemple, on trouve un nombre croissant de modèles et d’applications d’IA librement disponibles, dont certaines pouvant être téléchargées sur son ordinateur. «On observe un développement tous azimuts et l’apparition de plusieurs modèles qui sont en concurrence, même avec les plus avancés comme ChatGPT, remarque Juliane Schröter. Cette diversité dans l’offre des IA génératives est une bonne chose car elle permet de compenser certains biais.»

Gap entre étudiants
S’il y a une catégorie de personnes à l’±«²Ô¾±±¹±ð°ù²õ¾±³Ùé de Genève qui est intéressée par ces chatbots, c’est bien celle des étudiants. Selon la dernière enquête de l’Observatoire de la vie estudiantine, 56% des répondant-es indiquent en effet avoir déjà utilisé l’IA générative de texte dans le cadre de leurs études. Ils ou elles l’ont fait pour mieux comprendre certains sujets (81%), pour reformuler le contenu de travaux (45%) ou encore à des fins de traduction (31%). L’enquête fait toutefois aussi apparaître un fossé croissant entre les étudiants et les étudiantes qui utilisent l’IA pour plus de la moitié de leurs travaux universitaires (16%) et ceux et celles qui n’en font presque pas usage (37%).

«Il est crucial pour l’université de lutter contre l’apparition de cette fourchette, assène la vice-rectrice. L’IA fera de plus en plus partie de la réalité du monde du travail, et ce, dans tous les domaines imaginables. C’est notre devoir de former des étudiant-es afin de les y préparer au mieux. Il nous faut donc les sensibiliser à l’importance de ces outils et les familiariser avec leurs performances.»

Juliane Schröter précise d’ailleurs que d’autres usages que ceux référencés par l’enquête sont admissibles et pourraient être utiles, tels que la génération de questions sur un sujet d’examen donné afin de se préparer, le fait de tenir des conversations dans une langue étrangère, de reformuler un paragraphe dont on n’est pas satisfait dans un travail écrit, etc. Il y a néanmoins des limites et des règles à ces pratiques. Selon le degré d’avancement d’un travail et d’emploi de l’IA, il faut ainsi impérativement citer le recours à cet outil dans toute production universitaire. À cet égard, la µþ¾±²ú±ô¾±´Ç³Ù³óè±ç³Ü±ð de l’±«²Ô¾±±¹±ð°ù²õ¾±³Ùé de Genève vient d’émettre un guide pratique à destination des étudiantes et des étudiants.

Les IA parlent aux IA
Formidable outil de vulgarisation, l’IA est également un support idéal pour l’enseignement. Les professeurs et chargés de cours peuvent l’utiliser pour réexpliquer des notions compliquées de manière plus simple, pour structurer des cours et même se faire une idée des connaissances sur un thème qui n’est pas dans leur domaine de compétence.

Mais à trop y avoir recours, le risque existe d’une uniformisation du langage écrit, du style, du contenu et de la structure. On observe déjà que ces outils produisent et reproduisent certaines tournures ou mots clés. Si les professeurs font appel à l’IA pour rédiger et structurer leurs cours et que les étudiants font de même pour leur apprentissage, cela reviendra à ce que les IA se parlent à elles-mêmes.

«C’est pourquoi il est très important d’insister sur le fait qu’il existe d’autres sources d’information très riches et très variées, notamment dans les bibliothèques, qui ne sont pas forcément incluses dans la mémoire invraisemblable des IA et qu’il ne faut surtout pas oublier, avertit Juliane Schröter. Elles ne sont de loin pas caduques.»

C’est également le rôle de l’enseignement, estime la vice-rectrice, que d’apprendre aux étudiant-es, dans la mesure du possible, à reconnaître le recours excessif et illégitime à une IA générative dans des publications scientifiques. Une compétence qui serait utile à n’importe quel citoyen et citoyenne dans un monde qui baigne dans toujours plus d’information et donc, fatalement, dans toujours plus de désinformation.

«Ce qui m’inquiète davantage que la fraude scientifique ou le plagiat, c’est d’ailleurs l’IA mise au service de la désinformation et, surtout, de la cybercriminalité, confie Juliane Schröter. Les courriers électroniques frauduleux qui se font passer pour des compagnies ou des services de l’État pour extorquer de l’argent (phishing), par exemple, pourraient bien devenir totalement indétectables dans un avenir proche. Il est désormais aussi possible d’imiter des voix pour démarcher des gens par téléphone, de fabriquer des deepfakes, etc. Bref, les possibilités d’escroquerie et de piratage explosent. Et cela concerne évidemment aussi les ordinateurs et les serveurs de notre institution.»

Une intelligence gourmande

Les complotistes ne pouvaient pas rêver d’une meilleure histoire que celle qui allie un milliardaire suspecté de diriger le deep state, une authentique catastrophe nucléaire et l’intelligence artificielle. C’est pourtant bien ce que fomente le géant Microsoft. Afin de subvenir à ses futurs besoins d’énergie, notamment ceux de ses programmes d’intelligence artificielle (IA) très gourmands, l’entreprise fondée par Bill Gates a en effet annoncé sa volonté d’acheter et de relancer pour 2028 une centrale nucléaire. Et pas n’importe laquelle puisqu’il s’agit de la première unité de Three Mile Island, en Pennsylvanie, mise à l’arrêt depuis que le réacteur de la seconde unité a fondu en 1979 dans le pire accident nucléaire de l’histoire des États-Unis.

Cette annonce a été suivie de près par celles de Google et d’Amazon qui ont fait part de leur intention d’investir dans de petits réacteurs nucléaires, également pour répondre à la demande croissante d’énergie de leurs centres de données et de l’IA. Cela fait des années que ces trois entreprises investissent dans les technologies de production électrique n’émettant pas de gaz à effet de serre, telles que le solaire et l’éolien.

Elles justifient aujourd’hui leur recours au nucléaire par le fait qu’elles doivent aller plus loin dans la recherche d’une électricité propre pour répondre à la fois à la demande et à leurs propres engagements en matière de réduction des émissions de gaz à effet de serre.

«Nous devons trouver le bon équilibre, souligne Juliane Schröter, vice-rectrice à l’UNIGE chargée du numérique. Il n’est évidemment pas question d’interdire l’utilisation de l’IA par les membres de notre communauté pour des raisons écologiques. Nous devons cependant les encourager à une utilisation raisonnable qui n’est justifiée que quand elle apporte une valeur ajoutée à leur travail. En même temps, je plaide pour que la recherche menée sur les IA au sein de l’UNIGE s’oriente aussi vers la possibilité de réduire la consommation d’énergie de ces outils.»