00:00:04:02 - 00:00:29:20 Christophe Fournier Bonjour à tous. 8h30. Comme on le fait depuis maintenant près de deux ans, c'est l'heure pour commencer ces petits déjeuners AUNEGe organisés en collaboration avec IAE FRANCE et la FNEGE sur comment utiliser l'IA au service de la recherche. Alors nous sommes aujourd'hui à la huitième édition, ce qui veut dire qu'on a passé déjà 7 éditions pour regarder comment on peut utiliser l'IA pour notre démarche scientifique. 00:00:29:22 - 00:00:51:08 Christophe Fournier Donc on a traité tout ce qui était de problématisation, tout ce qui était de revue littérature. E peut-être traiter bientôt sur comment je peux m'aider avec l'IA pour rédiger un document, un mémoire, un document scientifique. Mais se pose alors la question : finalement, si j'utilise l'IA dans un article, est-ce que, entre guillemets, j'ai le droit ? Est-ce que je dois le dire ? 00:00:51:08 - 00:01:10:00 Christophe Fournier Est-ce que chatGPT qui a, depuis deux jours, j'ai vu, de très grandes nouvelles fonctionnalités, notamment pour synthétiser une masse d'informations et peut-être faire un état de l'art, est-ce que c'est éthique ? Est-ce que je dois le mentionner comme un nouvel auteur ? Même chose du côté des évaluateurs. Les questions très fortes qui se posent aux éditeurs. 00:01:10:02 - 00:01:34:04 Christophe Fournier Et pour cela, j'ai ma collègue et amie Anne-Sophie Cases, professeure IAE de Montpellier, Université Montpellier et membre de Montpellier Research Management, qui s'est lancée dans une étude et qui va nous parler aujourd'hui en 20 minutes des défis éthiques des systèmes d'IA générative pour la recherche. Anne-Sophie, merci de nous donner de ton temps. On t’écoute. C'est parti pour 20 minutes. 00:01:34:06 - 00:02:04:21 Anne-Sophie Cases Merci. Bonjour à tous, Ravie de vous présenter en fait cette recherche. Merci Christophe pour cette invitation. Alors je ne vais pas présenter d'outils aujourd'hui, mais je vais vous interroger ou on va s'interroger sur les questions éthiques qui découlent de l'usage de tous ces outils. Alors, je vais commencer par une question un peu provocatrice qui, je pense, avait déjà été tranchée, c'est... 00:02:04:23 - 00:02:31:17 Anne-Sophie Cases ...chatGPT peut-il être mon co-auteur ? Est-ce que finalement il peut apparaître dans la liste des auteurs ou dans la liste ou en bibliographie ? La réponse est non. Pourquoi c'est non ? Parce que chatGPT, ou d'autres outils d'ailleurs, n'a pas de personnalité juridique. Donc effectivement, s'il n'a pas de personnalité juridique, ça veut dire que seul l'humain est responsable de l'utilisation de l'outil. 00:02:31:19 - 00:02:58:24 Anne-Sophie Cases Et effectivement, on ne peut pas le considérer comme un auteur. Donc à la question “Peut on déléguer la recherche scientifique à une IA générative ? ”, on pourrait répondre non et on pourrait en rester là. Sauf que c'est plus complexe que ça. Et effectivement, on va voir que l'utilisation de ces outils qui sont arrivés en masse en open source avec finalement peu de formation pour les chercheurs nous pose un certain nombre de questions. 00:02:59:01 - 00:03:28:06 Anne-Sophie Cases La deuxième question que j'aimerais poser, c'est : “ Est-ce que finalement chatGPT peut être mon assistant quand j'évalue un papier ? ”. Cette étape est cruciale pour la vie des chercheurs, pour leur carrière. Et donc là, la position en fait des éditeurs et des revues, c'est plutôt “non”, une interdiction presque formelle à l'utilisation des outils dégénératives pour l'évaluation. Or, en fait, dans la pratique et dans la réalité, ce n'est pas si clair que ça. 00:03:28:08 - 00:03:57:24 Anne-Sophie Cases Beaucoup de collègues avec qui j'ai conversé m'ont dit qu'effectivement, ils avaient quand même le sentiment, un jour d'avoir été “desk reject” en une minute, avec effectivement la sensation que c'était l’IA qui l'avait fait. Certains m'ont dit qu'ils avaient eu des commentaires, ou en tout cas des retours de relecteurs qui avaient été écrits par certainement une IA générative. Donc effectivement, la question reste posée et le débat reste quand même assez ouvert sur ça. 00:03:58:01 - 00:04:29:11 Anne-Sophie Cases Alors j'ai pris une étude qui a été publiée il y a pas très longtemps, qui en fait consistait à mener une quasi expérimentation sur la base de 7404 soumissions pour une conférence, qui n'a rien à voir avec le management, “ International. conference on learning representations ”. Il détecte avec GPT zéro LLM detector 15,8 % des papiers soumis à cette conférence qui seraient finalement des papiers dont les avis et les commentaires auraient été écrits avec l'assistance d'une IA. 00:04:29:13 - 00:04:57:05 Anne-Sophie Cases Ils vont plus loin dans leur démarche et regardent un petit peu les scores qu’ont obtenu les papiers. Pour 53,4 % des papiers, effectivement, les scores sont relativement plus élevés pour un papier qui a été évalué par une Iversus un papier évalué par un humain. Et quand on regarde le pourcentage d'acceptation sur des papiers qui seraient finalement proches du seuil d'acceptation, on a un léger avantage pour l’IA. 00:04:57:07 - 00:05:20:08 Anne-Sophie Cases Donc la question qui se pose, c'est finalement est ce que l'IA pourrait être synonyme de plus d'objectivité dans l'évaluation de la recherche et pourrait être un véritable outil pour les évaluateurs ? C'est finalement une question que j'ai voulu trancher ou en tout cas, j'ai voulu approfondir. Alors j'ai interrogé pour cela 12 experts. J'ai mené des entretiens semi-directifs depuis le mois de septembre. 00:05:20:10 - 00:05:54:05 Anne-Sophie Cases Je suis allée interroger deux rédacteurs en chef de revues académiques. J'ai interrogé donc des experts IA. Alors j'ai pris volontairement des experts de disciplines différentes : informatique bien sûr, management, ce qui est notre discipline, santé, des experts plutôt en architecture aussi. Je suis allée interroger une experte sur l'éthique. Et puis j'ai aussi interrogé deux doctorants qui travaillent aujourd'hui sur les sujets d'IA, et notamment un qui travaille à l'intersection de l'IA et de l'éthique. 00:05:54:07 - 00:06:26:15 Anne-Sophie Cases Donc pour ça, j'ai posé deux types de questions. Les systèmes d'IA générative comme objet de recherche ou les systèmes d'IA générative comme assistant de recherche. Alors pourquoi s'interroger sur l'éthique ? L'éthique a toujours existé et finalement toutes les questions et la recherche en sciences scientifiques n'est pas nouvelle en fait. Mais finalement, c'est quoi s'interroger sur l'éthique ? L'éthique, c'est finalement s'interroger sur les conséquences, sur le fait qu'on puisse discerner les bons comportements des mauvais. 00:06:26:21 - 00:06:52:23 Anne-Sophie Cases Si aujourd'hui le débat est un débat d'actualité, c'est tout simplement parce que les outils d'IA générative relancent ce débat dans la mesure où on a la sensation que les outils d'IA générative peuvent venir concurrencer l'intelligence humaine et donc qu'effectivement les conséquences et le sens moral poussent à des questions de responsabilité dans l'usage qu'on va faire de ces outils. 00:06:53:00 - 00:07:00:11 Anne-Sophie Cases Donc finalement, s'interroger sur les questions éthiques, c'est de savoir si 00:07:00:13 - 00:07:25:22 Anne-Sophie Cases ma démarche scientifique est une question de responsabilité à la fois individuelle pour le chercheur, mais aussi collective pour la recherche académique. Donc, si on regarde par rapport aux experts que j'ai interrogés et les bouleversements qui s'annoncent dans le domaine de la recherche, on voit que dans les différentes disciplines on a la sensation que la recherche en IA est montée d'un cran. 00:07:25:23 - 00:07:49:21 Anne-Sophie Cases Bien sûr, elle a existé d'ailleurs dans ma discipline qu'est le marketing, on est des forts consommateurs d'IA. Sauf qu'aujourd'hui, elle prend un virage un peu différent. Par exemple, en droit, ce qui est intéressant, c'est que le droit, par exemple, est établi pour étudier les rapports entre les humains. Or, finalement, l'intelligence artificielle générative représente un tiers technologique entre humains. 00:07:49:23 - 00:08:10:10 Anne-Sophie Cases Et du coup, on modifie quelque part peut-être les règles de droit. Donc la question véritablement de la responsabilité est posée avec des cas comme, par exemple un cas très pratique qu'étudient les juristes, qui est la voiture autonome. Dans le management, les experts que j'ai interrogés pensent qu'on a en retard sur le sujet quand même., 00:08:10:10 - 00:08:34:03 Anne-Sophie Cases sur l'IA générative dans la recherche. On est plutôt sur des recherches assez classiques de délégation de responsabilité, sur des recherches sur la légitimité des technologies. Mais effectivement, certains me disent il faudrait intégrer des normes épistémiques tant l'IA générative devient un phénomène social. Et en architecture ? Je ne vais pas lister toutes les disciplines que j'ai interrogées puisqu’il y avait aussi biologie. 00:08:34:05 - 00:09:02:11 Anne-Sophie Cases C'est finalement un vraie bouleversement parce qu'on va finalement du texte à l'image. Et l'IA est véritablement un outil qui va permettre de gagner un temps énorme dans l'élaboration des maquettes numériques pour la recherche en architecture. Alors si les questions d'éthique existaient bien avant, tous s'accordent à dire, en tout cas pour les experts que j'ai interrogés, qu'il y a un amplificateur de risques dans l'utilisation des outils d’IA générative en recherche. 00:09:02:13 - 00:09:30:21 Anne-Sophie Cases Le premier constat,. le risque en fait, c'est d'avoir ce qu'on appelle la “ data augmentation ”, c'est à dire la création de données synthétiques. Je ne parle pas de fausses données, je parle de données synthétiques qui prennent appui sur des données réelles et qui sont peut être légitimes pour travailler sur des recherches qui poseraientt des problèmes de confidentialité ou des recherches sur lesquelles on n'aurait pas assez d'individus ou de répondants. 00:09:30:23 - 00:10:02:14 Anne-Sophie Cases Mais la question c'est qu'aujourd'hui l'IA générative permet davantage la création de ces données synthétiques. Mais quid de la qualité de ces données, puisque de la qualité de la recherche dépend la qualité des données ? Deuxième constat qu'on peut faire dans mes entretiens, c'est qu'il y a un risque de dépendance et de ne s'en remettre qu'à l’IA. Et que finalement le statut du chercheur perd quand même, quelque part, s'affaiblit dans le sens où on a même l'impression d'avoir une technologie qui est invisible. 00:10:02:16 - 00:10:30:05 Anne-Sophie Cases Et donc quid de la place du chercheur dans cette technologie ? Enfin, la question de l'authenticité est posée. Si je prends l'exemple de tout à l'heure, de l'architecture, quand vous avez tous les architectes du monde à votre service par un outil d'IA et que vous proposez un projet, quel va être sa signature et quel va être finalement l’authenticité qui est associée à ce projet ? 00:10:30:07 - 00:10:57:23 Anne-Sophie Cases C'est ce qu'ils appellent le “ flou artistique ” en architecture. Donc la question, effectivement, elle est tranchée. Et d'ailleurs on voit aujourd'hui que Adobe, qui est un logiciel de création graphique puisque l'IA créatrice est finalement une IA qui pose véritablement le problème de l'authenticité, a donc créé il n'y a pas très longtemps un certificat de “ content authenticity ” pour effectivement apposer des certificats de contenus numériques sur leurs œuvres. 00:10:58:00 - 00:11:23:11 Anne-Sophie Cases Enfin, le dernier constat que j'ai remarqué, que j'ai évalué dans mes entretiens, c'est le fait que l'IA soit utilisée dans l'évaluation de la recherche et suscite un vrai débat avec des personnes qui sont pour et des personnes qui sont absolument contre. On va y revenir tout à l'heure. Alors se poser des questions éthiques finalement va dépendre de la façon dont on va envisager la recherche. 00:11:23:13 - 00:11:48:17 Anne-Sophie Cases Pour certains, l'IA, c'est un accélérateur de la recherche. On va avoir finalement l'utilisation d'un outil d'aide à la décision. On va avoir pour certains plus d'objectivité. Une rapidité dans le calcul des gains de productivité. Pour d'autres, en revanche, c'est le risque d'une certaine dépendance et de perte de compétences pour le chercheur. Pourquoi ? Parce que l'IA peut biaiser la genèse du travail. 00:11:48:17 - 00:12:16:03 Anne-Sophie Cases On l'a vu d'ailleurs dans le dernier déjeuner où l’IA avait du mal à nous accompagner sur la problématisation. Est-ce qu'elle ne va pas finalement nous mettre sur des rails et nous empêcher de découvrir d'autres articles, d'autres recherches ? L'IA peut faire aussi perdre le statut d'expert puisque si l'IA nous remplace comme évaluateurs, et bien on peut se poser la question du rôle du chercheur et de l'évolution de nos métiers. 00:12:16:05 - 00:12:43:15 Anne-Sophie Cases Ensuite, le rôle peut conférer un rôle passif. Si effectivement l'idée c'est d'utiliser un outil pour faire une recherche à notre place, on pourrait lire des articles à notre place. Et bien finalement, le chercheur devient plutôt passif dans son activité de recherche. Alors ces deux visions sont effectivement différentes. Une première vision de la recherche explique finalement l'utilisation et on va dire une envie d'utiliser ces outils. 00:12:43:17 - 00:13:11:03 Anne-Sophie Cases Il s'agit d'une recherche automatisée, d'une recherche qui va vers plus de “ ranking ”, plus de quantité et donc forcément toujours plus d'efficacité. Donc là, effectivement, l'IA générative peut être véritablement vue comme une réelle opportunité. En revanche, on peut avoir une vision de la recherche plus artisanale où on va rechercher plutôt du sens à ce qu'on fait, plutôt la qualité que la quantité et donc moins de pression finalement dans la recherche de publications. 00:13:11:09 - 00:13:38:01 Anne-Sophie Cases Et auquel cas l’IA générative sera peut-être moins plébiscitée ou en tout cas plébiscitée pour des fonctions plutôt d'assistances de recherche. Tous les experts que j'ai interrogés pensent qu'il faut réfléchir de façon holistique et pluridisciplinaire. Pourquoi ? Parce qu'il existe des différences entre les disciplines, et notamment sur la question des données. Il y a des disciplines qui travaillent sur des données qui sont passées. 00:13:38:07 - 00:14:01:06 Anne-Sophie Cases Certaines de ces données ne sont pas dans la numérisphère donc sur lesquelles l'IA générative n'est pas entraînée. D'autres, au contraire, reposent sur des données qui peuvent être créées par l'IA générative. Je pense en biologie par exemple, où là, véritablement, la question de la véracité de la donnée peut être véritablement posée. Ensuite, il faut une approche multi-facettes et contextuelle. 00:14:01:08 - 00:14:21:14 Anne-Sophie Cases Ce qui est acceptable pour un pays ne l'est pas pour un autre. On voit que, par exemple, dans la recherche clinique, les données synthétiques sont autorisées aux États-Unis et ne sont absolument pas autorisées en Europe. Les valeurs morales sont propres à chaque chercheur. Et d'ailleurs les juristes parlent d'éthique clinique, c'est à dire qui partent d'un cas, d'un contexte pour en tirer des principes. 00:14:21:19 - 00:14:50:15 Anne-Sophie Cases Si je prends le cas des données synthétiques, peut-être qu'en recherche clinique on peut comprendre l'utilité. Si on le transpose dans un autre contexte, ça peut être finalement très discutable. Alors ce qui rassure quand même dans le discours des chercheurs que j'ai interrogés, c'est que pour eux, la nouveauté, c'est le cœur de la recherche scientifique et que les modèles génératifs qui sont proposés, en tout cas aujourd'hui, ça ne veut pas dire que dans le futur ils ne seront pas, ne prédisent pas l'avenir contrairement à la science. 00:14:50:17 - 00:15:15:16 Anne-Sophie Cases Donc ce qui va nous sauver en gros dans la recherche scientifique, c'est notre capacité humaine à avoir de nouvelles idées et donc à imaginer la recherche de demain. Alors si je retiens les idées principales, il y a deux facteurs qui semblent revenir dans les discours des experts. Un : l'auteur et seul responsable. Donc la responsabilité, c'est l'humain qui a la responsabilité dans l'utilisation de ces outils. 00:15:15:18 - 00:15:39:18 Anne-Sophie Cases Et deux : c'est la question de la transparence. L'auteur, l'évaluateur doit être transparent dans le processus qu'il a, dans l'usage qu'il a de ces outils. Alors le problème, c'est qu'on est quand même sur un système qui est fragile. Il était déjà fragile avant l'arrivée de l'IA. Ce n'est pas l'IA qui... C'est à dire qu'on avait un système de relecture par les pairs qui est en perte de vitesse. 00:15:39:20 - 00:16:03:09 Anne-Sophie Cases On a aujourd'hui beaucoup plus de chercheurs, on le voit dans la communauté marketing par exemple, et pas forcément beaucoup plus de propositions, ou en tout cas de capacité à publier nos recherches. Donc quelque part, il y a effectivement un système qui reste fragile, avec aujourd'hui des manquements à l'intégrité scientifique qui commencent à apparaître sur l'utilisation de l'IA. 00:16:03:15 - 00:16:21:24 Anne-Sophie Cases Les rédacteurs en chef que j'ai interrogés l'ont dit, ça veut dire que ça commence à arriver et que l'IA est vue comme un vrai danger dans l'évaluation de la recherche, dans l'évaluation des thèses et bien sûr dans l'évaluation des mémoires. C'est ce que d'ailleurs on a vu dans le premier, puisque finalement ça nous a tous concernés, puisqu'on est pour la plupart enseignants-chercheurs. 00:16:22:01 - 00:16:49:24 Anne-Sophie Cases Les tâches les plus cruciales en recherche sont celles de la relecture. Pourquoi ? Parce qu'elles sont basées sur l'expertise en fait d’un relecteur sur finalement le sujet. Le fait qu'on délègue cette expertise à une IA pose véritablement la question de la confiance. Le fait d'interdire l'usage de l'IA pour les “reviewer ” n'est pas quand même la solution puisqu'on bien on l'a bien vu, au départ pour les étudiants, le fait d'interdire l'IA n’a pas réglé le problème. 00:16:50:01 - 00:17:12:04 Anne-Sophie Cases Donc effectivement, la question c'est comment encadrer son usage ? Alors, comment l'IA va générer les comportements futurs ? Par exemple, si on sait que le “ desk reject ” est fait avec une IA, et bien les chercheurs vont tenter de programmer leurs recherches pour passer cette première étape. Donc on va avoir des biais de conformité de la recherche qui existent déjà. 00:17:12:08 - 00:17:35:19 Anne-Sophie Cases Ce n'est pas non plus révolutionnaire, mais ils vont être amplifiés. Et le problème que je vois, en tout cas qui m'a été relaté par les experts, c'est le problème du risque de la levée de l'anonymat des données. Si on veut vérifier la véracité des données, il va falloir revenir à la source. Et l'anonymat des données c'est finalement le principe éthique propre de la recherche. 00:17:35:21 - 00:18:03:00 Anne-Sophie Cases Donc là, on a un véritable dilemme et qui témoigne en fait de la fragilité de nos systèmes. Donc tous les petits déjeuners qui ont eu lieu avant ont montré et ont proposé plein d'outils dans les différentes étapes. Ces outils, finalement, chaque fois qu'ils sont utilisés, doivent nécessiter pour le chercheur véritablement des précautions de vérification, d'expertise, de compréhension. 00:18:03:02 - 00:18:24:09 Anne-Sophie Cases Mais je trouve que l'étape essentielle et sur laquelle je n'avais pas véritablement vu au départ un véritable risque, c'est finalement la dernière étape, c'est à dire l'évaluation et la valorisation dans notre recherche, qui peut quand même être préjudiciable puisque la carrière des enseignants chercheurs est basée sur le fait qu'effectivement on arrive à publier dans des bonnes revues. 00:18:24:11 - 00:18:51:24 Anne-Sophie Cases Donc, je vais peut être faire un petit focus sur cette étape d'évaluation de la recherche, mais je reste à votre disposition si vous avez des questions sur les autres étapes. Alors pourquoi on a aujourd'hui la tentation d'utiliser de façon massive des outils d'IA générative, notamment pour cette étape d'évaluation de la recherche ? Alors, la tentation, elle est exppiquée par trois facteurs que j'ai un peu donnés tout à l'heure : la pression des chercheurs pour la publication. 00:18:52:05 - 00:19:21:13 Anne-Sophie Cases Certains experts que j'ai interrogés me disent que l'IA ne va faire que renforcer la compétition déjà existante entre les chercheurs. Ensuite, il y a une augmentation croissante de soumissions, ce qui fait qu'il y a un goulet d'étranglement à un moment donné. Et des fois on peut attendre. Et ça m'est arrivé pas plus tard que cette année, on peut attendre huit mois pour avoir une réponse et avoir finalement un “ reviewer ” qui accepte de relire le papier. 00:19:21:14 - 00:19:48:24 Anne-Sophie Cases Donc il y a une baisse du ratio “reviewer ” soumission. Et donc forcément une tentation avec des outils. Certains sont quand même payants, notamment si on ne veut pas prendre le risque de divulguer les données de la recherche qui sont confidentielles. Quand on confie un manuscrit qui n'est pas publié, à ce moment là, effectivement, il faut quand même s'assurer que la solution qu'on va utiliser est une solution qui protège les données. 00:19:48:24 - 00:20:19:19 Anne-Sophie Cases Sinon, c'est aussi un risque éthique qu'on fait prendre non seulement pour nous, mais surtout pour les auteurs qui nous ont confié leurs recherches. Donc effectivement, on est aujourd'hui sur des tentations par rapport à cette utilisation. Alors j'ai voulu aller voir un petit peu dans la littérature. J'ai trouvé un article intéressant qui a été publié dans le “ Journal of the Association Information Systems ”, qui nous montre, enfin qui essaye de voir, quand est-ce que l'IA pourrait être un vrai potentiel, une vraie aide dans les différentes étapes, 00:20:19:21 - 00:20:50:14 Anne-Sophie Cases en tout cas, les différents critères qu'on a dans l'évaluation de la recherche. Clairement, le “ format check ” est finalement l'élément qui paraît être le plus sensé, c'est à dire la vérification du style, des références de la police, etc. Qui peut être automatisé par une IA. Ensuite, effectivement, on voit que ce qui peut être intéressant, c'est d'aller trouver un matching entre des “ reviewer ” qui sont experts et..ça se fait déjà. 00:20:50:16 - 00:21:10:05 Anne-Sophie Cases Les éditeurs et les rédacteurs en chef le font déjà. Mais là on peut amplifier le phénomène et aller chercher peut-être des “ reviewer ” qui ne seraient pas dans leur base de données et qui puissent être finalement intéressant et pertinents à aller choisir. Par contre, là où on voit que l'IA est peu utile, c'est pour la détection de plagiat.. 00:21:10:05 - 00:21:42:09 Anne-Sophie Cases pour caractériser le caractère novateur de la recherche, pour identifier l'importance de la recherche par rapport à ce qui existe et ce qui a été publié jusqu'à présent. Donc si je fais le bilan, je dirais que l'IA peut valoriser la recherche si elle sert en tant qu'outil pour relire, corriger, etc. Mais peut dévaloriser la recherche si elle rédige à la place de l'auteur. La plus value du chercheur, c'est de mener des recherches ou l'IA ne peut pas apporter quelque chose de probant. 00:21:42:11 - 00:22:08:09 Anne-Sophie Cases Donc être dans la nouveauté peut-être avoir des recherches plus empiriques. Et l’ IA générative, en fait, tous m'ont dit qu'en gros, c'était un stagiaire à la grosse tête qui savait tout sur tout et qu'il fallait cadrer, former pour en tirer les bénéfices en recherche. Alors la régulation, elle peut se faire à quatre niveaux. Elle peut se faire au niveau individuel, au niveau du chercheur, donc acculturation, éducation. 00:22:08:09 - 00:22:31:18 Anne-Sophie Cases C'est d'ailleurs ce que proposent les petits déjeuners données jusqu'à présent. Elle peut se faire au niveau organisationnel : universités, écoles, associations, avec les questions de gouvernance d'IA, de comité d'éthique de la recherche, etc. Elle peut se faire au niveau de l'industrie. On voit qu'il y a des “ guidelines ” qui sont faits pour les auteurs, très peu pour les “ reviewer ” quand-même, avec effectivement deux principes : responsabilité et transparence. 00:22:31:18 - 00:22:54:03 Anne-Sophie Cases Et elle peut se faire au niveau gouvernemental. On a d'ailleurs le sommet de l'IA cette semaine. Donc effectivement on a plusieurs façons de réguler l'IA. Et je termine Christophe avec ce slide sur les comités d'éthique de la recherche dont je fais partie depuis trois ans à l'Université de Montpellier. Rien n'est pensé pour l'instant sur l'IA, donc cette question est absente. 00:22:54:03 - 00:23:17:08 Anne-Sophie Cases Pour autant, on commence à voir, dans les comités, des recherches dans lequelles des scénarios ont été créés par l'IA. Donc effectivement, cette question, elle doit être posée. Et aujourd'hui, elle doit être, je pense, intégrée dans les comités d'éthique de la recherche. Je vous ai mis trois questions auxquelles je suis pas sûre de pouvoir répondre, moi : comment statuer un projet de recherche qui intègre la génération de données synthétiques ? 00:23:17:10 - 00:23:36:01 Anne-Sophie Cases Comment évaluer la véracité des données sans l'accès aux données ? Et comment évaluer des scénarios pour la recherche qui ont été créés par l'IA générative ? Donc trois questions qui me semblent être des questions sur lesquelles les comités d'éthique de la recherche vont devoir plancher et en tout cas devoir intégrer dans le futur. Voilà, j'espère que je n'ai pas été trop longue. 00:23:36:01 - 00:23:44:20 Anne-Sophie Cases Merci en tout cas. Et voilà quelques références et n'hésitez pas, si vous avez des questions, à intervenir. 00:23:44:22 - 00:23:55:09 Christophe Fournier Merci Anne-Sophie pour tous ces éléments. C'est habile, tu nous poses des questions alors que c'est nous qui devrions t’en poser. Alors une question. Si tu peux amener une réponse rapide. “C'est quoi des données synthétiques ? ” 00:23:55:11 - 00:24:16:10 Anne-Sophie Cases Alors il y a des données synthétiques, c'est par exemple si je prends la recherche clinique, c'est de se servir d'un patient, enfin des données réelles d'un patient, et de créer à partir de ça un patient virtuel. Et souvent, c'est utilisé parce qu'on n'a pas assez de données. Et donc si on veut tester par exemple, je ne sais pas, le succès d'un vaccin ou en tout cas la pertinence d'un vaccin... 00:24:16:10 - 00:24:37:06 Anne-Sophie Cases ...on peut effectivement, pour certaines maladies sur lesquelles on n'a pas beaucoup de patients, travailler sur ces données synthétiques. Après, on peut aussi avoir des fausses données, donc créer des faux questionnaires, etc. Mais ça, ça existait bien avant. C'est pas nouveau, et ce n'est pas lié à l'IA générative. 00:24:37:08 - 00:24:43:20 Christophe Fournier Maria Mercanti : “Est-ce qu'on doit mettre ces preuves dans l'article lorsqu'on a codé avec de l'IA générerative des données ? Oui ? Non ? 00:24:43:20 - 00:24:45:23 Anne-Sophie Cases Je n’ai pas compris. 00:24:46:00 - 00:24:51:22 Christophe Fournier Est ce qu'il faut mettre les prompts quand tu utilises de l'IA générative notamment pour coller des données ? 00:24:54:08 - 00:24:59:22 Anne-Sophie Cases Alors je pense que là, elle veut parler je pense, Maria, de la de la transparence qu'on doit avoir. 00:24:59:24 - 00:25:00:03 Christophe Fournier Oui, c’est ça. 00:25:01:06 - 00:25:21:10 Anne-Sophie Cases Alors moi je pense qu'il faut peut-être les mettre par exemple, quand on répond à un “ reviewer ”, il faut effectivement faire acte de transparence. Après, il ne faut pas non plus que l'article devienne un listing de prompts. D'ailleurs on a le même problème avec les étudiants sur leur mémoire. On ne va pas leur demander tous les prompts qu'ils ont utilisés. Donc en fait, il faut trouver un juste milieu pour montrer comment l'outil a été utilisé. 00:25:21:15 - 00:25:32:14 Anne-Sophie Cases Mais c'est vrai que pour l'instant il n'y a pas de guidelines, je pense, sur la façon dont on va faire acte de transparence. A part le fait de le dire, il n'y a pas vraiment de norme sur ça. En tout cas je n’ai pas vu. 00:25:32:16 - 00:25:48:21 Christophe Fournier Ok alors moi j'ai une question, j'en ai plusieurs qui me viennent à l'esprit. Finalement, est ce qu'on a le choix ? Parce que tu dis il y a des revues où il y a une grosse compétition internationale, il y a des revues où il faut publier, etc. Est-ce qu'on pourrait imaginer des revues un petit peu plus soft ? 00:25:48:21 - 00:25:56:23 Christophe Fournier Est-ce qu'on peut imaginer un truc à deux vitesses ? Ou est-ce que finalement on n'a pas le choix ? Si tu es dans le game international, il faut y aller. 00:25:57:00 - 00:26:16:21 Anne-Sophie Cases C'est sûr, mais je pense que si par exemple on fait de la recherche sur l'IA générative qui est un objet de recherche, je trouve que les processus de publication aujourd'hui sont trop lents, parce que ça évolue tellement que ça n'a aucun sens d'envoyer un papier sur l'IA générative qui finalement dans deux ans sera... etc. 00:26:16:23 - 00:26:44:19 Anne-Sophie Cases Et qui plus est, aujourd'hui, je pense qu'il faut peut-être un système à deux vitesses, que-peut être on doit être aussi des lanceurs d'alerte, nous, en tant que chercheurs. Est-ce que c'est pour ça qu'on est un peu en retard ? Certains m'ont dit : “ on n'a pas réagi suffisamment tôt ! ”. Mais tout simplement parce que nos processus de recherche et de valorisation de la recherche sont trop lents. Et qu'effectivement, on est dans une frénésie aujourd'hui d'outils qui finalement n'est pas compatible sur le temps de la recherche. 00:26:45:00 - 00:26:48:09 Anne-Sophie Cases Donc je pense que peut-être un système à double vitesse pourrait être intéressant. 00:26:48:09 - 00:27:04:05 Christophe Fournier Mais est-ce que c'est pertinent d'avoir un système à double vitesse quand tu vas rentrer dans des “ rankings ”, dans des évaluations type AACSB, etc ? Je me pose la question. Je vais un petit peu plus loin : est-ce que ça ne vaut pas mieux un bon “ reviewing ” fait par IA à q’un mauvais “ reviewing ” qui a pris six mois et qui est bancal ? 00:27:04:05 - 00:27:08:11 Christophe Fournier Parce que tu vois bien que le “reviewer ”... 00:27:08:13 - 00:27:28:20 Anne-Sophie Cases Alors il n'y a pas de réponse zéro-un,. ce n'est pas dual. C'est effectivement une zone grise dans laquelel on doit statuer. Mais effectivement, moi ça fait huit mois que j'attendais que la revue me contacte. Finalement, une IA qui me contacte et qui me dit : ça y est, le process est lancé. Super quoi ! Sauf que ce n'est pas le cas, donc pour l'instant... 00:27:28:22 - 00:27:42:11 Anne-Sophie Cases Après, il faut vraiment faire attention, en tout cas quand on est relecteur, du risque qu'on fait prendre aux auteurs quand même, parce qu'on est dans un rapport de confiance et de confidentialité. Donc là vraiment, il y a un vrai problème éthique je trouve. 00:27:42:13 - 00:28:08:11 Christophe Fournier Plein de messages de félicitations. Alors, Nathalie Guichard, et c’est un peu la question que je voulais te poser : “ Est-ce que finalement ce n’est pas une démarche beaucoup plus large, le chercheur et sa responsabilité éthique ? ” Il y a plein d'endroits où ça ne marche pas, des données qui sont bidonnées, des collègues qui font à partir de la collecte de données et font le modèle statistique qui va bien, ils font l'état de l'art et les hypothèses. Parce que finalement ce n’est pas une dimension de plus dans tout le processus éthique ou une éthique de la recherche ? 00:28:08:11 - 00:28:34:09 Anne-Sophie Cases C'est vraiment une dimension d'amplification et de facilitation, peut-être, des dérives qu'on connaissait bien avant. Et peut-être que la la problématique aussi c'est que les outils sont en “ open access ”, donc ils sont “ open source ”, etc. Donc ça c'est très bien. Mais après le problème c'est qu'on n'est pas formés sur tous ces outils. Ces outils sortent, 00:28:34:11 - 00:28:58:05 Anne-Sophie Cases on l'a vu avec l'IA chinoise la semaine dernière, il va y avoir d'autres IA. Donc en fait on a la sensation aujourd'hui d'être dans une période où on est submergés par tous ces outils. Donc il y a aussi un temps peut-être qui va être après, où on va véritablement comprendre et peut-être choisir des outils qui auraient finalement un usage plus responsable de l'IA. 00:28:58:07 - 00:29:10:05 Anne-Sophie Cases J'ai pas parlé aussi des dimensions environnementales de l'IA qui font partie de l'IA frugale et qui sont aussi des questions éthiques sur lesquelles on doit se poser... sur véritablement nos usages. 00:29:10:07 - 00:29:35:10 Christophe Fournier Alors tu me permets de faire la transition. Je te remercie Anne-Sophie pour tous ces éléments. On va arrêter ici ce petit déjeuner consacré à une dimension éthique avec ta vision. Un grand merci pour tout toutes ces propos. Comme Yves Livian le dit, il y a certaines universités, notamment nord-américaines, qui font des chartes, des choses comme ça. Le prochain petit déjeuner, et bien c'est véritablement ce que tu viens d'aborder. 00:29:35:10 - 00:29:58:05 Christophe Fournier Il aura lieu le 11 mars avec Stéphanie Missonier de HEC Lausanne et qui viendra nous parler de toutes ces questions environnementales. Alors j'ai vu un post cette semaine de Pascal Mouysset qu'on connaît à Montpellier qui est un des numéro deux ou trois du centre DELL, les ordinateurs, et qui a montré qu'une requête par ailleurs générative, consommait dix fois plus d'électricité qu'une requête par Google. 00:29:58:05 - 00:30:17:24 Christophe Fournier Je pense qu'on peut faire confiance sur cette source là. Et donc ça va poser tout un tas de problèmes. Et c'est Stéphanie qui Missonier qui viendra nous en parler le 11 mars. On laisse passer les congés d'hiver sur différentes zones et je vous donne rendez-vous donc à cette période-là. Anne-Sophie Un gros merci. Un grand merci à la petite centaine de participants qui étaient en ligne. 00:30:18:04 - 00:30:38:16 Christophe Fournier Merci à l'équipe AUNEGe qui nous aide sur la mise en œuvre de ces petits déjeuners. Merci à la FNEGE et à IAE FRANCE qui nous soutiennent dans ces initiatives et dans la communication. Bonne journée et bonne semaine à tous. Bonnes vacances à ceux qui en prennent et retour le 11 mars. Merci beaucoup. Au revoir.