@pouyllau Une tâche administrative de laquelle je pourrais être déchargé par un LLM, à quoi elle pourrait servir au fond ? Pourquoi ne pourrait-on pas simplement la supprimer ? Si un appel à projet par exemple est tellement creux qu'une réponse LLM a un intérêt, autant le remplacer par une lotterie ou des crédits récurrents, pas la peine de vider le Mississipi pour refroidir les serveurs qui écriront le projet. Cette perspective de notre bureaucratie s'hybridant avec les LLM me glace d'effroi.
Ces deux jours sur l'IA en SHS (et dans la tension entre DH et SHS ”non DH“) ont été très riches (trop même). Je vais mettre du temps à digérer les éléments discutés autour des biais des LLM, des fusions LLM/RAG/Humain (!) et les discussions animées par @monterosato (dont celle autour de la création de TEI par ChatGPT sur des documents HTRisés par un autre LLM !). J'aime beaucoup l'idée que les chercheurs utilisent les LLM et leurs interfaces pour remplir leurs demandes d'argents aux agences…
Et si les LLM pouvaient être affinés pour décharger les chercheurs de leurs tâches administratives ? Est-ce que les « Êtres » (“Beings”) hybrides (Humain+LLM) décrits hier par Ollivier Denys dans « The Dissolution of Boundaries: A Human-Machine Ontology » pourraient être entraînés et ré-entraînés pour faire des taches secondaires et même primaires ?
Je suis frappé de la maturité de la réflexion sur les l’usage des #LLM en #shs de ce côté de l’Atlantique (et la dimension inter-universitaire de l’atelier renforce cela). Qui du coup fait pas mal écho à nos travaux sur le RAG.