@osefmegrav Je n’avais pas été jusque‑là, je m’étais juste dit que ça utilisait les API Google (c’est clairement écrit) qui devait donc se gaver au passage, mais oui ça pourrait aussi servir pour alimenter un LLM.
Dans tous les cas ça pose une bonne question : comment apprendre à connaître la bête sans l’alimenter ? Je présume qu’on ne peut pas faire tourner le modèle en local.