{"id":340,"date":"2025-08-06T06:14:08","date_gmt":"2025-08-06T06:14:08","guid":{"rendered":"https:\/\/steveprudhomme.org\/?p=340"},"modified":"2025-08-08T04:40:55","modified_gmt":"2025-08-08T04:40:55","slug":"creation-dun-modele-lora-pour-le-cf-104-starfighter-dans-comfyui-guide-complet-et-bonnes-pratiques","status":"publish","type":"post","link":"https:\/\/steveprudhomme.org\/index.php\/2025\/08\/06\/creation-dun-modele-lora-pour-le-cf-104-starfighter-dans-comfyui-guide-complet-et-bonnes-pratiques\/","title":{"rendered":"Cr\u00e9ation d&rsquo;un Mod\u00e8le LoRA pour le CF-104 Starfighter dans ComfyUI : Guide Complet et Bonnes Pratiques"},"content":{"rendered":"\n<figure class=\"wp-block-audio\"><audio controls src=\"https:\/\/steveprudhomme.org\/wp-content\/uploads\/2025\/08\/Maitriser-le-LoRA_-Creer-un-CF-104-Starfighter-Parfait-avec-ComfyUI-\u2013-Guide-Pratique-et-Astuces-Essentielles.mp3\"><\/audio><\/figure>\n\n\n\n<p>Auteur : Steve Prud\u2019Homme<\/p>\n\n\n\n<p>Cet article a \u00e9t\u00e9 g\u00e9n\u00e9r\u00e9 gr\u00e2ce \u00e0 l\u2019aide de plusieurs outils d\u2019intelligence artificielle.<\/p>\n\n\n\n<p><strong>R\u00e9sum\u00e9<\/strong><\/p>\n\n\n\n<p>Ce rapport d\u00e9taille la m\u00e9thodologie pour cr\u00e9er un mod\u00e8le LoRA (Low-Rank Adaptation) pr\u00e9cis du CF-104 Starfighter dans ComfyUI, une interface visuelle bas\u00e9e sur des n\u0153uds. Le processus d\u00e9bute par la pr\u00e9paration d&rsquo;un jeu de donn\u00e9es d&rsquo;images de haute qualit\u00e9 (20-40 images, 512&#215;512 pixels), vari\u00e9es en angles, \u00e9clairage et arri\u00e8re-plans, avec une attention particuli\u00e8re aux d\u00e9tails m\u00e9caniques de l&rsquo;avion. L&rsquo;utilisation d&rsquo;images avec arri\u00e8re-plans transparents est possible mais n\u00e9cessite une gestion sp\u00e9cifique par l&rsquo;outil d&rsquo;entra\u00eenement pour \u00e9viter les probl\u00e8mes de g\u00e9n\u00e9ralisation. Le l\u00e9gendage pr\u00e9cis des images est crucial, en omettant les caract\u00e9ristiques fixes de l&rsquo;avion et en incluant les \u00e9l\u00e9ments variables, tout en utilisant un mot-cl\u00e9 de d\u00e9clenchement unique. La configuration du workflow dans ComfyUI implique l&rsquo;installation de n\u0153uds personnalis\u00e9s comme \u00ab\u00a0ComfyUI-FluxTrainer\u00a0\u00bb et la bonne organisation des r\u00e9pertoires d&rsquo;entr\u00e9e et de sortie. L&rsquo;optimisation des hyperparam\u00e8tres est essentielle, notamment <code>network_dim<\/code> (64-128 pour le r\u00e9alisme) et <code>network_alpha<\/code> (g\u00e9n\u00e9ralement la moiti\u00e9 de <code>dim<\/code>), le taux d&rsquo;apprentissage (0.0001-0.0004), le nombre d&rsquo;epochs et de r\u00e9p\u00e9titions, et la taille de lot, en utilisant des strat\u00e9gies d&rsquo;augmentation de donn\u00e9es comme le retournement horizontal. Pour pr\u00e9venir le sur-apprentissage (overfitting) ou le sous-apprentissage (underfitting), des ajustements de ces param\u00e8tres et l&rsquo;utilisation d&rsquo;un jeu de donn\u00e9es de r\u00e9gularisation sont recommand\u00e9s. Enfin, l&rsquo;\u00e9valuation et le raffinement it\u00e9ratif du mod\u00e8le sont r\u00e9alis\u00e9s par inspection visuelle des images g\u00e9n\u00e9r\u00e9es, des tests avec des prompts vari\u00e9s et des seeds fixes, et l&rsquo;analyse des courbes de perte, soulignant l&rsquo;importance de la patience et de l&rsquo;exp\u00e9rimentation continue pour obtenir un LoRA performant et polyvalent.<\/p>\n\n\n\n<p><strong>Mots-cl\u00e9s :<\/strong> LoRA, ComfyUI, CF-104 Starfighter, Fine-tuning, Mod\u00e8le g\u00e9n\u00e9ratif, Stable Diffusion, Jeu de donn\u00e9es, Images de haute qualit\u00e9, L\u00e9gendage, Mots-cl\u00e9s, Hyperparam\u00e8tres, network_dim, network_alpha, Taux d&rsquo;apprentissage, Overfitting, Underfitting, R\u00e9gularisation, \u00c9valuation de mod\u00e8le, Intelligence artificielle.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">1. Introduction au Fine-Tuning LoRA et ComfyUI<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Qu&rsquo;est-ce qu&rsquo;un LoRA et pourquoi est-il id\u00e9al pour des objets sp\u00e9cifiques comme le CF-104?<\/h3>\n\n\n\n<p>Le Low-Rank Adaptation (LoRA) constitue une technique de fine-tuning hautement efficace, con\u00e7ue pour adapter de grands mod\u00e8les g\u00e9n\u00e9ratifs, tels que Stable Diffusion, \u00e0 des t\u00e2ches sp\u00e9cifiques. Cette m\u00e9thode se distingue par sa capacit\u00e9 \u00e0 modifier une fraction minime des param\u00e8tres du mod\u00e8le pr\u00e9-entra\u00een\u00e9, en introduisant des matrices de faible rang. Cette approche r\u00e9duit consid\u00e9rablement les exigences computationnelles et de stockage par rapport au r\u00e9entra\u00eenement complet du mod\u00e8le de base (ArXiv, 2025c; Cloudflare, s. d.; RunDiffusion, 2025b; SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Les mod\u00e8les LoRA sont intrins\u00e8quement plus compacts et plus simples \u00e0 entra\u00eener que leurs homologues de base (Cloudflare, s. d.; SeaArt Guide, 2025a). Cette caract\u00e9ristique permet une personnalisation cibl\u00e9e du mod\u00e8le pour des applications pr\u00e9cises, comme la g\u00e9n\u00e9ration d&rsquo;un objet distinctif tel que le CF-104 Starfighter, sans alt\u00e9rer le mod\u00e8le fondamental (Cloudflare, s. d.; RunDiffusion, 2025b; SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Le CF-104 Starfighter est un objet de niche et complexe, et un mod\u00e8le Stable Diffusion g\u00e9n\u00e9rique pourrait ne pas le rendre avec la pr\u00e9cision ou la coh\u00e9rence souhait\u00e9es en raison de sa repr\u00e9sentation potentiellement limit\u00e9e dans les donn\u00e9es d&rsquo;entra\u00eenement du mod\u00e8le de base. La capacit\u00e9 fondamentale de LoRA \u00e0 adapter un mod\u00e8le large \u00e0 des contextes sp\u00e9cifiques et nouveaux, sans les co\u00fbts prohibitifs d&rsquo;un r\u00e9entra\u00eenement complet, le rend exceptionnellement adapt\u00e9 \u00e0 une telle entreprise. Cette m\u00e9thodologie permet au mod\u00e8le d&rsquo;acqu\u00e9rir une compr\u00e9hension approfondie des caract\u00e9ristiques uniques du Starfighter tout en conservant les vastes capacit\u00e9s g\u00e9n\u00e9ratives du mod\u00e8le de base pour la cr\u00e9ation de sc\u00e8nes et de styles vari\u00e9s. En substance, cette approche permet d&rsquo;enseigner au mod\u00e8le l&rsquo;apparence exacte d&rsquo;un Starfighter sans qu&rsquo;il soit n\u00e9cessaire de lui r\u00e9apprendre de z\u00e9ro ce qu&rsquo;est un \u00ab\u00a0avion\u00a0\u00bb.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Vue d&rsquo;ensemble de l&rsquo;environnement ComfyUI pour l&rsquo;entra\u00eenement de mod\u00e8les<\/h3>\n\n\n\n<p>ComfyUI est une interface utilisateur bas\u00e9e sur des n\u0153uds, offrant une approche visuelle pour la construction de workflows complexes (ComfyUI Documentation, s. d.a; Stable Diffusion Art, 2025a). Chaque n\u0153ud au sein de ComfyUI ex\u00e9cute une fonction sp\u00e9cifique, et les connexions filaires entre ces n\u0153uds d\u00e9finissent le flux logique du processus (ComfyUI Documentation, s. d.a; Stable Diffusion Art, 2025a).<\/p>\n\n\n\n<p>Pour l&rsquo;entra\u00eenement de mod\u00e8les LoRA, ComfyUI peut \u00eatre \u00e9tendu par l&rsquo;int\u00e9gration de n\u0153uds personnalis\u00e9s. Ces extensions incluent des solutions bas\u00e9es sur des backends tels que Kohya-ss (SeaArt Guide, 2025a), ou des syst\u00e8mes int\u00e9gr\u00e9s comme \u00ab\u00a0Lora-Training-in-Comfy\u00a0\u00bb (runcomfy.com, 2024) et \u00ab\u00a0ComfyUI-FluxTrainer\u00a0\u00bb (Geekatplay, s. d.b; RunComfy, 2025).<\/p>\n\n\n\n<p>L&rsquo;architecture bas\u00e9e sur les n\u0153uds de ComfyUI favorise intrins\u00e8quement la modularit\u00e9 et l&rsquo;exp\u00e9rimentation. Pour l&rsquo;entra\u00eenement LoRA, cela signifie que les utilisateurs peuvent facilement interchanger diff\u00e9rents composants, tels que les n\u0153uds de pr\u00e9paration de jeu de donn\u00e9es, les boucles d&rsquo;entra\u00eenement ou les m\u00e9thodes de validation. Cette flexibilit\u00e9 inh\u00e9rente est particuli\u00e8rement avantageuse lors du fine-tuning de sujets complexes comme le CF-104, car elle facilite l&rsquo;it\u00e9ration rapide et l&rsquo;analyse comparative de diverses strat\u00e9gies d&rsquo;entra\u00eenement et configurations d&rsquo;hyperparam\u00e8tres (RunComfy, 2025). La capacit\u00e9 \u00e0 construire des workflows sp\u00e9cifiquement pour comparer diff\u00e9rents param\u00e8tres soutient directement le processus it\u00e9ratif n\u00e9cessaire pour atteindre une performance optimale du mod\u00e8le.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">2. Pr\u00e9paration du Jeu de Donn\u00e9es (Dataset) pour le CF-104 Starfighter<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Collecte d&rsquo;images de haute qualit\u00e9 : quantit\u00e9, r\u00e9solution et diversit\u00e9 (angles, \u00e9clairage, arri\u00e8re-plans)<\/h3>\n\n\n\n<p>La qualit\u00e9 du jeu de donn\u00e9es est un facteur d\u00e9terminant pour l&rsquo;efficacit\u00e9 de l&rsquo;entra\u00eenement d&rsquo;un mod\u00e8le LoRA (RunDiffusion, 2025b; SeaArt Guide, 2025a). Il est imp\u00e9ratif d&rsquo;utiliser des images de haute r\u00e9solution, d&rsquo;une nettet\u00e9 impeccable, bien \u00e9clair\u00e9es et exemptes de tout artefact ou filtre (RunDiffusion, 2025b; SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Pour un objet pr\u00e9cis tel que le CF-104, un jeu de donn\u00e9es de 10 \u00e0 25 images de haute qualit\u00e9 est g\u00e9n\u00e9ralement suffisant, bien que des recommandations plus larges de 20 \u00e0 40 images soient souvent cit\u00e9es pour des objets ou des caract\u00e8res en g\u00e9n\u00e9ral (Reddit, 2024e; RunDiffusion, 2025b; SeaArt Guide, 2025a). Il est important de noter que la quantit\u00e9 d&rsquo;images ne garantit pas n\u00e9cessairement une meilleure qualit\u00e9 ; un jeu de donn\u00e9es plus restreint mais m\u00e9ticuleusement organis\u00e9 est pr\u00e9f\u00e9rable \u00e0 un ensemble volumineux de faible qualit\u00e9 (Reddit, 2024e; SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>La r\u00e9solution des images doit \u00eatre adapt\u00e9e au mod\u00e8le de base employ\u00e9. Pour les mod\u00e8les Flux, une r\u00e9solution de 512&#215;512 pixels est conseill\u00e9e, tandis que pour les mod\u00e8les SDXL, une r\u00e9solution de 1024&#215;1024 est recommand\u00e9e (RunDiffusion, 2025b; SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>La diversit\u00e9 des images est cruciale pour assurer la capacit\u00e9 de g\u00e9n\u00e9ralisation du mod\u00e8le. Dans le cas du CF-104, cela implique d&rsquo;inclure des images sous une multitude d&rsquo;angles (vues de face, de c\u00f4t\u00e9, de l&rsquo;arri\u00e8re, trois-quarts, de dessus, de dessous), avec de subtiles variations de pose (par exemple, train d&rsquo;atterrissage d\u00e9ploy\u00e9 ou r\u00e9tract\u00e9, volets ajust\u00e9s), et sous diverses conditions d&rsquo;\u00e9clairage (lumi\u00e8re du jour, nocturne, aube\/cr\u00e9puscule) (Reddit, 2024e; RunDiffusion, 2025b).<\/p>\n\n\n\n<p>Pour les objets m\u00e9caniques comme les a\u00e9ronefs, la complexit\u00e9 g\u00e9om\u00e9trique et les \u00e9tats op\u00e9rationnels (par exemple, l&rsquo;entr\u00e9e d&rsquo;air du moteur, l&rsquo;\u00e9chappement, le train d&rsquo;atterrissage, la verri\u00e8re du cockpit, les r\u00e9servoirs de bout d&rsquo;aile) sont primordiaux. Par cons\u00e9quent, l&rsquo;exigence de \u00ab\u00a0diff\u00e9rents angles\u00a0\u00bb pour le CF-104 s&rsquo;\u00e9tend au-del\u00e0 des simples vues de face\/c\u00f4t\u00e9 pour englober une repr\u00e9sentation compl\u00e8te \u00e0 360 degr\u00e9s sur plusieurs axes (tangage, roulis, lacet) et diverses configurations fonctionnelles (par exemple, stationn\u00e9, en vol, au d\u00e9collage\/atterrissage) (Reddit, 2024e). Cette couverture angulaire d\u00e9taill\u00e9e est essentielle pour que le mod\u00e8le g\u00e9n\u00e8re l&rsquo;a\u00e9ronef de mani\u00e8re r\u00e9aliste sous n&rsquo;importe quelle perspective souhait\u00e9e, contribuant directement \u00e0 la pr\u00e9cision du LoRA r\u00e9sultant.<\/p>\n\n\n\n<p>L&rsquo;utilisation d&rsquo;arri\u00e8re-plans vari\u00e9s (int\u00e9rieurs de hangar, pistes d&rsquo;atterrissage, ciel, paysages diversifi\u00e9s) est essentielle pour que le mod\u00e8le apprenne \u00e0 isoler l&rsquo;objet (le CF-104) plut\u00f4t que de m\u00e9moriser un environnement statique (RunDiffusion, 2025b). Cette pratique, qui consiste \u00e0 utiliser des arri\u00e8re-plans vari\u00e9s, est une strat\u00e9gie fondamentale pour att\u00e9nuer le sur-apprentissage aux contextes environnementaux (RunDiffusion, 2025b). Pour un a\u00e9ronef tel que le CF-104, cette consid\u00e9ration est particuli\u00e8rement pertinente. Si les donn\u00e9es d&rsquo;entra\u00eenement ne pr\u00e9sentent l&rsquo;a\u00e9ronef que sur un tarmac, le LoRA pourrait montrer des limitations dans sa capacit\u00e9 \u00e0 le g\u00e9n\u00e9rer en vol ou dans des environnements alternatifs. En diversifiant les arri\u00e8re-plans, le mod\u00e8le est contraint d&rsquo;apprendre les caract\u00e9ristiques intrins\u00e8ques du CF-104, am\u00e9liorant ainsi sa robustesse et sa flexibilit\u00e9 pour des g\u00e9n\u00e9rations futures dans des contextes vari\u00e9s. Cette adaptabilit\u00e9 est une caract\u00e9ristique distinctive d&rsquo;un LoRA de haute qualit\u00e9 et g\u00e9n\u00e9ralisable.<\/p>\n\n\n\n<p>Avant de proc\u00e9der \u00e0 l&rsquo;entra\u00eenement, il est imp\u00e9ratif de supprimer toutes les images dupliqu\u00e9es ou quasi-dupliqu\u00e9es, le contenu flou ou non pertinent, ainsi que les superpositions ou filigranes (RunDiffusion, 2025b).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Bonnes pratiques sp\u00e9cifiques aux objets m\u00e9caniques et avions<\/h3>\n\n\n\n<p>Il est imp\u00e9ratif que le sujet principal, le CF-104, soit clairement visible et non obstru\u00e9 dans l&rsquo;int\u00e9gralit\u00e9 des images (RunDiffusion, 2025b). Le jeu de donn\u00e9es doit imp\u00e9rativement repr\u00e9senter un concept unique : il ne doit contenir que des images du CF-104 Starfighter, sans y inclure d&rsquo;autres types d&rsquo;avions ou d&rsquo;objets (RunDiffusion, 2025b). La clart\u00e9 et la coh\u00e9rence du sujet sont des facteurs d\u00e9terminants qui garantiront l&rsquo;efficacit\u00e9 du LoRA et sa r\u00e9activit\u00e9 aux prompts (RunDiffusion, 2025b).<\/p>\n\n\n\n<p>Contrairement aux sujets organiques, les entit\u00e9s m\u00e9caniques telles que le CF-104 poss\u00e8dent des composants fonctionnels distincts (par exemple, l&rsquo;entr\u00e9e d&rsquo;air du moteur, l&rsquo;\u00e9chappement, le train d&rsquo;atterrissage, la verri\u00e8re du cockpit, les r\u00e9servoirs de bout d&rsquo;aile). Le jeu de donn\u00e9es doit donc inclure m\u00e9ticuleusement des images qui mettent en \u00e9vidence ces d\u00e9tails sp\u00e9cifiques sous une multitude de perspectives. Cela garantit que le LoRA acquiert non seulement la forme globale, mais aussi les attributs complexes et d\u00e9finissant du Starfighter, contribuant ainsi de mani\u00e8re significative \u00e0 la \u00ab\u00a0pr\u00e9cision\u00a0\u00bb recherch\u00e9e. Cette approche repr\u00e9sente une application du principe de \u00ab\u00a0contenu diversifi\u00e9\u00a0\u00bb adapt\u00e9e aux sp\u00e9cificit\u00e9s de l&rsquo;ing\u00e9nierie m\u00e9canique.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Utilisation d&rsquo;images avec arri\u00e8re-plans transparents (canal alpha)<\/h3>\n\n\n\n<p>L&rsquo;utilisation d&rsquo;images avec des arri\u00e8re-plans transparents (canal alpha) lors de l&rsquo;entra\u00eenement d&rsquo;un mod\u00e8le LoRA est possible, mais elle requiert une attention particuli\u00e8re.<\/p>\n\n\n\n<p>Les entra\u00eeneurs LoRA traditionnels peuvent ignorer le canal alpha des images transparentes, ce qui peut entra\u00eener des arri\u00e8re-plans noirs ou des bords irr\u00e9guliers dans les images g\u00e9n\u00e9r\u00e9es (Reddit, 2024g; Reddit, 2024h). Cependant, certains outils d&rsquo;entra\u00eenement, comme Kohya-SS, peuvent prendre en charge la transparence en utilisant un masque pour l&rsquo;entra\u00eenement avec \u00ab\u00a0perte masqu\u00e9e\u00a0\u00bb (masked loss training). Cette m\u00e9thode permet au mod\u00e8le de se concentrer sur l&rsquo;objet principal et d&rsquo;ignorer les zones transparentes (Reddit, 2024g).<\/p>\n\n\n\n<p><strong>Avantages et inconv\u00e9nients :<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Avantages :<\/strong> L&rsquo;utilisation d&rsquo;arri\u00e8re-plans simples ou supprim\u00e9s (rendus transparents) peut am\u00e9liorer la qualit\u00e9 de l&rsquo;entra\u00eenement en aidant le mod\u00e8le \u00e0 se concentrer sur le sujet principal, car il n&rsquo;est pas distrait par des d\u00e9tails d&rsquo;arri\u00e8re-plan complexes (Sanj.dev, s. d.). Des outils comme <code>remove.bg<\/code> ou Photoshop sont souvent utilis\u00e9s pour cette pr\u00e9paration (Sanj.dev, s. d.). L&rsquo;utilisation de fichiers PNG de haute qualit\u00e9 est pr\u00e9f\u00e9rable pour conserver l&rsquo;int\u00e9grit\u00e9 de l&rsquo;image (Sanj.dev, s. d.).<\/li>\n\n\n\n<li><strong>Inconv\u00e9nients :<\/strong> Si toutes les images de votre jeu de donn\u00e9es ont un arri\u00e8re-plan transparent ou uniforme, le mod\u00e8le LoRA pourrait apprendre que \u00ab\u00a0pas d&rsquo;arri\u00e8re-plan\u00a0\u00bb fait partie int\u00e9grante du concept de l&rsquo;objet. Cela pourrait limiter sa capacit\u00e9 \u00e0 g\u00e9n\u00e9rer l&rsquo;objet dans des sc\u00e8nes vari\u00e9es ou avec des arri\u00e8re-plans diff\u00e9rents \u00e0 l&rsquo;avenir (Reddit, 2024g).<\/li>\n<\/ul>\n\n\n\n<p>Bonnes pratiques pour la g\u00e9n\u00e9ralisation :<\/p>\n\n\n\n<p>Pour une meilleure g\u00e9n\u00e9ralisation et pour que le mod\u00e8le apprenne \u00e0 isoler l&rsquo;objet plut\u00f4t que de m\u00e9moriser un environnement statique, il est g\u00e9n\u00e9ralement recommand\u00e9 d&rsquo;utiliser des arri\u00e8re-plans vari\u00e9s dans votre jeu de donn\u00e9es (RunDiffusion, 2025b; SeaArt Guide, 2025a). Si vous choisissez d&rsquo;utiliser des images avec des arri\u00e8re-plans transparents, il est crucial de comprendre comment le logiciel d&rsquo;entra\u00eenement g\u00e8re ces images. Certains syst\u00e8mes peuvent \u00ab\u00a0aplatir\u00a0\u00bb l&rsquo;arri\u00e8re-plan transparent en une couleur unie (par exemple, blanc ou gris) pendant le processus d&rsquo;entra\u00eenement. Dans ce cas, il est important de l\u00e9gender l&rsquo;arri\u00e8re-plan en cons\u00e9quence (par exemple, \u00ab\u00a0fond blanc\u00a0\u00bb, \u00ab\u00a0fond gris\u00a0\u00bb) pour guider le mod\u00e8le (Reddit, 2024g).<\/p>\n\n\n\n<p>Il est \u00e0 noter que des mod\u00e8les sp\u00e9cialis\u00e9s, comme <code>LayerDiffuse<\/code> dans ComfyUI, sont entra\u00een\u00e9s pour g\u00e9n\u00e9rer des images avec un canal alpha (transparence). Les modifications apport\u00e9es au mod\u00e8le de base (U-Net) pour permettre cette capacit\u00e9 sont stock\u00e9es sous forme de mod\u00e8le LoRA (RunComfy, 2025a; Stable Diffusion Art, 2025d). Cela signifie que les LoRA peuvent \u00eatre con\u00e7us pour <em>produire<\/em> des images transparentes, ce qui est une application diff\u00e9rente de l&rsquo;entra\u00eenement <em>avec<\/em> des images transparentes.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Tableau : Recommandations pour le Dataset du CF-104 (Quantit\u00e9, R\u00e9solution, Vari\u00e9t\u00e9)<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><td>Cat\u00e9gorie d&rsquo;Objet<\/td><td>Quantit\u00e9 d&rsquo;Images Recommand\u00e9e<\/td><td>R\u00e9solution Recommand\u00e9e (pour Flux\/SD 1.5)<\/td><td>Aspects de Vari\u00e9t\u00e9<\/td><td>Qualit\u00e9 Requise<\/td><\/tr><\/thead><tbody><tr><td>Objet sp\u00e9cifique (CF-104 Starfighter)<\/td><td>20-40 images (qualit\u00e9 &gt; quantit\u00e9) (Reddit, 2024e; RunDiffusion, 2025b; SeaArt Guide, 2025a)<\/td><td>512&#215;512 pixels (RunDiffusion, 2025b; SeaArt Guide, 2025a)<\/td><td><strong>Angles :<\/strong> Vues frontales, lat\u00e9rales, arri\u00e8re, trois-quarts, dessus, dessous (couverture 360\u00b0) (Reddit, 2024e). <strong>Conditions d&rsquo;\u00c9clairage :<\/strong> Jour, nuit, diff\u00e9rentes directions d&rsquo;\u00e9clairage (RunDiffusion, 2025b). <strong>Arri\u00e8re-plans :<\/strong> Pistes, hangars, ciel, paysages vari\u00e9s (pour isoler l&rsquo;objet) (RunDiffusion, 2025b). <strong>D\u00e9tails Fonctionnels :<\/strong> Train d&rsquo;atterrissage (sorti\/rentr\u00e9), volets, a\u00e9rofreins, marquages sp\u00e9cifiques (si souhait\u00e9)<\/td><td>Net, haute r\u00e9solution, bien \u00e9clair\u00e9, sans filigrane, sujet clair et non obstru\u00e9, pas de duplicata (RunDiffusion, 2025b; SeaArt Guide, 2025a)<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">3. L\u00e9gendage (Captioning) des Images : Strat\u00e9gies Avanc\u00e9es<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Importance du l\u00e9gendage pr\u00e9cis pour les d\u00e9tails techniques du CF-104<\/h3>\n\n\n\n<p>Le l\u00e9gendage des images est une \u00e9tape cruciale pour l&rsquo;obtention d&rsquo;un mod\u00e8le LoRA performant (SeaArt Guide, 2025a). Il sert de guide au mod\u00e8le, lui indiquant pr\u00e9cis\u00e9ment ce qu&rsquo;il doit apprendre et ce qu&rsquo;il peut ignorer (Reddit, 2024a). Pour les mod\u00e8les Flux, les l\u00e9gendes doivent \u00eatre formul\u00e9es en langage naturel, \u00eatre concises (id\u00e9alement entre 12 et 30 mots) et d\u00e9crire des concepts complets incluant le sujet, le cadre, l&rsquo;action et le style pertinent (Reddit, 2024a; RunDiffusion, 2025b). Il est conseill\u00e9 d&rsquo;\u00e9viter les listes de mots-cl\u00e9s ou l&rsquo;utilisation excessive de jargon technique (RunDiffusion, 2025b).<\/p>\n\n\n\n<p>Un principe fondamental du l\u00e9gendage efficace implique d&rsquo;omettre les caract\u00e9ristiques qui devraient \u00eatre intrins\u00e8quement pr\u00e9sentes lorsque le LoRA est appliqu\u00e9, tout en incluant explicitement les caract\u00e9ristiques destin\u00e9es \u00e0 \u00eatre variables ou d\u00e9pendantes du prompt (Reddit, 2024a). Pour le CF-104 Starfighter, cela se traduit par les consid\u00e9rations suivantes :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Caract\u00e9ristiques Fixes (\u00e0 omettre des l\u00e9gendes) :<\/strong> La forme unique de son aile delta, la conception sp\u00e9cifique de son c\u00f4ne de nez, l&rsquo;\u00e9chappement du moteur unique, la verri\u00e8re du cockpit et sa silhouette globale \u00e9lanc\u00e9e et en forme de fl\u00e8che. Ces attributs sont des caract\u00e9ristiques intrins\u00e8ques du CF-104 que le LoRA devrait apprendre naturellement comme faisant partie du concept \u00ab\u00a0CF-104 Starfighter\u00a0\u00bb. Si ces \u00e9l\u00e9ments sont l\u00e9gend\u00e9s, le mod\u00e8le pourrait les interpr\u00e9ter comme des attributs variables, n\u00e9cessitant leur inclusion dans chaque prompt, ou, pire encore, les rendant incoh\u00e9rents dans les g\u00e9n\u00e9rations.<\/li>\n\n\n\n<li><strong>Caract\u00e9ristiques Variables (\u00e0 inclure dans les l\u00e9gendes) :<\/strong> L&rsquo;arri\u00e8re-plan (par exemple, \u00ab\u00a0sur une piste\u00a0\u00bb, \u00ab\u00a0dans le ciel\u00a0\u00bb, \u00ab\u00a0au-dessus des montagnes\u00a0\u00bb), l&rsquo;\u00e9clairage (par exemple, \u00ab\u00a0\u00e9clairage dramatique\u00a0\u00bb, \u00ab\u00a0coucher de soleil\u00a0\u00bb), les marquages ou livr\u00e9es sp\u00e9cifiques (par exemple, \u00ab\u00a0livr\u00e9e des Forces canadiennes\u00a0\u00bb, \u00ab\u00a0marquages de la NASA\u00a0\u00bb), et les \u00e9tats fonctionnels (par exemple, \u00ab\u00a0train d&rsquo;atterrissage sorti\u00a0\u00bb, \u00ab\u00a0volets d\u00e9ploy\u00e9s\u00a0\u00bb). Ces aspects sont ceux que les utilisateurs souhaiteront contr\u00f4ler via des prompts.<\/li>\n<\/ul>\n\n\n\n<p>Cette approche nuanc\u00e9e garantit que le LoRA est \u00e0 la fois pr\u00e9cis dans son sujet principal et flexible dans son application, r\u00e9pondant directement au besoin de l&rsquo;utilisateur d&rsquo;un mod\u00e8le \u00ab\u00a0bien pr\u00e9cis\u00a0\u00bb tout en permettant des variations cr\u00e9atives.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Utilisation de mots-cl\u00e9s (Trigger Words) et de descriptions naturelles<\/h3>\n\n\n\n<p>L&rsquo;int\u00e9gration d&rsquo;un mot-cl\u00e9 unique (Trigger Word) est essentielle pour activer le LoRA et le diff\u00e9rencier des concepts d\u00e9j\u00e0 pr\u00e9sents dans le mod\u00e8le de base (Reddit, 2024a; SeaArt Guide, 2025a). Ce mot-cl\u00e9 doit imp\u00e9rativement \u00eatre inclus dans les prompts lors de la phase d&rsquo;inf\u00e9rence pour garantir l&rsquo;activation du mod\u00e8le LoRA.<\/p>\n\n\n\n<p>Pour le CF-104, un mot-cl\u00e9 tel que \u00ab\u00a0cf104starfighter\u00a0\u00bb ou \u00ab\u00a0starfighterjet\u00a0\u00bb pourrait \u00eatre employ\u00e9. Il est g\u00e9n\u00e9ralement recommand\u00e9 de limiter ce mot-cl\u00e9 \u00e0 un ou deux tokens pour une efficacit\u00e9 optimale (Reddit, 2024a). Les l\u00e9gendes doivent \u00e9galement contenir un token de sujet clair ou une cha\u00eene personnalis\u00e9e, le contexte de la sc\u00e8ne (par exemple, portrait, plein corps, gros plan), des indications sur l&rsquo;\u00e9clairage ou l&rsquo;environnement, et des descripteurs de style ou de cam\u00e9ra facultatifs (RunDiffusion, 2025b).<\/p>\n\n\n\n<p>Bien que les objets g\u00e9n\u00e9riques ne n\u00e9cessitent pas toujours un mot-cl\u00e9 unique si leurs caract\u00e9ristiques sont suffisamment distinctes, pour un mod\u00e8le sp\u00e9cifique comme le CF-104, un mot-cl\u00e9 est indispensable (Reddit, 2024a; SeaArt Guide, 2025a). Il fonctionne comme la \u00ab\u00a0cl\u00e9 d&rsquo;activation\u00a0\u00bb (SeaArt Guide, 2025a) qui indique au mod\u00e8le : \u00ab\u00a0Je veux <em>ce<\/em> Starfighter sp\u00e9cifique, pas n&rsquo;importe quel jet g\u00e9n\u00e9rique.\u00a0\u00bb Sans cela, le mod\u00e8le pourrait avoir du mal \u00e0 reproduire de mani\u00e8re coh\u00e9rente les d\u00e9tails exacts du CF-104, g\u00e9n\u00e9rant potentiellement un avion de chasse g\u00e9n\u00e9rique \u00e0 la place. Cela garantit que l&rsquo;exigence d&rsquo;une sortie \u00ab\u00a0bien pr\u00e9cise\u00a0\u00bb est respect\u00e9e pendant la g\u00e9n\u00e9ration.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Outils de l\u00e9gendage automatique et conseils pour la r\u00e9vision manuelle<\/h3>\n\n\n\n<p>Des outils tels que BLIP ou Deepbooru sont disponibles pour g\u00e9n\u00e9rer automatiquement des l\u00e9gendes (SeaArt Guide, 2025a). BLIP fonctionne comme un tagger en langage naturel, produisant des descriptions narratives, tandis que Deepbooru g\u00e9n\u00e8re des \u00e9tiquettes sous forme de phrases (SeaArt Guide, 2025a). Le seuil de taggage peut \u00eatre ajust\u00e9 (par exemple, 0.6 est une valeur recommand\u00e9e) ; une valeur plus basse produira des descriptions plus fines et plus d\u00e9taill\u00e9es (SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Malgr\u00e9 la commodit\u00e9 du l\u00e9gendage automatique, une r\u00e9vision manuelle est fortement conseill\u00e9e pour affiner les l\u00e9gendes (SeaArt Guide, 2025a). Cette \u00e9tape permet de supprimer les tags superflus ou redondants et de s&rsquo;assurer que les l\u00e9gendes d\u00e9crivent l&rsquo;image sans inclure les caract\u00e9ristiques fixes du LoRA (Reddit, 2024a; SeaArt Guide, 2025a). Certains outils, comme Roboflow Annotate (Roboflow, 2024) ou OneTrainer (Geekatplay, s. d.b), offrent des fonctionnalit\u00e9s d&rsquo;\u00e9tiquetage assist\u00e9 par l&rsquo;IA, ce qui peut acc\u00e9l\u00e9rer le processus pour les jeux de donn\u00e9es volumineux.<\/p>\n\n\n\n<p>Bien que les outils de l\u00e9gendage automatique soient pratiques (SeaArt Guide, 2025a), leur production pourrait ne pas capturer toutes les nuances sp\u00e9cifiques d&rsquo;un objet m\u00e9canique comme le CF-104. Par exemple, un tagger automatique pourrait simplement identifier \u00ab\u00a0avion \u00e0 r\u00e9action\u00a0\u00bb mais omettre des caract\u00e9ristiques d&rsquo;identification cruciales telles que \u00ab\u00a0aile delta\u00a0\u00bb ou \u00ab\u00a0faible envergure\u00a0\u00bb. La r\u00e9vision manuelle (SeaArt Guide, 2025a) est donc essentielle pour ins\u00e9rer une terminologie hautement sp\u00e9cifique et pr\u00e9cise, vitale pour que le mod\u00e8le apprenne la \u00ab\u00a0pr\u00e9cision\u00a0\u00bb du CF-104. Cette intervention humaine permet \u00e9galement la suppression strat\u00e9gique des tags pour les caract\u00e9ristiques fixes, comme discut\u00e9 pr\u00e9c\u00e9demment. Cette supervision m\u00e9ticuleuse est cruciale pour atteindre une haute fid\u00e9lit\u00e9 pour des sujets complexes et d\u00e9taill\u00e9s.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">4. Configuration du Workflow d&rsquo;Entra\u00eenement LoRA dans ComfyUI<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Installation des n\u0153uds personnalis\u00e9s essentiels (ex: Flux Trainer, Lora-Training-in-Comfy)<\/h3>\n\n\n\n<p>ComfyUI est con\u00e7u pour \u00eatre extensible gr\u00e2ce \u00e0 l&rsquo;int\u00e9gration de n\u0153uds personnalis\u00e9s (ComfyUI Documentation, s. d.a; Stable Diffusion Art, 2025a). Pour l&rsquo;entra\u00eenement de mod\u00e8les LoRA, des suites de n\u0153uds telles que \u00ab\u00a0ComfyUI-FluxTrainer\u00a0\u00bb (Geekatplay, s. d.b; RunComfy, 2025; SeaArt Guide, 2025a) ou \u00ab\u00a0Lora-Training-in-Comfy\u00a0\u00bb (runcomfy.com, 2024) sont fr\u00e9quemment utilis\u00e9es par la communaut\u00e9.<\/p>\n\n\n\n<p>L&rsquo;installation de ces n\u0153uds s&rsquo;effectue g\u00e9n\u00e9ralement via le gestionnaire int\u00e9gr\u00e9 de ComfyUI (ComfyUI Manager). Pour ce faire, il faut cliquer sur le bouton \u00ab\u00a0Manager\u00a0\u00bb dans le menu principal, s\u00e9lectionner \u00ab\u00a0Install Custom Nodes\u00a0\u00bb, rechercher le nom du n\u0153ud d\u00e9sir\u00e9, puis proc\u00e9der \u00e0 son installation (ComfyUI Documentation, s. d.a; runcomfy.com, 2024). Apr\u00e8s l&rsquo;installation, un red\u00e9marrage de l&rsquo;application ComfyUI et un rafra\u00eechissement du navigateur web sont n\u00e9cessaires pour que les nouveaux n\u0153uds soient correctement charg\u00e9s et accessibles (runcomfy.com, 2024).<\/p>\n\n\n\n<p>Le d\u00e9veloppement de n\u0153uds personnalis\u00e9s int\u00e9gr\u00e9s au sein de ComfyUI, tels que \u00ab\u00a0Lora-Training-in-Comfy\u00a0\u00bb (runcomfy.com, 2024) ou \u00ab\u00a0ComfyUI-FluxTrainer\u00a0\u00bb (RunComfy, 2025), repr\u00e9sente une avanc\u00e9e significative dans la d\u00e9mocratisation des processus de fine-tuning. Ces n\u0153uds encapsulent des op\u00e9rations complexes de backend dans une interface visuelle intuitive et conviviale, \u00e9largissant ainsi l&rsquo;acc\u00e8s \u00e0 l&rsquo;entra\u00eenement LoRA \u00e0 un public plus large, y compris les utilisateurs d\u00e9j\u00e0 familiaris\u00e9s avec les workflows de ComfyUI. Cette simplification abaisse efficacement la barri\u00e8re technique, permettant aux utilisateurs de se concentrer davantage sur des aspects critiques tels que la qualit\u00e9 des donn\u00e9es et l&rsquo;optimisation des hyperparam\u00e8tres, plut\u00f4t que sur la configuration de l&rsquo;infrastructure.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Pr\u00e9sentation d\u00e9taill\u00e9e des n\u0153uds cl\u00e9s : Dataset, Settings &amp; Init, et Training (FluxTrainLoop, FluxTrainSave, FluxTrainValidate)<\/h3>\n\n\n\n<p>Les workflows d&rsquo;entra\u00eenement LoRA au sein de ComfyUI, en particulier ceux con\u00e7us pour le mod\u00e8le Flux, sont structur\u00e9s en trois sections principales : Dataset, Settings and Init, et Training (RunComfy, 2025).<\/p>\n\n\n\n<p>Dans la <strong>Section Dataset<\/strong>, on retrouve des n\u0153uds essentiels pour la pr\u00e9paration des donn\u00e9es :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Le n\u0153ud <code>TrainDatasetGeneralConfig<\/code> permet de d\u00e9finir les param\u00e8tres globaux du jeu de donn\u00e9es d&rsquo;entra\u00eenement. Il offre un contr\u00f4le sur des aspects tels que l&rsquo;activation de l&rsquo;augmentation de couleur, le retournement horizontal des images (flip augmentation) pour accro\u00eetre la diversit\u00e9 des \u00e9chantillons, et la possibilit\u00e9 de m\u00e9langer ou d&rsquo;appliquer un taux de dropout aux l\u00e9gendes afin de r\u00e9duire le sur-apprentissage (RunComfy, 2025).<\/li>\n\n\n\n<li>Le n\u0153ud <code>TrainDatasetAdd<\/code> est utilis\u00e9 pour sp\u00e9cifier et configurer les donn\u00e9es d&rsquo;entra\u00eenement \u00e0 inclure dans le processus (RunComfy, 2025).<\/li>\n<\/ul>\n\n\n\n<p>La <strong>Section Training<\/strong> est le c\u0153ur du processus d&rsquo;apprentissage :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Le n\u0153ud <code>FluxTrainLoop<\/code> est responsable de l&rsquo;ex\u00e9cution de la boucle d&rsquo;entra\u00eenement pour un nombre d&rsquo;\u00e9tapes pr\u00e9d\u00e9fini (par exemple, 250 \u00e9tapes) (RunComfy, 2025).<\/li>\n\n\n\n<li>Le n\u0153ud <code>FluxTrainSave<\/code> assure la sauvegarde r\u00e9guli\u00e8re du mod\u00e8le entra\u00een\u00e9 \u00e0 des intervalles sp\u00e9cifi\u00e9s. Cela cr\u00e9e des points de contr\u00f4le (checkpoints) qui sont pr\u00e9cieux pour suivre la progression de l&rsquo;entra\u00eenement et pour r\u00e9cup\u00e9rer en cas d&rsquo; interruption inattendue (RunComfy, 2025).<\/li>\n\n\n\n<li>Le n\u0153ud <code>FluxTrainValidate<\/code> est utilis\u00e9 pour \u00e9valuer la performance du mod\u00e8le. Il utilise un jeu de donn\u00e9es de validation distinct des donn\u00e9es d&rsquo;entra\u00eenement et g\u00e9n\u00e8re des images d&rsquo;\u00e9chantillon, offrant une repr\u00e9sentation visuelle de la sortie du mod\u00e8le \u00e0 ce stade (RunComfy, 2025).<\/li>\n\n\n\n<li>Le n\u0153ud <code>VisualizeLoss<\/code> fournit une visualisation graphique de la perte d&rsquo;entra\u00eenement au fil du temps, permettant de surveiller l&rsquo;efficacit\u00e9 de l&rsquo;apprentissage du mod\u00e8le et sa convergence vers une solution optimale (RunComfy, 2025).<\/li>\n<\/ul>\n\n\n\n<p>Il est courant que les workflows incluent plusieurs \u00e9tapes d&rsquo;entra\u00eenement s\u00e9quentielles (par exemple, <code>Train_01<\/code>, <code>Train_02<\/code>, <code>Train_03<\/code>, <code>Train_04<\/code>) pour permettre un raffinement progressif du mod\u00e8le (RunComfy, 2025).<\/p>\n\n\n\n<p>La d\u00e9composition modulaire du workflow d&rsquo;entra\u00eenement en sections distinctes \u00ab\u00a0Dataset\u00a0\u00bb, \u00ab\u00a0Settings and Init\u00a0\u00bb et \u00ab\u00a0Training\u00a0\u00bb, chacune dot\u00e9e de n\u0153uds sp\u00e9cialis\u00e9s (RunComfy, 2025), sert un objectif allant au-del\u00e0 de la simple organisation. Ce choix architectural simplifie consid\u00e9rablement le d\u00e9bogage et l&rsquo;optimisation it\u00e9rative. Chaque n\u0153ud, tel que <code>TrainDatasetGeneralConfig<\/code> pour l&rsquo;augmentation des donn\u00e9es, <code>FluxTrainValidate<\/code> pour le retour visuel des performances et <code>VisualizeLoss<\/code> pour la surveillance quantitative, offre un point de contr\u00f4le et d&rsquo;observabilit\u00e9 clair. Cette granularit\u00e9 permet aux utilisateurs d&rsquo;isoler efficacement les probl\u00e8mes \u2014 en distinguant, par exemple, les probl\u00e8mes d\u00e9coulant d&rsquo;une mauvaise qualit\u00e9 du jeu de donn\u00e9es par rapport \u00e0 des configurations d&rsquo;hyperparam\u00e8tres incorrectes \u2014 et de mettre en \u0153uvre des ajustements cibl\u00e9s. Une telle approche syst\u00e9matique est indispensable pour d\u00e9velopper un LoRA de haute qualit\u00e9 pour un objet complexe comme le CF-104.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Configuration des r\u00e9pertoires d&rsquo;entr\u00e9e et de sortie<\/h3>\n\n\n\n<p>Une configuration correcte des r\u00e9pertoires d&rsquo;entr\u00e9e (contenant les images d&rsquo;entra\u00eenement) et de sortie (o\u00f9 les mod\u00e8les LoRA entra\u00een\u00e9s seront sauvegard\u00e9s) est essentielle pour le bon d\u00e9roulement du processus (SeaArt Guide, 2025a). Pour les utilisateurs de la version portable de ComfyUI sous Windows, il est imp\u00e9ratif de cr\u00e9er le r\u00e9pertoire \u00ab\u00a0training\u00a0\u00bb dans le m\u00eame dossier que le r\u00e9pertoire \u00ab\u00a0ComfyUI_windows_portable\u00a0\u00bb (SeaArt Guide, 2025a; Tenofas, s. d.).<\/p>\n\n\n\n<p>Bien que cela puisse sembler un d\u00e9tail op\u00e9rationnel mineur, la configuration pr\u00e9cise des chemins de fichiers est une source fr\u00e9quente d&rsquo;erreurs dans les workflows d&rsquo;entra\u00eenement (SeaArt Guide, 2025a). Pour un utilisateur qui entreprend le processus potentiellement long d&rsquo;entra\u00eenement d&rsquo;un LoRA pour un objet complexe, s&rsquo;assurer que ces chemins sont correctement \u00e9tablis d\u00e8s le d\u00e9part est crucial. Cette mesure proactive pr\u00e9vient les erreurs frustrantes d&rsquo;ex\u00e9cution et \u00e9vite le gaspillage de ressources computationnelles, contribuant ainsi directement \u00e0 l&rsquo;ex\u00e9cution r\u00e9ussie de l&rsquo;ensemble du processus d&rsquo;entra\u00eenement.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">5. Optimisation des Hyperparam\u00e8tres pour un LoRA d&rsquo;Objet<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Comprendre <code>network_dim<\/code> (Rank) et <code>network_alpha<\/code> : leur impact sur la taille, la fid\u00e9lit\u00e9 et la flexibilit\u00e9 du mod\u00e8le<\/h3>\n\n\n\n<p>Le param\u00e8tre <code>network_dim<\/code> (\u00e9galement appel\u00e9 Rank ou Net Dim) exerce une influence directe sur la \u00ab\u00a0puissance\u00a0\u00bb du mod\u00e8le \u00e0 capturer et \u00e0 reproduire les concepts entra\u00een\u00e9s, ainsi que sur la taille finale du fichier LoRA (Civitai Education, 2025a; SeaArt Guide, 2025a). Des valeurs plus \u00e9lev\u00e9es pour ce param\u00e8tre (par exemple, 64 ou 128) se traduisent par un mod\u00e8le LoRA plus volumineux et un temps d&rsquo;entra\u00eenement accru. Cependant, elles permettent \u00e9galement une meilleure fid\u00e9lit\u00e9 dans la capture des d\u00e9tails complexes de l&rsquo;\u00e9l\u00e9ment \u00e0 entra\u00eener (Civitai Education, 2025a; SeaArt Guide, 2025a; Stable Diffusion Art, 2025b).<\/p>\n\n\n\n<p>Pour des objets r\u00e9alistes et hautement d\u00e9taill\u00e9s comme le CF-104, des valeurs de <code>network_dim<\/code> de 64 ou 128 sont g\u00e9n\u00e9ralement recommand\u00e9es (SeaArt Guide, 2025a). Il convient toutefois d&rsquo;\u00eatre vigilant, car une valeur excessivement \u00e9lev\u00e9e peut conduire \u00e0 un apprentissage trop profond, o\u00f9 le mod\u00e8le capture des d\u00e9tails non pertinents, entra\u00eenant ainsi un sur-apprentissage (overfitting) (SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Le param\u00e8tre <code>network_alpha<\/code> peut \u00eatre interpr\u00e9t\u00e9 comme le degr\u00e9 d&rsquo;influence que le LoRA exerce sur les poids du mod\u00e8le original (Civitai Education, 2025a; SeaArt Guide, 2025a). Plus la valeur d&rsquo;alpha est proche de celle de <code>rank<\/code>, moins l&rsquo;influence est prononc\u00e9e. Inversement, plus elle est proche de z\u00e9ro, plus l&rsquo;influence sur le mod\u00e8le original est marqu\u00e9e (SeaArt Guide, 2025a). G\u00e9n\u00e9ralement, la valeur d&rsquo;alpha ne doit pas exc\u00e9der celle de <code>rank<\/code> et est souvent fix\u00e9e \u00e0 la moiti\u00e9 de <code>rank<\/code> (SeaArt Guide, 2025a). Si <code>alpha<\/code> et <code>rank<\/code> sont \u00e9gaux, il n&rsquo;y a pas d&rsquo;effet sur le taux d&rsquo;apprentissage (microsoft, s. d.). Le rapport <code>alpha\/lora_dim<\/code> agit comme un facteur d&rsquo;\u00e9chelle qui module l&rsquo;impact du LoRA (microsoft, s. d.).<\/p>\n\n\n\n<p>Pour un sujet tr\u00e8s d\u00e9taill\u00e9 comme le CF-104, un <code>network_dim<\/code> plus \u00e9lev\u00e9 (par exemple, 64 ou 128) est souvent indispensable pour capturer avec pr\u00e9cision ses caract\u00e9ristiques complexes (SeaArt Guide, 2025a). Cependant, une augmentation de <code>dim<\/code> sans une consid\u00e9ration attentive de <code>alpha<\/code> et du <code>learning_rate<\/code> peut entra\u00eener un sur-apprentissage, o\u00f9 le mod\u00e8le m\u00e9morise simplement les images d&rsquo;entra\u00eenement au lieu d&rsquo;acqu\u00e9rir une compr\u00e9hension g\u00e9n\u00e9ralis\u00e9e du concept du Starfighter (SeaArt Guide, 2025a). Le param\u00e8tre <code>alpha<\/code> fonctionne comme un amortisseur du taux d&rsquo;apprentissage (Civitai Education, 2025a), modulant efficacement l&rsquo;agressivit\u00e9 avec laquelle le LoRA modifie le mod\u00e8le de base. Pour le CF-104, atteindre le juste \u00e9quilibre entre un <code>dim<\/code> \u00e9lev\u00e9 (pour le d\u00e9tail) et un <code>alpha<\/code> correctement mis \u00e0 l&rsquo;\u00e9chelle (pour pr\u00e9venir une m\u00e9morisation excessive et pr\u00e9server la flexibilit\u00e9) est primordial. Cet \u00e9quilibre garantit la g\u00e9n\u00e9ration de nouvelles images vari\u00e9es de l&rsquo;avion tout en maintenant son identit\u00e9 indubitable de CF-104. Cette relation illustre directement le lien de causalit\u00e9 entre ces param\u00e8tres et la qualit\u00e9 de sortie souhait\u00e9e.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">R\u00e9glage du taux d&rsquo;apprentissage (<code>learning_rate<\/code>) et choix de l&rsquo;optimiseur<\/h3>\n\n\n\n<p>Le taux d&rsquo;apprentissage (<code>learning_rate<\/code>) est un hyperparam\u00e8tre qui d\u00e9termine l&rsquo;intensit\u00e9 des ajustements apport\u00e9s par l&rsquo;IA aux poids du mod\u00e8le \u00e0 chaque \u00e9tape d&rsquo;entra\u00eenement (Civitai Education, 2025a; Reddit, 2024c; SeaArt Guide, 2025a; Unsloth Documentation, 2025). Un taux d&rsquo;apprentissage \u00e9lev\u00e9 peut acc\u00e9l\u00e9rer la convergence initiale, mais il risque de rendre l&rsquo;entra\u00eenement instable ou d&#8217;emp\u00eacher le mod\u00e8le d&rsquo;atteindre un optimum stable (Unsloth Documentation, 2025). \u00c0 l&rsquo;inverse, un taux d&rsquo;apprentissage plus faible favorise un entra\u00eenement plus stable et pr\u00e9cis, mais peut n\u00e9cessiter un plus grand nombre d&rsquo;epochs pour converger (Unsloth Documentation, 2025).<\/p>\n\n\n\n<p>Pour les caract\u00e8res, un taux de 0.0001 est souvent jug\u00e9 efficace (Reddit, 2024c). Pour des objets r\u00e9alistes, il est recommand\u00e9 de commencer avec une valeur par d\u00e9faut (par exemple, 0.0004 pour Flux (SeaArt Guide, 2025a)) et d&rsquo;ajuster progressivement \u00e0 partir d&rsquo;un taux initialement plus bas (par exemple, 0.0001) (SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>L&rsquo;optimiseur est l&rsquo;algorithme qui contr\u00f4le la mani\u00e8re dont les poids du r\u00e9seau neuronal sont mis \u00e0 jour pendant l&rsquo;entra\u00eenement (Civitai Education, 2025a; SeaArt Guide, 2025a). <code>AdamW8bit<\/code> est un choix courant pour Stable Diffusion 1.5 en raison de sa consommation optimis\u00e9e de VRAM et de sa bonne pr\u00e9cision (Civitai Education, 2025a; SeaArt Guide, 2025a). <code>Prodigy<\/code> est une option int\u00e9ressante pour les d\u00e9butants, car il ajuste automatiquement le taux d&rsquo;apprentissage pour obtenir les meilleurs r\u00e9sultats (SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Pour un objet m\u00e9canique pr\u00e9cis comme le CF-104, la pr\u00e9servation de l&rsquo;int\u00e9grit\u00e9 structurelle et la pr\u00e9cision des proportions sont d&rsquo;une importance capitale. Un taux d&rsquo;apprentissage trop \u00e9lev\u00e9 peut amener le mod\u00e8le \u00e0 s&rsquo;\u00e9carter significativement du chemin optimal (Reddit, 2024c), entra\u00eenant un entra\u00eenement instable et potentiellement des sorties d\u00e9form\u00e9es o\u00f9 la forme de l&rsquo;a\u00e9ronef n&rsquo;est pas fid\u00e8lement reproduite. Inversement, un taux d&rsquo;apprentissage plus faible et plus stable (par exemple, 0.0001 \u00e0 0.0004) (Reddit, 2024c; SeaArt Guide, 2025a) est crucial. Il permet au mod\u00e8le d&rsquo;apprendre m\u00e9ticuleusement la g\u00e9om\u00e9trie complexe et coh\u00e9rente du Starfighter, garantissant ainsi une haute fid\u00e9lit\u00e9 au mat\u00e9riel source et pr\u00e9venant les d\u00e9formations ind\u00e9sirables.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Gestion des \u00e9tapes d&rsquo;entra\u00eenement (<code>epochs<\/code>, <code>repeats<\/code>) et de la taille de lot (<code>batch_size<\/code>)<\/h3>\n\n\n\n<p>Le param\u00e8tre <code>Max training steps<\/code> repr\u00e9sente le nombre total d&rsquo;\u00e9tapes d&rsquo;entra\u00eenement que le mod\u00e8le effectuera. Pour les mod\u00e8les LoRA, un intervalle de 1000 \u00e0 4000 \u00e9tapes est g\u00e9n\u00e9ralement sugg\u00e9r\u00e9 (SeaArt Guide, 2025a). Pour des jeux de donn\u00e9es plus volumineux, ce nombre peut \u00eatre \u00e9tendu jusqu&rsquo;\u00e0 4500 \u00e9tapes (Hugging Face, 2025).<\/p>\n\n\n\n<p>Les <code>Epochs<\/code> d\u00e9finissent le nombre de cycles complets durant lesquels le mod\u00e8le parcourt l&rsquo;int\u00e9gralit\u00e9 du jeu de donn\u00e9es d&rsquo;entra\u00eenement (SeaArt Guide, 2025a; Shakker.AI Wiki, s. d.; Stable Diffusion Art, 2025c). Un cycle correspond au nombre d&rsquo;images du jeu de donn\u00e9es multipli\u00e9 par le param\u00e8tre <code>Repeats<\/code> (SeaArt Guide, 2025a). Pour les objets r\u00e9alistes, il est souvent sugg\u00e9r\u00e9 d&rsquo;utiliser environ 10 epochs (SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Le param\u00e8tre <code>Repeat<\/code> (Single Image Repetitions) indique le nombre de fois qu&rsquo;une image individuelle du jeu de donn\u00e9es est trait\u00e9e par le mod\u00e8le au cours de chaque epoch (SeaArt Guide, 2025a; Shakker.AI Wiki, s. d.; Stable Diffusion Art, 2025c). Un nombre plus \u00e9lev\u00e9 de r\u00e9p\u00e9titions peut am\u00e9liorer l&rsquo;apprentissage des d\u00e9tails, mais une quantit\u00e9 excessive peut entra\u00eener une rigidit\u00e9 de l&rsquo;image, signe de sur-apprentissage (SeaArt Guide, 2025a; Shakker.AI Wiki, s. d.). Pour un rendu r\u00e9aliste, 15 r\u00e9p\u00e9titions sont couramment sugg\u00e9r\u00e9es (SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Le <code>train_batch_size<\/code> (taille de lot) correspond au nombre d&rsquo;images trait\u00e9es simultan\u00e9ment. Une taille de lot plus grande tend g\u00e9n\u00e9ralement \u00e0 favoriser un entra\u00eenement plus stable (Unsloth Documentation, 2025). Pour les jeux de donn\u00e9es de petite taille, une taille de lot de 2 est souvent recommand\u00e9e (Hugging Face, 2025).<\/p>\n\n\n\n<p>Les param\u00e8tres <code>epochs<\/code> et <code>repeats<\/code> contr\u00f4lent directement l&rsquo;\u00e9tendue de l&rsquo;exposition du mod\u00e8le aux donn\u00e9es d&rsquo;entra\u00eenement (SeaArt Guide, 2025a; Stable Diffusion Art, 2025c). Pour un objet d\u00e9taill\u00e9 comme le CF-104, une exposition suffisante est n\u00e9cessaire pour capturer toutes ses nuances. Cependant, un nombre excessif de <code>repeats<\/code> ou d&rsquo;<code>epochs<\/code> peut conduire \u00e0 un \u00ab\u00a0sur-cuisson\u00a0\u00bb (Stable Diffusion Art, 2025c), un \u00e9tat o\u00f9 le LoRA m\u00e9morise les images d&rsquo;entra\u00eenement sp\u00e9cifiques plut\u00f4t que d&rsquo;apprendre le concept sous-jacent du Starfighter. Cela se manifeste par le fait que le CF-104 g\u00e9n\u00e9r\u00e9 appara\u00eet syst\u00e9matiquement dans la m\u00eame pose ou le m\u00eame \u00e9clairage que les donn\u00e9es d&rsquo;entra\u00eenement, limitant ainsi son utilit\u00e9 pratique. L&rsquo;objectif est d&rsquo;identifier le \u00ab\u00a0sweet spot\u00a0\u00bb (Stable Diffusion Art, 2025c) o\u00f9 le mod\u00e8le a assimil\u00e9 l&rsquo;identit\u00e9 de l&rsquo;objet sans devenir rigide, un processus qui n\u00e9cessite intrins\u00e8quement des tests et des ajustements it\u00e9ratifs.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Strat\u00e9gies d&rsquo;augmentation de donn\u00e9es (augmentation des couleurs, retournement horizontal)<\/h3>\n\n\n\n<p>L&rsquo;augmentation de donn\u00e9es est une technique essentielle pour am\u00e9liorer la capacit\u00e9 de g\u00e9n\u00e9ralisation d&rsquo;un mod\u00e8le et sa robustesse face aux variations. Des m\u00e9thodes telles que l&rsquo;augmentation de couleur et le retournement horizontal (flip augmentation) peuvent \u00eatre appliqu\u00e9es pour diversifier le jeu de donn\u00e9es d&rsquo;entra\u00eenement (RunComfy, 2025).<\/p>\n\n\n\n<p>Le retournement horizontal est particuli\u00e8rement b\u00e9n\u00e9fique pour les objets sym\u00e9triques, car il permet de doubler efficacement la taille per\u00e7ue du jeu de donn\u00e9es pour les caract\u00e9ristiques sym\u00e9triques sans n\u00e9cessiter l&rsquo;ajout de nouvelles images (RunComfy, 2025).<\/p>\n\n\n\n<p>Pour un objet sym\u00e9trique tel qu&rsquo;un avion, l&rsquo;<code>flip augmentation<\/code> (RunComfy, 2025) offre des avantages particuliers. Elle double efficacement la taille per\u00e7ue du jeu de donn\u00e9es pour les caract\u00e9ristiques sym\u00e9triques sans n\u00e9cessiter l&rsquo;ajout de nouvelles images, aidant ainsi le mod\u00e8le \u00e0 apprendre la forme de l&rsquo;avion sous les perspectives gauche et droite. Ce processus am\u00e9liore la robustesse du LoRA, lui permettant de g\u00e9n\u00e9rer le CF-104 avec pr\u00e9cision quelle que soit son orientation dans le prompt final, ce qui contribue \u00e0 un mod\u00e8le plus polyvalent et pr\u00e9cis.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Tableau : Hyperparam\u00e8tres Cl\u00e9s et Leurs Effets pour l&rsquo;Entra\u00eenement d&rsquo;Objets<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><td>Param\u00e8tre<\/td><td>Description<\/td><td>Valeurs Recommand\u00e9es (CF-104)<\/td><td>Impact sur le Mod\u00e8le<\/td><td>Notes<\/td><\/tr><\/thead><tbody><tr><td><code>network_dim<\/code> (Rank)<\/td><td>\u00ab\u00a0Puissance\u00a0\u00bb du mod\u00e8le \u00e0 capturer les d\u00e9tails. Affecte la taille du LoRA.<\/td><td>64-128 (pour r\u00e9alisme) (SeaArt Guide, 2025a)<\/td><td>Plus de d\u00e9tails captur\u00e9s, fichier LoRA plus grand. Risque d&rsquo;overfitting si trop \u00e9lev\u00e9.<\/td><td>Essentiel pour la fid\u00e9lit\u00e9 des formes complexes.<\/td><\/tr><tr><td><code>network_alpha<\/code><\/td><td>Degr\u00e9 d&rsquo;influence du LoRA sur le mod\u00e8le de base.<\/td><td>G\u00e9n\u00e9ralement <code>network_dim<\/code> \/ 2 (SeaArt Guide, 2025a)<\/td><td>Contr\u00f4le la \u00ab\u00a0force\u00a0\u00bb de l&rsquo;apprentissage. Peut amortir le taux d&rsquo;apprentissage.<\/td><td>Aide \u00e0 pr\u00e9venir l&rsquo;overfitting.<\/td><\/tr><tr><td><code>learning_rate<\/code><\/td><td>Intensit\u00e9 des ajustements du mod\u00e8le \u00e0 chaque \u00e9tape.<\/td><td>0.0001 &#8211; 0.0004 (Reddit, 2024c; SeaArt Guide, 2025a)<\/td><td>Plus \u00e9lev\u00e9 = apprentissage plus rapide mais instable. Plus bas = plus stable, plus long.<\/td><td>Crucial pour la stabilit\u00e9 des formes complexes.<\/td><\/tr><tr><td><code>max_train_steps<\/code><\/td><td>Nombre total d&rsquo;\u00e9tapes d&rsquo;entra\u00eenement.<\/td><td>1000-4000 (SeaArt Guide, 2025a), jusqu&rsquo;\u00e0 4500 pour grands datasets (Hugging Face, 2025)<\/td><td>D\u00e9termine la dur\u00e9e de l&rsquo;entra\u00eenement.<\/td><td>Ajuster en fonction des <code>epochs<\/code> et <code>repeats<\/code>.<\/td><\/tr><tr><td><code>epochs<\/code><\/td><td>Nombre de cycles complets sur le dataset.<\/td><td>10-20 (SeaArt Guide, 2025a; Shakker.AI Wiki, s. d.)<\/td><td>Influence la profondeur de l&rsquo;apprentissage.<\/td><td>Trop d&rsquo;epochs = overfitting.<\/td><\/tr><tr><td><code>repeats<\/code> (Single Image Repetitions)<\/td><td>Nombre de fois qu&rsquo;une image est trait\u00e9e par epoch.<\/td><td>10-15 (pour r\u00e9alisme) (SeaArt Guide, 2025a)<\/td><td>Am\u00e9liore l&rsquo;apprentissage des d\u00e9tails.<\/td><td>Trop de r\u00e9p\u00e9titions = rigidit\u00e9 de l&rsquo;image.<\/td><\/tr><tr><td><code>train_batch_size<\/code><\/td><td>Nombre d&rsquo;images trait\u00e9es simultan\u00e9ment.<\/td><td>2 (pour petits datasets) (Hugging Face, 2025)<\/td><td>Plus grand = entra\u00eenement plus stable.<\/td><td>D\u00e9pend de la VRAM disponible.<\/td><\/tr><tr><td><code>Optimizer<\/code><\/td><td>Algorithme de mise \u00e0 jour des poids du r\u00e9seau.<\/td><td>AdamW8bit (d\u00e9faut), Prodigy (d\u00e9butants) (Civitai Education, 2025a; SeaArt Guide, 2025a)<\/td><td>Impacte l&rsquo;efficacit\u00e9 de l&rsquo;apprentissage.<\/td><td>AdamW8bit est \u00e9conome en VRAM.<\/td><\/tr><tr><td><code>Flip Augmentation<\/code><\/td><td>Retournement horizontal des images.<\/td><td>Activ\u00e9 (RunComfy, 2025)<\/td><td>Am\u00e9liore la g\u00e9n\u00e9ralisation, utile pour objets sym\u00e9triques.<\/td><td>R\u00e9duit l&rsquo;overfitting.<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">6. Pr\u00e9vention et R\u00e9solution de l&rsquo;Overfitting et de l&rsquo;Underfitting<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Identification des signes d&rsquo;overfitting (sur-apprentissage) et d&rsquo;underfitting (sous-apprentissage) pour des objets complexes<\/h3>\n\n\n\n<p>La distinction entre le sur-apprentissage (overfitting) et le sous-apprentissage (underfitting) est fondamentale pour optimiser la performance d&rsquo;un mod\u00e8le LoRA.<\/p>\n\n\n\n<p><strong>Overfitting (Sur-apprentissage) :<\/strong> Ce ph\u00e9nom\u00e8ne se produit lorsque le mod\u00e8le m\u00e9morise trop pr\u00e9cis\u00e9ment les donn\u00e9es du jeu d&rsquo;entra\u00eenement, ce qui compromet sa capacit\u00e9 \u00e0 g\u00e9n\u00e9raliser \u00e0 de nouvelles donn\u00e9es non vues (Reddit, 2025a; SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Signes distinctifs :<\/strong> Les images g\u00e9n\u00e9r\u00e9es ressemblent excessivement aux images du jeu d&rsquo;entra\u00eenement (SeaArt Guide, 2025a). Le sujet peut pr\u00e9senter une saturation des couleurs ou des arri\u00e8re-plans identiques \u00e0 ceux du jeu de donn\u00e9es (Reddit, 2025a; Stable Diffusion Art, 2025b). Le LoRA d\u00e9montre une flexibilit\u00e9 limit\u00e9e, ne pouvant g\u00e9n\u00e9rer que des variations tr\u00e8s proches des images originales (Reddit, 2024e). Une perte (<code>loss<\/code>) qui continue de diminuer sur le jeu d&rsquo;entra\u00eenement mais augmente sur le jeu de validation est un indicateur cl\u00e9 (RunComfy, 2025; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li>Pour le CF-104, le sur-apprentissage ne se limiterait pas \u00e0 une simple similarit\u00e9 excessive des images. Il impliquerait sp\u00e9cifiquement que le mod\u00e8le g\u00e9n\u00e8re syst\u00e9matiquement l&rsquo;a\u00e9ronef dans la <em>m\u00eame attitude de vol exacte, la m\u00eame position au sol ou les m\u00eames conditions d&rsquo;\u00e9clairage<\/em> que celles observ\u00e9es dans les donn\u00e9es d&rsquo;entra\u00eenement, m\u00eame lorsque le prompt demande des variations (Reddit, 2024e; SeaArt Guide, 2025a). En outre, le mod\u00e8le pourrait avoir des difficult\u00e9s \u00e0 combiner le CF-104 avec des \u00e9l\u00e9ments nouveaux sp\u00e9cifi\u00e9s dans le prompt, ce qui indiquerait un manque de g\u00e9n\u00e9ralisation au-del\u00e0 du contexte d&rsquo;entra\u00eenement. Cela constitue un indicateur diagnostique crucial pour les objets tr\u00e8s sp\u00e9cifiques.<\/li>\n<\/ul>\n\n\n\n<p><strong>Underfitting (Sous-apprentissage) :<\/strong> Ce ph\u00e9nom\u00e8ne survient lorsque le mod\u00e8le ne parvient pas \u00e0 apprendre ad\u00e9quatement les caract\u00e9ristiques du jeu de donn\u00e9es (SeaArt Guide, 2025a).<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Signes distinctifs :<\/strong> Les images g\u00e9n\u00e9r\u00e9es ne correspondent pas bien au jeu de donn\u00e9es et \u00e9chouent \u00e0 pr\u00e9server les caract\u00e9ristiques essentielles du CF-104 (SeaArt Guide, 2025a). Le sujet peut \u00eatre insuffisamment repr\u00e9sent\u00e9 ou pr\u00e9senter des d\u00e9formations (Stable Diffusion Art, 2025b). Le LoRA r\u00e9agit faiblement aux prompts ou n\u00e9cessite une force (strength) tr\u00e8s \u00e9lev\u00e9e pour produire un effet notable (Reddit, 2024e).<\/li>\n\n\n\n<li>Pour le CF-104, le sous-apprentissage se manifesterait par un a\u00e9ronef g\u00e9n\u00e9r\u00e9 ressemblant \u00e0 un avion de chasse g\u00e9n\u00e9rique plut\u00f4t qu&rsquo;au Starfighter distinct. Les caract\u00e9ristiques d&rsquo;identification cl\u00e9s, telles que la forme unique de son aile, son fuselage long et \u00e9lanc\u00e9, ou son entr\u00e9e\/sortie de moteur sp\u00e9cifique, pourraient \u00eatre perdues ou mal rendues (SeaArt Guide, 2025a). Cela compromet directement l&rsquo;objectif de l&rsquo;utilisateur de g\u00e9n\u00e9rer un CF-104 \u00ab\u00a0pr\u00e9cis\u00a0\u00bb.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Techniques pour am\u00e9liorer la g\u00e9n\u00e9ralisation du mod\u00e8le (dataset de r\u00e9gularisation, ajustement des param\u00e8tres)<\/h3>\n\n\n\n<p>Pour pr\u00e9venir et r\u00e9soudre les probl\u00e8mes de sur-apprentissage et de sous-apprentissage, diverses strat\u00e9gies d&rsquo;ajustement des hyperparam\u00e8tres et de pr\u00e9paration du jeu de donn\u00e9es peuvent \u00eatre employ\u00e9es :<\/p>\n\n\n\n<p><strong>Pr\u00e9vention de l&rsquo;Overfitting :<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Diminuer le taux d&rsquo;apprentissage :<\/strong> Un taux plus faible r\u00e9duit l&rsquo;agressivit\u00e9 des mises \u00e0 jour du mod\u00e8le, favorisant un apprentissage plus fin (SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>R\u00e9duire le nombre d&rsquo;epochs ou de r\u00e9p\u00e9titions :<\/strong> Limiter l&rsquo;exposition du mod\u00e8le aux donn\u00e9es d&rsquo;entra\u00eenement peut emp\u00eacher la m\u00e9morisation excessive (Shakker.AI Wiki, s. d.; SeaArt Guide, 2025a; Stable Diffusion Art, 2025b; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>R\u00e9duire <code>Rank<\/code> et augmenter <code>Alpha<\/code> :<\/strong> Cette combinaison tend \u00e0 diminuer la complexit\u00e9 du LoRA et \u00e0 amortir son influence, r\u00e9duisant ainsi le risque de sur-apprentissage (SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>Utiliser un jeu de donn\u00e9es de r\u00e9gularisation :<\/strong> Il s&rsquo;agit d&rsquo;inclure des images de la m\u00eame classe (par exemple, d&rsquo;autres avions de chasse) mais distinctes du CF-104 lui-m\u00eame (Civitai Education, 2025a; Reddit, 2024a; SeaArt Guide, 2025a). Cette pratique aide le mod\u00e8le \u00e0 mieux g\u00e9n\u00e9raliser la cat\u00e9gorie \u00ab\u00a0avion de chasse\u00a0\u00bb tout en se sp\u00e9cialisant sur les sp\u00e9cificit\u00e9s du CF-104. Il est recommand\u00e9 d&rsquo;avoir 10 \u00e0 20 images de r\u00e9gularisation non l\u00e9gend\u00e9es (SeaArt Guide, 2025a). L&rsquo;application d&rsquo;un \u00ab\u00a0jeu de donn\u00e9es de r\u00e9gularisation\u00a0\u00bb (Civitai Education, 2025a; Reddit, 2024a; SeaArt Guide, 2025a) constitue une strat\u00e9gie essentielle contre le sur-apprentissage. Pour le CF-104, cela implique d&rsquo;incorporer des images d&rsquo;<em>autres<\/em> avions de chasse (par exemple, F-16, MiG-21) dans un dossier s\u00e9par\u00e9. Cette pratique enseigne au mod\u00e8le ce qu&rsquo;il ne doit <em>pas<\/em> apprendre comme \u00e9tant unique au CF-104 (par exemple, les caract\u00e9ristiques g\u00e9n\u00e9rales d&rsquo;un \u00ab\u00a0jet\u00a0\u00bb comme le fait d&rsquo;avoir des ailes) tout en renfor\u00e7ant les attributs sp\u00e9cifiques du Starfighter. Cette double approche permet au LoRA de g\u00e9n\u00e9raliser sa compr\u00e9hension de la cat\u00e9gorie \u00ab\u00a0avion\u00a0\u00bb tout en se sp\u00e9cialisant sur le CF-104, emp\u00eachant ainsi la g\u00e9n\u00e9ration d&rsquo;avions g\u00e9n\u00e9riques lorsque le Starfighter est demand\u00e9, ou, inversement, \u00e9vitant la limitation de ne g\u00e9n\u00e9rer le Starfighter que dans les poses exactes sur lesquelles il a \u00e9t\u00e9 entra\u00een\u00e9.<\/li>\n\n\n\n<li><strong>Augmenter la taille du jeu de donn\u00e9es d&rsquo;entra\u00eenement :<\/strong> L&rsquo;ajout d&rsquo;images de haute qualit\u00e9 et vari\u00e9es peut enrichir la compr\u00e9hension du mod\u00e8le (SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>Augmenter <code>weight_decay<\/code> ou <code>lora_dropout<\/code> :<\/strong> Ces param\u00e8tres introduisent une r\u00e9gularisation suppl\u00e9mentaire, p\u00e9nalisant les poids trop importants ou d\u00e9sactivant al\u00e9atoirement des neurones pendant l&rsquo;entra\u00eenement (Reddit, 2025a; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>Activer le <code>shuffle_caption<\/code> :<\/strong> M\u00e9langer l&rsquo;ordre des l\u00e9gendes peut d\u00e9courager le mod\u00e8le d&rsquo;apprendre une d\u00e9pendance \u00e0 un ordre de prompt sp\u00e9cifique (Reddit, 2025a; RunComfy, 2025).<\/li>\n<\/ul>\n\n\n\n<p><strong>Pr\u00e9vention de l&rsquo;Underfitting :<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Augmenter le taux d&rsquo;apprentissage :<\/strong> Un taux plus \u00e9lev\u00e9 peut aider le mod\u00e8le \u00e0 apprendre plus rapidement si l&rsquo;apprentissage est insuffisant (SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>Augmenter le nombre d&rsquo;epochs ou de r\u00e9p\u00e9titions :<\/strong> Une exposition prolong\u00e9e aux donn\u00e9es peut permettre au mod\u00e8le d&rsquo;acqu\u00e9rir les caract\u00e9ristiques manquantes (SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>Augmenter <code>Rank<\/code> et r\u00e9duire <code>Alpha<\/code> :<\/strong> Cela accro\u00eet la capacit\u00e9 du LoRA \u00e0 apprendre des d\u00e9tails plus complexes et \u00e0 influencer davantage le mod\u00e8le de base (SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>Ajouter plus de fonctionnalit\u00e9s de haute qualit\u00e9 au jeu de donn\u00e9es :<\/strong> Enrichir le dataset avec des images plus vari\u00e9es et d\u00e9taill\u00e9es peut am\u00e9liorer l&rsquo;apprentissage (SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/li>\n\n\n\n<li><strong>Diminuer la taille de lot \u00e0 1 :<\/strong> Cela peut entra\u00eener des mises \u00e0 jour plus \u00ab\u00a0vigoureuses\u00a0\u00bb des poids du mod\u00e8le, potentiellement aidant \u00e0 sortir de l&rsquo;underfitting (Unsloth Documentation, 2025).<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">7. \u00c9valuation et Raffinement It\u00e9ratif du Mod\u00e8le LoRA<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">M\u00e9thodes d&rsquo;\u00e9valuation visuelle des r\u00e9sultats g\u00e9n\u00e9r\u00e9s<\/h3>\n\n\n\n<p>L&rsquo;\u00e9valuation visuelle est une m\u00e9thode fondamentale pour appr\u00e9cier la qualit\u00e9 d&rsquo;un mod\u00e8le LoRA (Reddit, 2024f; Shakker.AI Wiki, s. d.; Stable Diffusion Art, 2025b). Il est recommand\u00e9 de g\u00e9n\u00e9rer des images d&rsquo;\u00e9chantillon \u00e0 la fois pendant et apr\u00e8s le processus d&rsquo;entra\u00eenement. Cela peut \u00eatre r\u00e9alis\u00e9 en utilisant le n\u0153ud <code>FluxTrainValidate<\/code> (RunComfy, 2025) ou en configurant le syst\u00e8me pour qu&rsquo;il g\u00e9n\u00e8re des \u00e9chantillons \u00e0 des intervalles r\u00e9guliers (Geekatplay, s. d.c).<\/p>\n\n\n\n<p>La comparaison des sorties du mod\u00e8le avec les images du jeu de donn\u00e9es d&rsquo;entra\u00eenement est cruciale pour \u00e9valuer la fid\u00e9lit\u00e9 du mod\u00e8le et sa capacit\u00e9 de g\u00e9n\u00e9ralisation (Reddit, 2024f; Stable Diffusion Art, 2025b).<\/p>\n\n\n\n<p>Lors de l&rsquo;inspection visuelle des images g\u00e9n\u00e9r\u00e9es du CF-104, l&rsquo;attention doit d\u00e9passer la ressemblance g\u00e9n\u00e9rale. Il est imp\u00e9ratif d&rsquo;\u00e9valuer la pr\u00e9cision des caract\u00e9ristiques sp\u00e9cifiques et d\u00e9finissantes : la forme de l&rsquo;aile delta est-elle correcte? Les r\u00e9servoirs de bout d&rsquo;aile sont-ils pr\u00e9sents et proportionnellement exacts? Le fuselage long et \u00e9lanc\u00e9 est-il pr\u00e9cis? L&rsquo;entr\u00e9e\/sortie de moteur unique est-elle fid\u00e8lement reproduite? (Ceci est implicite dans la demande de l&rsquo;utilisateur pour un \u00ab\u00a0avion bien pr\u00e9cis\u00a0\u00bb). Ce sont les \u00ab\u00a0d\u00e9tails difficiles \u00e0 reproduire\u00a0\u00bb (RunDiffusion, 2025b) qu&rsquo;un bon LoRA pour un objet complexe doit capturer. Cela \u00e9l\u00e8ve l&rsquo;\u00e9valuation d&rsquo;un simple \u00ab\u00a0\u00e7a a l&rsquo;air bien\u00a0\u00bb \u00e0 une \u00e9valuation plus objective de la pr\u00e9cision technique.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Test du mod\u00e8le avec des prompts vari\u00e9s et des seeds fixes pour \u00e9valuer la coh\u00e9rence et la flexibilit\u00e9<\/h3>\n\n\n\n<p>Pour \u00e9valuer la coh\u00e9rence et la flexibilit\u00e9 du mod\u00e8le LoRA, il est essentiel de le tester en g\u00e9n\u00e9rant des images avec une vari\u00e9t\u00e9 de prompts (incluant le mot-cl\u00e9 de d\u00e9clenchement) et en maintenant des seeds fixes (Reddit, 2024f). Cette approche permet de d\u00e9terminer la fiabilit\u00e9 avec laquelle le mod\u00e8le reproduit le CF-104 et sa capacit\u00e9 \u00e0 g\u00e9n\u00e9rer l&rsquo;a\u00e9ronef dans des situations ou des styles in\u00e9dits (Reddit, 2024f).<\/p>\n\n\n\n<p>Il est \u00e9galement utile de comparer les images g\u00e9n\u00e9r\u00e9es avec et sans l&rsquo;application du LoRA pour observer son impact direct sur les sorties (Cloudflare, s. d.). L&rsquo;\u00e9valuation doit aussi porter sur la capacit\u00e9 du LoRA \u00e0 interagir harmonieusement avec d&rsquo;autres mod\u00e8les LoRA ou checkpoints, et \u00e0 s&rsquo;adapter aux changements de style demand\u00e9s (Reddit, 2024f).<\/p>\n\n\n\n<p>Pour le CF-104, la flexibilit\u00e9 signifie la capacit\u00e9 de le g\u00e9n\u00e9rer \u00ab\u00a0dans le ciel\u00a0\u00bb, \u00ab\u00a0sur une piste\u00a0\u00bb, \u00ab\u00a0dans un hangar\u00a0\u00bb, ou m\u00eame \u00ab\u00a0dans une peinture stylis\u00e9e\u00a0\u00bb (Reddit, 2024f; RunDiffusion, 2025b). Un bon LoRA ne devrait pas \u00eatre sur-entra\u00een\u00e9 au point de ne produire l&rsquo;avion que dans un seul contexte m\u00e9moris\u00e9. Tester avec des prompts vari\u00e9s qui introduisent de nouveaux arri\u00e8re-plans, \u00e9clairages ou styles artistiques (Reddit, 2024f) est crucial pour d\u00e9terminer si le LoRA a v\u00e9ritablement appris le <em>concept<\/em> du CF-104 ou s&rsquo;il a simplement m\u00e9moris\u00e9 ses images d&rsquo;entra\u00eenement. Cette capacit\u00e9 est fondamentale pour que l&rsquo;utilisateur puisse utiliser le LoRA de mani\u00e8re cr\u00e9ative.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Analyse de la perte (<code>loss<\/code>) et des images de validation pour suivre la progression<\/h3>\n\n\n\n<p>Le n\u0153ud <code>VisualizeLoss<\/code> est un outil pr\u00e9cieux pour suivre l&rsquo;\u00e9volution de la perte d&rsquo;entra\u00eenement au fil du temps (RunComfy, 2025). Une diminution progressive de cette perte est g\u00e9n\u00e9ralement un indicateur que le mod\u00e8le apprend de mani\u00e8re appropri\u00e9e (SeaArt Guide, 2025a).<\/p>\n\n\n\n<p>Il est \u00e9galement crucial de surveiller la perte de validation. Une augmentation de la perte de validation, alors que la perte d&rsquo;entra\u00eenement continue de diminuer, est un signe classique de sur-apprentissage (Reddit, 2025a; Shakker.AI Wiki, s. d.; Unsloth Documentation, 2025). Les images g\u00e9n\u00e9r\u00e9es par le n\u0153ud <code>FluxTrainValidate<\/code> offrent une repr\u00e9sentation visuelle concr\u00e8te de la performance du mod\u00e8le \u00e0 diverses \u00e9tapes du processus d&rsquo;entra\u00eenement (RunComfy, 2025; Shakker.AI Wiki, s. d.).<\/p>\n\n\n\n<p>Bien que l&rsquo;inspection visuelle offre une \u00e9valuation subjective de la qualit\u00e9 (Reddit, 2024f; Stable Diffusion Art, 2025b), la surveillance de la courbe de <code>loss<\/code> (RunComfy, 2025; SeaArt Guide, 2025a) fournit des donn\u00e9es objectives et quantitatives sur la progression de l&rsquo;apprentissage du mod\u00e8le. L&rsquo;\u00e9l\u00e9ment crucial ici est la n\u00e9cessit\u00e9 de corr\u00e9ler ces deux points de donn\u00e9es : une perte constamment d\u00e9croissante <em>devrait<\/em> correspondre \u00e0 une am\u00e9lioration de la qualit\u00e9 visuelle, et, inversement, une perte de validation croissante <em>devrait<\/em> co\u00efncider avec des indicateurs visuels de sur-apprentissage (Reddit, 2025a; SeaArt Guide, 2025a; Unsloth Documentation, 2025). Une divergence entre ces deux signaux sugg\u00e8re un probl\u00e8me plus profond au sein du jeu de donn\u00e9es ou de la configuration d&rsquo;entra\u00eenement, n\u00e9cessitant une enqu\u00eate plus approfondie. Cette approche int\u00e9gr\u00e9e repr\u00e9sente une bonne pratique pour un d\u00e9veloppement de mod\u00e8le robuste.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Conseils pour l&rsquo;am\u00e9lioration continue du mod\u00e8le LoRA<\/h3>\n\n\n\n<p>L&rsquo;entra\u00eenement d&rsquo;un mod\u00e8le LoRA est un processus intrins\u00e8quement it\u00e9ratif, exigeant patience et exp\u00e9rimentation (Novita.AI, 2024a; Stable Diffusion Art, 2025b). Il est recommand\u00e9 de consid\u00e9rer les param\u00e8tres par d\u00e9faut comme un point de d\u00e9part et de les ajuster de mani\u00e8re s\u00e9quentielle, un par un, en observant attentivement l&rsquo;impact de chaque modification (Stable Diffusion Art, 2025b).<\/p>\n\n\n\n<p>La sauvegarde de points de contr\u00f4le (checkpoints) \u00e0 intervalles r\u00e9guliers est une pratique judicieuse. Cela permet de comparer les performances du mod\u00e8le \u00e0 diff\u00e9rentes \u00e9tapes de l&rsquo;entra\u00eenement et de s\u00e9lectionner le point optimal pour le d\u00e9ploiement ou un fine-tuning ult\u00e9rieur (RunComfy, 2025; Shakker.AI Wiki, s. d.). En cas de d\u00e9tection de sur-apprentissage ou de sous-apprentissage, il convient de se r\u00e9f\u00e9rer aux strat\u00e9gies d&rsquo;ajustement des hyperparam\u00e8tres et de la pr\u00e9paration du jeu de donn\u00e9es pr\u00e9c\u00e9demment d\u00e9taill\u00e9es (SeaArt Guide, 2025a; Unsloth Documentation, 2025).<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">8. Conclusion et Prochaines \u00c9tapes<\/h2>\n\n\n\n<p>La cr\u00e9ation d&rsquo;un mod\u00e8le LoRA pr\u00e9cis pour un objet sp\u00e9cifique comme le CF-104 Starfighter dans ComfyUI est un processus m\u00e9thodique qui combine une pr\u00e9paration rigoureuse des donn\u00e9es, une configuration attentive des hyperparam\u00e8tres et une \u00e9valuation it\u00e9rative. Les \u00e9tapes cl\u00e9s comprennent la collecte d&rsquo;un jeu de donn\u00e9es d&rsquo;images de haute qualit\u00e9, vari\u00e9es en angles et en contextes pour capturer la complexit\u00e9 g\u00e9om\u00e9trique de l&rsquo;avion et pr\u00e9venir le sur-apprentissage contextuel. Un l\u00e9gendage pr\u00e9cis, distinguant les caract\u00e9ristiques fixes des variables et utilisant un mot-cl\u00e9 de d\u00e9clenchement unique, est essentiel pour la fid\u00e9lit\u00e9 et la flexibilit\u00e9 du mod\u00e8le.<\/p>\n\n\n\n<p>L&rsquo;utilisation de l&rsquo;environnement modulaire de ComfyUI, avec ses n\u0153uds personnalis\u00e9s d\u00e9di\u00e9s \u00e0 l&rsquo;entra\u00eenement LoRA, simplifie le processus et facilite le d\u00e9bogage. L&rsquo;optimisation des hyperparam\u00e8tres tels que <code>network_dim<\/code> et <code>network_alpha<\/code> est cruciale pour \u00e9quilibrer la fid\u00e9lit\u00e9 des d\u00e9tails techniques et la capacit\u00e9 de g\u00e9n\u00e9ralisation. Le r\u00e9glage du taux d&rsquo;apprentissage et la gestion des \u00e9tapes d&rsquo;entra\u00eenement (<code>epochs<\/code>, <code>repeats<\/code>) sont \u00e9galement fondamentaux pour la stabilit\u00e9 des formes complexes et pour \u00e9viter le sur-apprentissage ou le sous-apprentissage. L&rsquo;int\u00e9gration d&rsquo;un jeu de donn\u00e9es de r\u00e9gularisation est une strat\u00e9gie efficace pour renforcer la g\u00e9n\u00e9ralisation du mod\u00e8le.<\/p>\n\n\n\n<p>Enfin, l&rsquo;\u00e9valuation visuelle des r\u00e9sultats, corr\u00e9l\u00e9e \u00e0 l&rsquo;analyse des courbes de perte, permet un raffinement continu. Tester le mod\u00e8le avec des prompts vari\u00e9s et des seeds fixes est indispensable pour confirmer sa coh\u00e9rence et sa flexibilit\u00e9 dans diff\u00e9rents contextes.<\/p>\n\n\n\n<p>Pour les prochaines \u00e9tapes, il est fortement encourag\u00e9 de poursuivre l&rsquo;exp\u00e9rimentation avec diff\u00e9rents param\u00e8tres et configurations de jeu de donn\u00e9es. Le partage des workflows et des r\u00e9sultats au sein de la communaut\u00e9 ComfyUI peut acc\u00e9l\u00e9rer l&rsquo;apprentissage collectif et la d\u00e9couverte de nouvelles bonnes pratiques. La documentation m\u00e9ticuleuse des workflows et des param\u00e8tres utilis\u00e9s est \u00e9galement primordiale pour assurer la reproductibilit\u00e9 des r\u00e9sultats et faciliter les am\u00e9liorations futures.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Bibliographie<\/h2>\n\n\n\n<p>ACL Anthology. (2025, 19 janvier). <em>LoRA-drop: Efficient LoRA Parameter Pruning based on Output Evaluation<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/aclanthology.org\/2025.coling-main.371.pdf\">https:\/\/aclanthology.org\/2025.coling-main.371.pdf<\/a><\/p>\n\n\n\n<p>ArXiv. (s. d.). <em>arXiv<\/em>. Wikip\u00e9dia. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/en.wikipedia.org\/wiki\/ArXiv\">https:\/\/en.wikipedia.org\/wiki\/ArXiv<\/a><\/p>\n\n\n\n<p>ArXiv. (2025a, 21 janvier). <em>FOCUS: First Order Concentrated Updating Scheme<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/arxiv.org\/abs\/2501.12243\">https:\/\/arxiv.org\/abs\/2501.12243<\/a><\/p>\n\n\n\n<p>ArXiv. (2025b, 22 janvier). <em>DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/arxiv.org\/abs\/2501.12948\">https:\/\/arxiv.org\/abs\/2501.12948<\/a><\/p>\n\n\n\n<p>ArXiv. (2025c, 31 juillet). <em>Focus Training<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/arxiv.org\/html\/2507.08477v1\">https:\/\/arxiv.org\/html\/2507.08477v1<\/a><\/p>\n\n\n\n<p>ArXiv. (2025d, 21 mai). <em>LoFT: Local Proxy Fine-tuning Improves Transferability to Large Language Model Attacks<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/arxiv.org\/html\/2505.11703v1\">https:\/\/arxiv.org\/html\/2505.11703v1<\/a><\/p>\n\n\n\n<p>ArXiv. (2025e, 31 juillet). <em>Local time at arxiv.org<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/arxiv.org\/localtime\">https:\/\/arxiv.org\/localtime<\/a><\/p>\n\n\n\n<p>bmaltais. (s. d.). <em>LoRA training parameters<\/em>. GitHub. Consult\u00e9 le 31 juillet 2025, de(https:\/\/github.com\/bmaltais\/kohya_ss\/wiki\/LoRA-training-parameters)<\/p>\n\n\n\n<p>Civitai Education. (2025a, 9 janvier). <em>LoRA Training Glossary<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/education.civitai.com\/lora-training-glossary\/\">https:\/\/education.civitai.com\/lora-training-glossary\/<\/a><\/p>\n\n\n\n<p>Civitai Education. (2025b, 30 juillet). <em>Quickstart Guide to Flux.1<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/education.civitai.com\/quickstart-guide-to-flux-1\/\">https:\/\/education.civitai.com\/quickstart-guide-to-flux-1\/<\/a><\/p>\n\n\n\n<p>Civitai Education. (2023, 16 novembre). <em>Quickstart Guide to LCM LoRA \u2013 Acceleration Modules!<\/em> Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/education.civitai.com\/quickstart-guide-to-lcm-lora-acceleration-modules\/\">https:\/\/education.civitai.com\/quickstart-guide-to-lcm-lora-acceleration-modules\/<\/a><\/p>\n\n\n\n<p>Cloudflare. (s. d.). <em>What is LoRA? | Low-rank adaptation<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.cloudflare.com\/learning\/ai\/what-is-lora\/\">https:\/\/www.cloudflare.com\/learning\/ai\/what-is-lora\/<\/a><\/p>\n\n\n\n<p>ComfyAI.run. (s. d.). <em>ComfyUI_Wan2_1_lora_trainer Node for Effective AI Training<\/em>. Consult\u00e9 le 31 juillet 2025, de(https:\/\/comfyai.run\/custom_node\/ComfyUI_Wan2_1_lora_trainer)<\/p>\n\n\n\n<p>ComfyUI Documentation. (s. d.a). <em>ComfyUI<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/github.com\/comfyanonymous\/ComfyUI\">https:\/\/github.com\/comfyanonymous\/ComfyUI<\/a><\/p>\n\n\n\n<p>ComfyUI Documentation. (s. d.b). <em>LoRA<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/docs.comfy.org\/tutorials\/basic\/lora\">https:\/\/docs.comfy.org\/tutorials\/basic\/lora<\/a><\/p>\n\n\n\n<p>d8ahazard. (s. d.). <em>sd_dreambooth_extension\/issues\/1184<\/em>. GitHub. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/github.com\/d8ahazard\/sd_dreambooth_extension\/issues\/1184\">https:\/\/github.com\/d8ahazard\/sd_dreambooth_extension\/issues\/1184<\/a><\/p>\n\n\n\n<p>fal.ai. (2025, 26 juin). <em>Announcing Flux 1 Kontext Dev Inference &amp; Training<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/blog.fal.ai\/announcing-flux-1-kontext-dev-inference-training\/\">https:\/\/blog.fal.ai\/announcing-flux-1-kontext-dev-inference-training\/<\/a><\/p>\n\n\n\n<p>Geekatplay. (s. d.a). <em>How to Train Custom LoRA Models Inside ComfyUI<\/em>. YouTube. Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.youtube.com\/watch?v=m3ENCAwWDXc\">https:\/\/www.youtube.com\/watch?v=m3ENCAwWDXc<\/a>)))<\/p>\n\n\n\n<p>Geekatplay. (s. d.b). <em>Trainer for LoRA, Checkpoints, and Diffusion Models<\/em>. YouTube. Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.youtube.com\/watch?v=-KNyKQBonlU\">https:\/\/www.youtube.com\/watch?v=-KNyKQBonlU<\/a>)))<\/p>\n\n\n\n<p>Geekatplay. (s. d.c). <em>Train Better LoRAs with ComfyUI \u2013 Auto Descriptions<\/em>. YouTube. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.youtube.com\/watch?v=U4nc1kc746U\">https:\/\/www.youtube.com\/watch?v=U4nc1kc746U<\/a><\/p>\n\n\n\n<p>Google Cloud. (2025, 30 juin). <em>Determine evaluation metrics for generative AI models<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/cloud.google.com\/vertex-ai\/generative-ai\/docs\/models\/determine-eval\">https:\/\/cloud.google.com\/vertex-ai\/generative-ai\/docs\/models\/determine-eval<\/a><\/p>\n\n\n\n<p>Hugging Face. (2025, 24 mars). <em>Perfect LoRA training parameters (human character)<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/discuss.huggingface.co\/t\/perfect-lora-training-parameters-human-character\/147211\">https:\/\/discuss.huggingface.co\/t\/perfect-lora-training-parameters-human-character\/147211<\/a><\/p>\n\n\n\n<p>Hugging Face. (2024, 18 juin). <em>Thoughts on LoRA Training #1<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/huggingface.co\/blog\/alvdansen\/thoughts-on-lora-training-1\">https:\/\/huggingface.co\/blog\/alvdansen\/thoughts-on-lora-training-1<\/a><\/p>\n\n\n\n<p>Jancovich, L., Pitches, C., &amp; Stevenson, D. (2025, 28 juillet). <em>Failures in impact evaluation<\/em>. <em>Research Evaluation<\/em>, <em>34<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/academic.oup.com\/rev\/article\/doi\/10.1093\/reseval\/rvaf033\/8215691\">https:\/\/academic.oup.com\/rev\/article\/doi\/10.1093\/reseval\/rvaf033\/8215691<\/a><\/p>\n\n\n\n<p>jaimitoes. (s. d.). <em>jaimitoes\/ComfyUI_Wan2_1_lora_trainer<\/em>. GitHub. Consult\u00e9 le 31 juillet 2025, de(https:\/\/github.com\/jaimitoes\/ComfyUI_Wan2_1_lora_trainer)<\/p>\n\n\n\n<p>MimicPC. (2025, 30 mai). <em>Kohya-SS Tutorial: LoRA Training and Testing<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.mimicpc.com\/ja\/learn\/kohya-ss-lora-training-guide\">https:\/\/www.mimicpc.com\/ja\/learn\/kohya-ss-lora-training-guide<\/a><\/p>\n\n\n\n<p>MimicPC. (2025, 3 juillet). <em>How to train Flux LoRA with Kohya_SS<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.mimicpc.com\/learn\/steps-to-use-kohya-ss-for-flux-lora-training\">https:\/\/www.mimicpc.com\/learn\/steps-to-use-kohya-ss-for-flux-lora-training<\/a><\/p>\n\n\n\n<p>MimicPC. (s. d.a). <em>Free AI Generator Online<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.mimicpc.com\/demo\/kohya-ss\">https:\/\/www.mimicpc.com\/demo\/kohya-ss<\/a><\/p>\n\n\n\n<p>MimicPC. (s. d.b). <em>How to Use Kohya-SS for Stable Diffusion 3 LoRA Training?<\/em>. YouTube. Consult\u00e9 le 31 juillet 2025, de(https:\/\/www.youtube.com\/watch?v=FkhpWZNjWj8)<\/p>\n\n\n\n<p>MimicPC. (s. d.c). <em>Using Kohya-SS for Efficient AI Model Training<\/em>. YouTube. Consult\u00e9 le 31 juillet 2025, de(https:\/\/www.youtube.com\/watch?v=wTVI0SONkpc)<\/p>\n\n\n\n<p>microsoft. (s. d.). <em>microsoft\/LoRA<\/em>. GitHub. Consult\u00e9 le 31 juillet 2025, de(https:\/\/github.com\/microsoft\/LoRA)<\/p>\n\n\n\n<p>Microsoft. (2025, 31 juillet). <em>Phi Silica task specialization using LoRA in Microsoft Learning Zone: A technical deep dive<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/blogs.windows.com\/windowsdeveloper\/2025\/07\/31\/phi-silica-task-specialization-using-lora-in-microsoft-learning-zone-a-technical-deep-dive\/\">https:\/\/blogs.windows.com\/windowsdeveloper\/2025\/07\/31\/phi-silica-task-specialization-using-lora-in-microsoft-learning-zone-a-technical-deep-dive\/<\/a><\/p>\n\n\n\n<p>Novita.AI. (2024a, 29 janvier). <em>Accelerate Your Skills: LoRA Training Guide<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/blogs.novita.ai\/accelerate-your-skills-lora-training-guide\/\">https:\/\/blogs.novita.ai\/accelerate-your-skills-lora-training-guide\/<\/a><\/p>\n\n\n\n<p>Novita.AI. (2024b, 18 mars). <em>Mastering Lora AI: Your Ultimate Guide<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/blogs.novita.ai\/mastering-lora-ai-your-ultimate-guide\/\">https:\/\/blogs.novita.ai\/mastering-lora-ai-your-ultimate-guide\/<\/a><\/p>\n\n\n\n<p>Prompting Pixels. (2024, 30 avril). <em>How to Add a LoRa to Your Workflow in ComfyUI<\/em>. Medium. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/medium.com\/@promptingpixels\/how-to-add-a-lora-to-your-workflow-in-comfyui-b5635cd7a8aa\">https:\/\/medium.com\/@promptingpixels\/how-to-add-a-lora-to-your-workflow-in-comfyui-b5635cd7a8aa<\/a><\/p>\n\n\n\n<p>Reddit. (2024a, 25 janvier). <em>So how DO you caption images for training a lora?<\/em> Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1i97uar\/so_how_do_you_caption_images_for_training_a_lora\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1i97uar\/so_how_do_you_caption_images_for_training_a_lora\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2024b, 25 janvier). <em>LoRA image captioning best practices<\/em>. Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1cxx3z2\/lora_image_captioning_best_practices\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1cxx3z2\/lora_image_captioning_best_practices\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2024c, 24 mars). <em>How exactly does the learning rate and precision work?<\/em> Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1bjbbo4\/how_exactly_does_the_learning_rate_and_precision\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1bjbbo4\/how_exactly_does_the_learning_rate_and_precision\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2024d, 17 octobre). <em>Creating detailed training data for Lora<\/em>. Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/17iek27\/creating_detailed_training_data_for_lora\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/17iek27\/creating_detailed_training_data_for_lora\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2024e, 10 juillet). <em>Most posts I&rsquo;ve read says that no more than 25-30 images should be used when training a Flux LoRA, but I&rsquo;ve also seen some that have been trained on 100+ images and looks great. When should you use more than 25-30 images, and how can you ensure that it doesn&rsquo;t get overtrained when using 100+ images?<\/em> Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1j8ntgi\/most_posts_ive_read_says_that_no_more_than_2530\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1j8ntgi\/most_posts_ive_read_says_that_no_more_than_2530\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2024f, 4 septembre). <em>Quantifying LoRA quality<\/em>. Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1f8y4em\/quantifying_lora_quality\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1f8y4em\/quantifying_lora_quality\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2024g, 25 f\u00e9vrier). <em>Training LoRAs with transparency (PNG)<\/em>. Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1b9snd3\/training_loras_with_transparency_png\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1b9snd3\/training_loras_with_transparency_png\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2024h, 25 f\u00e9vrier). <em>Hey guys, is there any tutorial on how to make a lora on how to make a lora with transparent background?<\/em> Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1kzn560\/hey_guys_is_there_any_tutorial_on_how_to_make_a\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1kzn560\/hey_guys_is_there_any_tutorial_on_how_to_make_a\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2025a, 5 f\u00e9vrier). <em>LoRA training both overfits and underfits, what is the solution?<\/em> Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1ii4c6s\/lora_training_both_overfits_and_underfits_what_is\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1ii4c6s\/lora_training_both_overfits_and_underfits_what_is\/<\/a>)))<\/p>\n\n\n\n<p>Reddit. (2025b, 29 juillet). <em>Native Lora trainer nodes in ComfyUI, how to use?<\/em> Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/comfyui\/comments\/1ljjzaq\/native_lora_trainer_nodes_in_comfyui_how_to_use\/\">https:\/\/www.reddit.com\/r\/comfyui\/comments\/1ljjzaq\/native_lora_trainer_nodes_in_comfyui_how_to_use\/<\/a><\/p>\n\n\n\n<p>Reddit. (2025c, 31 mai). <em>What&rsquo;s the best way of creating a dataset from 1 image?<\/em> Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1l8zi09\/whats_the_best_way_of_creating_a_dataset-from-1\/\">https:\/\/www.reddit.com\/r\/StableDiffusion\/comments\/1l8zi09\/whats_the_best_way_of_creating_a_dataset-from-1\/<\/a>)))<\/p>\n\n\n\n<p>rgthree. (s. d.). <em>rgthree\/rgthree-comfy<\/em>. GitHub. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/github.com\/rgthree\/rgthree-comfy\">https:\/\/github.com\/rgthree\/rgthree-comfy<\/a><\/p>\n\n\n\n<p>Roboflow. (2024, 20 ao\u00fbt). <em>Roboflow Annotate: Label Images Faster Than Ever<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/roboflow.com\/annotate\">https:\/\/roboflow.com\/annotate<\/a><\/p>\n\n\n\n<p>RunComfy. (2025, 16 juin). <em>ComfyUI FLUX LoRA Training: Detailed Guides<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.runcomfy.com\/comfyui-workflows\/comfyui-flux-lora-training-detailed-guides\">https:\/\/www.runcomfy.com\/comfyui-workflows\/comfyui-flux-lora-training-detailed-guides<\/a><\/p>\n\n\n\n<p>RunComfy. (2025a, 16 juin). <em>Generating Transparent Images with LayerDiffuse in ComfyUI<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.runcomfy.com\/comfyui-workflows\/generating-transparent-images-with-layerdiffuse-in-comfyui\">https:\/\/www.runcomfy.com\/comfyui-workflows\/generating-transparent-images-with-layerdiffuse-in-comfyui<\/a><\/p>\n\n\n\n<p>RunDiffusion. (2025a, 20 mars). <em>Basic LoRa Training with Kohya<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/learn.rundiffusion.com\/basic-lora-training-with-kohya\/\">https:\/\/learn.rundiffusion.com\/basic-lora-training-with-kohya\/<\/a><\/p>\n\n\n\n<p>RunDiffusion. (2025b, 21 juillet). <em>How to Prepare a Dataset for Model Training on RunDiffusion<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/learn.rundiffusion.com\/how-to-prepare-a-dataset-for-model-training-on-rundiffusion\/\">https:\/\/learn.rundiffusion.com\/how-to-prepare-a-dataset-for-model-training-on-rundiffusion\/<\/a><\/p>\n\n\n\n<p>runcomfy.com. (2024, 5 ao\u00fbt). <em>Lora-Training-in-Comfy<\/em>. Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/www.runcomfy.com\/comfyui-nodes\/Lora-Training-in-Comfy\">https:\/\/www.runcomfy.com\/comfyui-nodes\/Lora-Training-in-Comfy<\/a>)))<\/p>\n\n\n\n<p>Sanj.dev. (s. d.). <em>How to Train Stable Diffusion LoRA Self-Portraits<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/sanj.dev\/post\/train-stable-diffusion-lora-self-portraits\">https:\/\/sanj.dev\/post\/train-stable-diffusion-lora-self-portraits<\/a><\/p>\n\n\n\n<p>SeaArt Guide. (2025a, 25 juin). <em>3-2 LoRA Training (Advance)<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/docs.seaart.ai\/guide-1\/3-advanced-guide\/3-2-lora-training-advance\">https:\/\/docs.seaart.ai\/guide-1\/3-advanced-guide\/3-2-lora-training-advance<\/a><\/p>\n\n\n\n<p>SeaArt Guide. (2025b, 10 juillet). <em>Image Training &#8211; SeaArt Guide<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/docs.seaart.ai\/guide-1\/3-advanced-guide\/3-2-lora-training-advance\/image-training\">https:\/\/docs.seaart.ai\/guide-1\/3-advanced-guide\/3-2-lora-training-advance\/image-training<\/a><\/p>\n\n\n\n<p>Shakker.AI Wiki. (s. d.). <em>LoRA Training Parameters: The Role of Single Image Training Count, Epochs, Batch Size, and Precision<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/wiki.shakker.ai\/en\/lora-training-parameters\">https:\/\/wiki.shakker.ai\/en\/lora-training-parameters<\/a><\/p>\n\n\n\n<p>Stable Diffusion Art. (2025a, 21 f\u00e9vrier). <em>Beginner&rsquo;s Guide to ComfyUI<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/stable-diffusion-art.com\/comfyui\/\">https:\/\/stable-diffusion-art.com\/comfyui\/<\/a><\/p>\n\n\n\n<p>Stable Diffusion Art. (2025b, 17 janvier). <em>How to train Lora models<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/stable-diffusion-art.com\/train-lora\/\">https:\/\/stable-diffusion-art.com\/train-lora\/<\/a><\/p>\n\n\n\n<p>Stable Diffusion Art. (2025c, 17 janvier). <em>How to train SDXL LoRA models<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/stable-diffusion-art.com\/train-lora-sdxl\/\">https:\/\/stable-diffusion-art.com\/train-lora-sdxl\/<\/a><\/p>\n\n\n\n<p>Stable Diffusion Art. (2025d, 21 f\u00e9vrier). <em>How to Generate Transparent Background Images with Stable Diffusion<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/stable-diffusion-art.com\/transparent-background\/\">https:\/\/stable-diffusion-art.com\/transparent-background\/<\/a><\/p>\n\n\n\n<p>Tamanna. (2025, 16 juin). <em>Evaluating Prompts in Large Language Models. Methods, Quality Processes, and Semantic Measurement with Amazon Bedrock (Claude)<\/em>. Medium. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/medium.com\/@tam.tamanna18\/evaluating-prompts-in-large-language-models-ed2e30c6de34\">https:\/\/medium.com\/@tam.tamanna18\/evaluating-prompts-in-large-language-models-ed2e30c6de34<\/a><\/p>\n\n\n\n<p>Tenofas. (s. d.). <em>Flux LoRA Trainer 2.0<\/em>. OpenArt. Consult\u00e9 le 31 juillet 2025, de(((<a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/openart.ai\/workflows\/tenofas\/flux-lora-trainer-20\/VmxcKxjxRoN2Lrs9ESU7\">https:\/\/openart.ai\/workflows\/tenofas\/flux-lora-trainer-20\/VmxcKxjxRoN2Lrs9ESU7<\/a>)))<\/p>\n\n\n\n<p>ThinkDiffusion. (2025). <em>ComfyUI LoRAs: The Ultimate Guide<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/learn.thinkdiffusion.com\/comfyui-loras-the-ultimate-guide\/\">https:\/\/learn.thinkdiffusion.com\/comfyui-loras-the-ultimate-guide\/<\/a><\/p>\n\n\n\n<p>Unsloth Documentation. (2025, 3 juillet). <em>LoRA Hyperparameters Guide<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/docs.unsloth.ai\/get-started\/fine-tuning-llms-guide\/lora-hyperparameters-guide\">https:\/\/docs.unsloth.ai\/get-started\/fine-tuning-llms-guide\/lora-hyperparameters-guide<\/a><\/p>\n\n\n\n<p>Warmbutter. (s. d.). <em>Image Caption Tool for LoRA Training<\/em>. Consult\u00e9 le 31 juillet 2025, de <a target=\"_blank\" rel=\"noreferrer noopener\" href=\"https:\/\/warmbutter.com\/ai-toolkit\/image-caption\/\">https:\/\/warmbutter.com\/ai-toolkit\/image-caption\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ce rapport d\u00e9taille la m\u00e9thodologie pour cr\u00e9er un mod\u00e8le LoRA (Low-Rank Adaptation) pr\u00e9cis du CF-104 Starfighter dans ComfyUI, une interface visuelle bas\u00e9e sur des n\u0153uds. Le processus d\u00e9bute par la pr\u00e9paration d&rsquo;un jeu de donn\u00e9es d&rsquo;images de haute qualit\u00e9 (20-40 images, 512&#215;512 pixels), vari\u00e9es en angles, \u00e9clairage et arri\u00e8re-plans, avec une attention particuli\u00e8re aux d\u00e9tails m\u00e9caniques de l&rsquo;avion. L&rsquo;utilisation d&rsquo;images avec arri\u00e8re-plans transparents est possible mais n\u00e9cessite une gestion sp\u00e9cifique par l&rsquo;outil d&rsquo;entra\u00eenement pour \u00e9viter les probl\u00e8mes de g\u00e9n\u00e9ralisation. Le l\u00e9gendage pr\u00e9cis des images est crucial, en omettant les caract\u00e9ristiques fixes de l&rsquo;avion et en incluant les \u00e9l\u00e9ments variables, tout en utilisant un mot-cl\u00e9 de d\u00e9clenchement unique. La configuration du workflow dans ComfyUI implique l&rsquo;installation de n\u0153uds personnalis\u00e9s comme \u00ab\u00a0ComfyUI-FluxTrainer\u00a0\u00bb et la bonne organisation des r\u00e9pertoires d&rsquo;entr\u00e9e et de sortie. L&rsquo;optimisation des hyperparam\u00e8tres est essentielle, notamment network_dim (64-128 pour le r\u00e9alisme) et network_alpha (g\u00e9n\u00e9ralement la moiti\u00e9 de dim), le taux d&rsquo;apprentissage (0.0001-0.0004), le nombre d&rsquo;epochs et de r\u00e9p\u00e9titions, et la taille de lot, en utilisant des strat\u00e9gies d&rsquo;augmentation de donn\u00e9es comme le retournement horizontal. Pour pr\u00e9venir le sur-apprentissage (overfitting) ou le sous-apprentissage (underfitting), des ajustements de ces param\u00e8tres et l&rsquo;utilisation d&rsquo;un jeu de donn\u00e9es de r\u00e9gularisation sont recommand\u00e9s. Enfin, l&rsquo;\u00e9valuation et le raffinement it\u00e9ratif du mod\u00e8le sont r\u00e9alis\u00e9s par inspection visuelle des images g\u00e9n\u00e9r\u00e9es, des tests avec des prompts vari\u00e9s et des seeds fixes, et l&rsquo;analyse des courbes de perte, soulignant l&rsquo;importance de la patience et de l&rsquo;exp\u00e9rimentation continue pour obtenir un LoRA performant et polyvalent.<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"ngg_post_thumbnail":0,"footnotes":""},"categories":[553,554,1447,355,254,356,489,1448,1449,1450],"tags":[1437,1311,1445,1434,1443,1435,1436,1441,1310,1431,1439,1433,1438,1442,1446,1432,1440,1444],"class_list":["post-340","post","type-post","status-publish","format-standard","hentry","category-006-informatique-et-les-technologies-associees","category-006-3-intelligence-artificielle","category-006-31-apprentissage-automatique-machine-learning","category-600-technologie-sciences-appliquees","category-620-ingenierie-et-operations-connexes","category-629-autres-branches-de-lingenierie","category-629-1-aeronautique-et-astronautiqu","category-629-13-aeronautique","category-629-133-types-daeronefs","category-629-13334-avions-militaires-a-reaction","tag-cf-104-starfighter","tag-comfyui","tag-evaluation-de-modele","tag-fine-tuning","tag-hyperparametres","tag-images-de-haute-qualite","tag-jeu-de-donnees","tag-legendage","tag-lora","tag-modele-generatif","tag-mots-cles","tag-network_alpha","tag-network_dim","tag-overfitting","tag-regularisation","tag-stable-diffusion","tag-taux-dapprentissage","tag-underfitting"],"_links":{"self":[{"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/posts\/340","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/comments?post=340"}],"version-history":[{"count":2,"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/posts\/340\/revisions"}],"predecessor-version":[{"id":362,"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/posts\/340\/revisions\/362"}],"wp:attachment":[{"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/media?parent=340"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/categories?post=340"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/steveprudhomme.org\/index.php\/wp-json\/wp\/v2\/tags?post=340"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}