Tutoriel Midjourney V6, le meilleur logiciel de génération d'image par intelligence artificielle (AI)

Midjourney v6

[Tutoriel mis à jour le 28 février 2024 pour la version 6 de Midjourney.]

Dans ce tutoriel Midjourney, vous apprendrez les principales fonctionnalités et commandes du meilleur des logiciels actuels de génération d'image par une IA (AI / intelligence artificielle).

A voir aussi : notre tutoriel sur Midjourney Alpha.

Comment essayer / tester Midjourney ?

Pour tester Midjourney il faut d'abord que vous ayez un compte Discord. D'après les statistiques Midjourney, le serveur Discord de Midjourney accueille plus de 19 millions d'utilisateurs en 2024 !

Vous n'avez pas de compte Discord ? Allez vous en créer un, c'est gratuit.

Vous pouvez aller sur le site web de Discord et cliquer "Se connecter", ou sur smartphone téléchargez l'application Discord.

Discord est une application de tchat très populaire, utilisée à l'origine par les gamers, les joueurs de jeu vidéo.

Sur Discord, on crée des espaces qui s'appellent des serveurs.

Sur un serveur Discord, on crée des "salons", qui sont des systèmes de tchat, donc de discussion collective par écrit ou par la voix ("salon vocal").

Discord permet d'inviter des "bots" et Midjourney a justement créé un "bot", c'est à dire un robot, qui est en fait une application, un programme, à qui on peut envoyer des commandes.

Pour essayer Midjourney, on doit donc avoir un compte d'utilisateur Discord, puis rejoindre le serveur Midjourney, puis aller dans un des salons "newbies", et commencer à envoyer au bot Midjourney ses instructions.

Comment utiliser Midjourney ?

Les principes de base

Il faut d'abord bien comprendre ce qu'est Midjourney.

Midjourney est un programme d'intelligence artificielle qui génère des images sur la base d'un input de l'utilisateur. Cet input est soit un texte, soit une image, soit les deux.

Techniquement, on appelle ça un "prompt". Et on peut donc "prompter" Midjourney, c'est à dire lui fournir une instruction grâce à laquelle il va générer une image.

Midjourney, comme Dall-E d'Open AI et comme Stable Diffusion et d'autres logiciels similaires, est une forme d'intelligence artificielle basée sur des réseaux neuronaux, avec la technologie des "transformers".

Ces programmes sont "pré-entraînés" par des humains sur d'énormes corpus d'images - ainsi Midjourney a analysé plus de 5 milliards d'images provenant d'Internet, images que des humains avaient décrites à la main : sur une photo de chat en noir et blanc, un humain mettait les mots-clés photo, chat, noir et blanc, etc.

Ceci permet de demander à Midjourney une photo, un chat, ou une photo de chat : Midjourney sait à quel type d'image correspond chaque mot.

A quoi sert Midjourney ?

Les applications de Midjourney sont infinies, on peut l'utiliser pour

Ecrire ses premiers prompts

/imagine prompt

Dans le serveur Discord de Midjourney, sur un des salons "newbies", on peut donc taper ceci :

/imagine

imagine prompt
imagine prompt

/imagine est en fait une commande que le bot de Midjourney reconnait.

Quand on la tape, ça ouvre une sorte de menu déroulant dans lequel apparait le mot "prompt". Cliquez dessus et le mot vient s'écrire dans votre barre de tchat. Cela signifie qu'il est prêt à recevoir votre instruction.

Midjourney imagine prompt
Midjourney imagine prompt

Ensuite, vous pouvez taper votre prompt, sous forme de texte ou d'image ou les deux. Voyons cela en détail.

Les prompts texte

Un prompt texte peut contenir deux types de texte :

  • une description de la chose à représenter, et du style, de la position, des couleurs, etc
  • et des commandes plus techniques, facultatives, permettant de donner à Midjourney des instructions sur divers aspects

Vous pouvez fournir la description en anglais, mais aussi en français. Après avoir un peu expérimenté, je vous recommande d'opérer plutôt en anglais, là où le corpus de correspondances entre mots et images est le plus intense.

La description

Ainsi, vous pouvez taper juste le mot "cat", c'est-à-dire chat, appuyer sur entrée, et Midjourney vous générera 4 photos de chat, au hasard.

Image de chat avec Midjourney v6
Image de chat avec Midjourney v6

Si vous le refaites plusieurs fois, vous obtiendrez d'autres chats, n'importe lesquels, variante en style, en couleur, en type de représentation etc.

Vous pouvez entrer une instruction beaucoup plus précise, par exemple :

imagine prompt chat

face shot of a smiling cat wearing sunglasses and a hat, blue, black, gold, white background

portrait d'un chat souriant portant des lunettes de soleil et un chapeau, bleu, noir, or, fonds blanc

Image de chat avec un prompt sophistiqué sur Midjourney v6
Image de chat avec un prompt sophistiqué sur Midjourney v6

Les commandes de génération d'image /imagine

Ensuite donc, on peut contrôler des paramètres précis :

Aspect ratio

Aspect ratio est le format de votre image. Comme 4/3 ou 16/9è sauf que la syntaxe est la suivante :

  • --ar <nombre>:<nombre>, c'est à dire --ar suivi d'un nombre puis un signe ":" sans espaces avant ni après puis un autre nombre
    • --ar 3:2
    • --ar 1280:1920
    • par défaut le réglage est --ar 1:1, qui génère des images carrées
    • la commande s'écrit aussi --aspect
Version de Midjourney

Midjourney existe en plusieurs versions qui sont comme des générations différentes. Chaque génération améliore globalement la qualité de la création d'images.

Avec la même description, chaque version de Midjourney produira des images très différentes.

  • --v <nombre>, avec un nombre comme 1 ou 2 ou 3, 4, 5 ou. 6
    • --v 6
    • --v 5
    • etc
  • ou --version <nombre>

Vous pouvez tester Midjourney en lui donnant la même instruction avec les 6 versions pour constater les différences de rendu graphique.

Quality / qualité

La qualité permet d'influer sur la qualité du rendu, notion assez subjective.

Augmenter cette valeur utilise plus de puissance de calcul, ce qui fait baisser votre forfait test, ou votre abonnement payant à Midjourney, plus vite.

On la note ainsi :

  • --q puis la valeur souhaitée
  • ou --quality puis le nombre
  • Les valeurs possibles sont  :
    • --q 0.25 : qualité faible, appauvrie, rendu 4 fois plus rapide et moins coûteux en calcul que la valeur par défaut
    • --q 0.5 : qualité faible, 2 fois plus rapide et moins coûteux
    • --q 1 (valeur par défaut) : qualité normale
  • le réglage --fast donne des résultats équivalents aux réglages --q 0.25 et --q 0.5
qualité quality midjourney V6
Exemples de la qualité du rendu en fonction des valeurs sur la partie documentation de Midjourney
Stylize

Cette instruction permet de faire varier le niveau de "stylisation", c'est à dire en gros le niveau de style et de détail, de Midjourney.

On définit la valeur de stylize de 2 manières : soit en indiquant le paramètre à la fin du prompt ; soit en tapant /settings puis Entrée, et en cliquant sur un des boutons Style.

Syntaxe et valeurs pour Midjourney version 6 :

  • --stylize <valeur>
  • ou --s <valeur>
  • Les valeurs possibles sont n'importe quel nombre entre 625 et 6000, avec des seuils :
    • --s 0 : quasi aucun style, moins artistique
    • --s 50 : moins stylé que la valeur par défaut (équivalent au paramètre Style low)
    • --s 100 : la valeur par défaut, qui s'applique si vous n'indiquez aucune valeur de stylisation
    • --s 250 : un réglage élevé qui amènera vos images à s'écarter de la description (équivalent au paramètre Style high)
    • --s 500 : un réglage encore plus élevé
    • --s 750 : le réglage maximum qui donnera une interprétation surprenante de votre description (équivalent au paramètre Style very high)
Test et testp

Note : ces commandes existaient sous les précédentes versions de Midjourney, jusqu'à la version 5. Elles n'existent plus sous la v6.

Les commandes --test et --testp sont des commandes expérimentales qui permettent, pour la première, d'ordonner un rendu graphique de type illustration / dessin et pour la seconde d'ordonner un rendu de type photographique / photoréaliste.

Ci-dessous les fruits à gauche sont générés avec --test et ceux à droite avec --testp.

Pour en savoir plus et voir la différence entre --test et --testp, lisez ce tuto.

Niji / anime et manga japonais

Le mode niji (mot japonais qui signifie arc-en-ciel et designe un style d'illustration) permet de donner à n'importe quelle image un rendu de type manga / anime japonais.

Syntaxe :

  • --niji

Ce mode est donc incompatible avec les modes Midjourney version 1 à 4 et avec les modes HQ, test et testp.

Voici le résultat de l'instruction précédemment utilisée, cette fois en mode niji :

face shot of a smiling cat wearing sunglasses and a hat, blue, black, gold, white background --niji

Chats Niji avec Midjourney 6
Chats Niji avec Midjourney 6

Ce chat est fin prêt pour aller enquêter incognito dans les rues de Tokyo.

Chaos, ou l'originalité statistique d'un modèle d'image

L'instruction

--chaos <valeur>, avec une valeur comprise entre 0 et 100 ou  --c suivi de la valeur désirée.

permet de contrôler le niveau d'originalité des images générées.

Plus la valeur est haute, plus l'image sera originale, atypique, surprenante.

Ce réglage repose probablement sur une sélection statistique d'un sous-ensemble minoritaire des milliards d'images sur lesquelles Midjourney a été entraîné. Ainsi, si on demande un chat, Midjourney fournit des modèles de chats moyens, correspondant à des modèles très répandus : par exemple la photo de chat assis, de face, regardant plus ou moins vers la caméra. Le modèle de chat de dos est déjà plus rare. Et le chat dans une position acrobatique délirante est encore plus rare, mais Midjourney en a probablement des centaines quand même, donc il sait en faire une image moyenne. Pour conclure : en sélectionnant un haut niveau de chaos, vous sélectionnez probablement des sous-ensembles plus rares.

A vous de jouer avec cette valeur aux résultats inattendus !

Si bien sûr vous voulez générer les images les plus standard possibles, voir cliché, mettez le chaos à 0 !

No, le négative prompting ou promptage négatif, pour éliminer un élément

Si vous voulez éliminer un élément d'une image, a priori ou après vous être aperçu que Midjourney générait des images comportant cet élément, vous pouvez lui demander gentiment grâce à l'instruction No :

--no <element>

En fait, cette instruction sert à enlever toute ambiguïté à un terme ambigu, ou à garantir l'absence d'un élément fréquemment associé à un mot que vous utilisez dans votre prompt.

Par exemple, si je donne à Midjourney un prompt contenant le mot "jaguar", que fait-il ? J'ai juste tapé "jaguar" et il génère ceci :

midjourney jaguar e1709116635408

C'est super... si ce que je voulais, c'était bien des jaguars en tant qu'animal.

Mais si je voulais la voiture de marque Jaguar ??

C'est là que la commande --no s'avère utile et pertinente.

Je réécris ma commande :

/imagine prompt: jaguar --no animal

et là il a compris : un jaguar, mais sans animal, ça donne... la voiture :

prompt jaguar no animal

On se dit que c'est super, on va pouvoir enlever tout ce qu'on veut. Mais non.

Par exemple, je vais demander un chat, sans yeux :

cat --no eyes

Et là, lui pas comprendre :

cat no eyes midjourney e1709116673495
cat --no eyes

Malheureusement je dirais, ces 4 chats ont tous des yeux normaux.

Comment comprendre la commande --no alors ? Je pense qu'après un peu d'expérimentation, j'ai fini par comprendre la logique.

La commande --no n'élimine pas un élément tout court, elle élimine l'ambiguïté. Si un élément est profondément associé à un autre, comme les yeux sont associés à environ 100% des images de chats que connait Midjourney, on ne peut pas l'enlever avec --no.

Je n'ai pas vraiment réussi à produire un chat sans yeux. Midjourney n'a pas compris cat --no eyes, ni eyeless cat, ni cat without eyes. Le plus proche du résultat souhaité était eyeless cat without eyes --no eyes, dans le genre redondant... essayez pour voir !

Pour finir, --no s'avère spécialement utile dans plusieurs cas.

--no background : grâce à cette commande, il y aura certes un background, un arrière-plan, mais il sera uniforme, sans objets, sans gradients, facile à détourer et réutiliser.

--no text : si vous mentionnez dans la description un quelconque élément fréquemment associé à du texte, par exemple les mots "logo", "website", "webdesign", "book", "BD" ou "comic", "magazine page", etc, Midjourney va produire du faux texte qu'il sera difficile d'éliminer de l'image. Pour éviter cela, --no text garantit que l'intelligence artificielle génère une image sans texte.

Image weight, poids d'un élément dans l'image

Si on envoie une instruction contenant une image et un texte, Midjourney ne peut pas savoir ce que veut l'utilisateur, précisément. Comment Midjourney doit-il utiliser l'image et le texte ? Quelle influence doit avoir chaque élément fourni sur le rendu final ?

Sans instruction, chaque élément a le même poids par défaut.

D'où le concept de cette commande :

--iw <valeur>, avec une valeur qui peut être négative, par exemple -0.25, ou positive jusqu'à 3 sur la v6 de Midjourney. La valeur par défaut est --iw 1.

Cette commande va donc donner un poids, une proportion d'influence, à l'image par rapport au texte.

Donc mettre --iw -0.25, avec une valeur négative donc, c'est comme ordonner une influence très légère de l'image sur le texte, alors que dire --iw 3, c'est ordonner une énorme influence de l'image, et cette fois c'est l'instruction en mode texte qui n'aura qu'une influence marginale sur le rendu final.

Le double deux-points ::

Si on envoie une instruction contenant une description complexe, qui inclut plusieurs éléments, plusieurs êtres, Midjourney ne peut pas deviner ce qu'imagine l'utilisateur synthographe.

D'où le concept de cette commande, ::, constitué par deux signes "deux-points" qui se succèdent, et qu'on ajoute comme un suffixe après un mot, puis sans espace après les :: on rajoute une valeur, comme cette valeur par défaut :

<texte>::1

Ainsi, si je dis

/imagine prompt: chat et chien

Midjourney va générer des images où un chat et un chien ont une importance visuelle à peu près égale (sauf s'il tombe par hasard sur un modèle d'image, dans sa base de données, où les proportions diffèrent ; en tout cas le rendu sera hasardeux).

Tandis que si je dis

/imagine prompt: chat::2 et chien::1

je suis censé obtenir des images où le chat est plus important visuellement que le chien. Enfin, ça c'est la théorie : en réalité cette commande est difficile à mettre en œuvre et génère des résultats souvent imprévisibles.

Pour en apprendre plus sur la question du poids des textes et des images avec les commandes --iw et ::, lisez ce tuto Midjourney :

[Tuto Midjourney] Image weight, ou comment calibrer le poids des images et des textes dans un prompt

--seed  ou comment faire prendre de la graine à Midjourney

La génération d'image c'est fascinant mais si l'intelligence artificielle nous crée des images toujours différentes avec exactement le même prompt, on ne voit pas bien comment on peut l'utiliser à des fins professionnelles.

Pour régler ce problème, Midjourney offre un paramètre très important. Les amateurs et les praticiens loisir de l'IA s'en moquent, mais les pros auront besoin de maîtriser l'instruction --seed.

--seed

L'instruction

--seed <numéro>

permet d'utiliser la même "graine" ( = seed en anglais), c'est-à-dire le même modèle visuel.

Pour réutiliser une seed, il faut d'abord la connaître ! Pour cela, il y a une manipulation à faire : avec une image dont vous voulez réutiliser la graine, allez, dans le tchat Discord, survolez au niveau de cette image, et vous verrez apparaître à droite une petite interface avec un smiley et 3 autres icones. Cliquez sur le smiley avec le signe +, ça ouvre une grille d'émoticones. Cherchez celle en forme d'enveloppe et cliquez dessus : en fait il s'agit d'une commande qui ordonne au bot de Midjourney de vous envoyer l'image en DM, en message privé.

Vous recevez donc cette image dans une discussion privée avec le bot Midjourney. Et au passage, il vous indique le numéro magique de la seed ! Youpi !

Maintenant, vous pouvez envoyer des prompts avec --seed <numero de la seed>, et au lieu d'aller choper une seed au hasard parmi des millions, Midjourney réutilisera la seed voulue, ce qui vous garantit beaucoup plus de contrôle sur le résultat souhaité ! Maintenant, vous pouvez donc recréer à peu près la même image mais en changeant des éléments : la couleur, le format, un accessoire, un style, etc.

Les commandes de réglages

Midjourney comprend d'autres commandes qui permettent de gérer des paramètres à un niveau plus global :

/help

/help propose de l'aide sur Midjourney et son bot

/info

/info donne de l'info sur votre compte Midjourney, notamment le temps de calcul qu'il reste sur votre compte ; si vous avez un abonnement payant, ça vous permet de savoir où vous en êtes.

/subscribe

/subscribe crée un lien et vous renvoie vers une page où vous pouvez prendre ou gérer votre abonnement

/fast et /relax

/fast et /relax permettent de passer d'un mode à l'autre. Le mode /fast génère les images rapidement mais fait descendre votre crédit de temps de calcul si vous avez un abonnement payant. Tandis que le mode /relax, plus lent, génère des images de manière illimitée.

/show

/show <jobid> permet de renouveler la génération d'une instruction antérieurement donnée.

/private et /public

/private et /public permettent de passer du mode privé au mode public ou inversement. Le mode privé n'est accessible qu'à certains comptes payants. Le mode public signifie que toutes les images générées, même par message privé dans Discord, sont accessibles publiquement (je ne sais pas où exactement).

/prefer

/prefer suffix <text> permet de faire rajouter automatiquement à Midjourney une série d'instructions de type réglage (celles qui commencent par --) à la fin de chaque prompt. C'est donc utile si vous voulez générer des dizaines d'images en changeant uniquement la description texte, en gardant les mêmes paramètres. (Mais /prefer ne marche pas avec les instructions texte simple.)

Par exemple :

/prefer --v 5 --q 2 --stylize 100, rajoutera ces instructions à chacun de vos prompts, et si vous tapez juste "cat", ça générera en fait la commande "cat --v 4 --q 2 --stylize 100"

/prefer option set <name> <value> vous permet de créer des préférences de paramétrage auxquelles vous donnez un nom, ce qui vous permettra ensuite de les utiliser sans avoir à retrouver le détail des paramètres. Par exemple vous pouvez créer :

/prefer option set paysage --v 6 --q 2 --stylize 1000 --ar 3:2 --hd

et ensuite vous n'aurez qu'à rajouter un suffixe --paysage à vos prompts texte, et ça rajoutera les paramètres de ce style personnalisé.

Attention, c'est un peu délicat à utiliser :

  • il faut d'abord taper /prefer
  • le bot réagit en proposant des suites possibles, cliquez sur option set
  • un élément "option" apparait, remplissez-le avec le nom de votre réglage
  • appuyez sur tab
  • ça propose un élément de menu déroulant "value"
  • remplissez-le avec les réglages (--v 5 etc)
  • faites Entrée pour valider
  • et là le bot réagit, si tout va bien, en vous disant que le réglage est enregistré

Pour supprimer un réglage perso, refaites la commande sans instructions :

/prefer option set paysage

/prefer option list, va lister vos réglages personnalisés enregistrés. Vous pouvez en avoir jusqu'à 20.

/prefer auto_dm True va vous envoyer chaque image générée en message privé sur Discord.

/settings

/settings est une autre manière d'aller éditer les préférences, avec une interface graphique faite de boutons cliquables. Votre grand-mère appréciera.

Les prompts image + texte

L'instruction fournie à Midjourney peut comporter l'url d'une image directement suivie par un prompt en mode texte.

Ainsi, le contenu de l'image, son thème et son style graphique, vont influencer les images générées en combinaison avec le contenu des instructions en mode texte.

Vous pouvez essayer avec :

  • un dessin géométrique et une instruction texte
  • une image à forte dominante de couleur et une instruction texte

Par exemple, ici je lui ai donné la première image, qui est un dessin que j'ai fait il y a quelques années (je suis nul en dessin) et une instruction de type "photo de mode, portrait de femme etc".

Cela a produit la deuxième image, où l'on constate que Midjourney s'est servi du style de mon dessin pour représenter la description textuelle. J'ai ensuite agrandi l'une de ses 4 propositions, c'est la 3è image. Bluffant non ?

Les prompts image + image (avec /blend)

Si on donne à Midjourney deux urls publiques d'images, Midjourney va faire des synthèses visuelles, grâce à la commande /blend. Le résultat est souvent très surprenant voire imprévisible, surtout si les images diffèrent beaucoup en thème et en style, par exemple une photo de visage et un dessin d'architecture :

Ou bien un visage (le mien) et un chat (pas le mien) :

Si vous souhaitez en savoir plus sur la fonction Blend et ses incroyables possibilités, un tuto est à votre disposition !

Les prompts image vers texte (avec /describe)

La fonctionnalité /describe de Midjourney 5 permet de donner à Midjourney une image, et il nous renvoie 4 prompts texte permettant selon lui de générer une image similaire. Il nous fournit ainsi du précieux vocabulaire spécialisé.

Prompter Guide

Pour celles et ceux qui préfèrent ne pas avoir à mémoriser tout le vocabulaire technique des prompts, un petit malin a construit cette feuille de calcul avec Google Sheets, téléchargeable sur prompter guide.

Vous pouvez donc copier cette feuille de style dans vos documents Google (ça suppose d'avoir au moins un compte Google ou d'ne créer un) et commencer à l'utiliser.

C'est certes en anglais... mais c'est ensuite très simple : il n'y a qu'à compléter les cases, et Prompter vous écrit l'instruction à fournir à Midjourney.

Je pense qu'à terme Midjourney devrait évoluer vers une interface dans ce style, en mode wysiwyg, parce que l'écriture actuelle en mode code fait un peu geek et va effrayer les newbies (les débutants en informatique, si vous voyez ce que je veux dire !)

Les nouvelles fonctionnalités de la V6

Lorsque vous êtes satisfait de votre prompt et qu'une image parmi celles proposées vous plait, vous allez l'agrandir.

Ce n'est pas forcément la dernière étape, là encore vous allez pouvoir créer des variations !

Afin de vous montrer les différentes possibilités un seul prompt sera utilisé pour toute cette partie : "fried egg like a daisy flower bud in forest --v 6.0"

fried egg like a daisy flower bud in forest --v 6.0
fried egg like a daisy flower bud in forest --v 6.0

La première image me convient. Je pourrais demander des variations de chaque image en cliquant sur V1, V2, V3 ou V4.

Je choisis plutôt de demander un Upscale, c'est à dire un agrandissement, de la première image, je clique donc sur U1.

Maintenant que l'image est agrandie, plusieurs possibilités s'offrent à moi : Upscale, Vary, Vary Region, Zoom Out et Pan.

Fonctionnalités V6 Midjourney
Fonctionnalités V6 Midjourney

Les fonctions Upscale et Vary

Déjà présentes sur les versions précédentes de Midjourney, il s'agit là simplement d'un nouvel agrandissement de l'image (Upscale) avec une variation subtile (subtle) ou créative.

De même la fonction Vary permet une nouvelle variation de votre image soit subtile (subtle), soit très forte (strong).

La fonction Vary Region

Cette option permet de faire varier une partie de l'image tout en gardant le reste intact.

Après avoir cliqué sur l'option "Vary Region" sélectionnez la zone que vous souhaitez modifier puis tapez à la suite de votre prompt ce que vous souhaitez insérer dans l'image (ou n'écrivez rien si vous souhaitez simplement modifier un petit aspect de l'image sans ajouter quoi que ce soit).

 

La fonction Zoom Out

Cette fonction permet de dézoomer votre image c'est à dire d'agrandir le cadre de votre image et d'éloigner son sujet de sorte qu'il ne soit plus au premier plan.

fried egg like a daisy flower bud in forest v 6.0 Zoom Out e1709116920777
fried egg like a daisy flower bud in forest --v 6.0 - Zoom Out

La fonction Pan

Cette fonction permet de décaler l'angle de la prise de vue de l'image, sur la droite, sur la gauche, vers le haut ou vers le bas.

Conclusion

J'espère que ce tuto Midjourney vous aura intéressé et je vous souhaite de passer des heures d'émerveillement avec les capacités infinies de l'IA à générer de l'art !

La génération d'images par intelligence artificielle devient très vite addictive. L'IA donne à voir tout notre imaginaire avec une qualité de rendu impressionnante.

3 réflexions sur “Tutoriel Midjourney V6, le meilleur logiciel de génération d'image par intelligence artificielle (AI)”

  1. Avatar

    Bonjour. Tout d'abord merci pour ce tuto, c'est le premier que je trouve qui me soit compréhensible, et ce n'est pas rien !
    Ceci-dit j'ai testé le prompt avec -sameseed .. et j'ai un retour systématique (malgré les divers essais (avec espace, sans, avec et sans : Unrecognized argument(s) ! Dommage ! J'ai raté quelque chose ?

    1. Synthographie.fr

      Oui, vous avez raté quelque chose, LOL.
      La commande est :
      --sameseed
      avec DEUX tirets et sans espace ni entre les tirets ni avec le mot sameseed.
      Toutes les commandes finales utilisent cette syntaxe :
      --ar (aspect ratio)
      --v3 (version 3, par ex)
      etc

      1. Synthographie.fr

        PS : j'ai fini par trouver pourquoi WordPress transformait tous mes doubles tirets -- en tiret simple "em dash", c'est à cause d'une fonction wptexturize que j'ai dû désactiver.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Ce site cherche des amis. Auteurs / autrices, testeurs / testeuses, critiques, philosophes...

Synthographie.fr

a deux passions :

la génération d'images
par intelligence artificielle

avec des logiciels
comme Midjourney,
Dall-E, Stable Diffusion...

la génération de texte
par les modèles de langage (LLM)

avec des logiciels
comme ChatGPT,
Mistral, LLaMa...

Retour en haut