Déjà, on demande a l'IA de générer 2 choses distincte, c'est compliqué pour lui, en utilisant StableDiffusion (ce qu'utilise mid journey), il a beaucoup de mal de générer des "concepts" avec des attributs indépendants:
"A red circle"
"A green square"
Demandez les 2 en meme temps, et l'IA est perdu:
"A green square and a red circle"
Notez la disparition total du cercle.
Et voici pour:
"A girl with a blue shirt and a green jean."
Du coup, oui l'IA va tomber rapidement dans les biais de ses données d'apprentissage si elle est pas assez intelligente pour comprendre ce qu'on lui demande.
Sauf que Dall-E 3 réussit les prompts que je viens de donner sans soucis.
Et si on lui demande ?
Bein y'a pas de problème:
Edit:
Stable Diffusion a tellement du mal que le médecin va être un enfant assez fréquement (le mot "children" leak sur "doctor")
On peut faire en sorte que Stable Diffusion comprenne mieux en donnant un coup de main en séparant les concepts.
Il existe un outil appellé "Cutoff" qui permet d'aider SD en limitant la portée des mots.
Avec la prompt "A (black doctor) attending (white childrens)"
Et en mettant le "cutoff" sur "black, white", SD respecte (plus souvent) la demande (mais y'a plus d'occurence de médecins sans enfants):
Edit edit: Notez que, pour faire en sorte que l'IA fasse ce qu'on veut, c'est compliqué, j'ai mis des images pour illustrer, c'est partiellement un mensonge: l'image illustre ce que m'a sortit le plus fréquemment l'IA avec mes paramètres, il peut lui arriver de réussir infréquemment l'inverse de ce que j'illustre, ou ne respecte pas du tout ce que j'ai demandé.
Personellement, je pense que si l'étude de base voulait être sérieuse, il aurait fallus qu'il mesure déjà la confusion de base de l'IA, sur des sujets avec peu de biais, puis comparer avec un sujet biaisé.