Écoutez cet article

L’art de l’IA est la tendance la plus en vogue en 2022, et ce grâce à des modèles comme DALL-E et Stable Diffusion. Grâce à eux, vous êtes en mesure de générer des images d’IA étrangement réalistes. La Diffusion Stable 2 a été officiellement publiée, apportant plusieurs améliorations – et apparemment une réduction d’autres aspects.

Les principales améliorations de Diffusion Stable 2 ont été soigneusement résumées par Stability AI, mais en gros, vous pouvez vous attendre à des invites textuelles plus précises et à des images plus réalistes. Les modèles de conversion texte-image sont entraînés avec un nouveau codeur de texte (OpenCLIP) et sont capables de produire des images 512×512 et 768×768.

COMMENT EXÉCUTER STABLE DIFFUSION SUR VOTRE PC POUR GÉNÉRER DES IMAGES AI

Table des matières

Stabilité de l’IA

D’autres modèles se sont également beaucoup améliorés, notamment l’upscaler, qui peut désormais produire des images beaucoup plus précises, et le modèle depth-to-image, qui peut générer de nouvelles images en utilisant à la fois du texte et une image existante. Il existe également un modèle d’inpainting qui permet d’échanger des parties d’une image pour en générer une toute nouvelle.

Cependant, la nouvelle mise à jour présente quelques inconvénients. Des utilisateurs se sont plaints du fait que la nouvelle version de la Diffusion Stable rend plus difficile la génération de contenu NSFW ainsi que d’art qui imite le style d’un artiste réel, ce qui a conduit certains à affirmer que la nouvelle version a été « nerfée ». Étant donné que l’art de l’IA est fortement critiqué pour sa capacité à produire des images fausses à l’apparence réelle, il ne serait pas surprenant que le modèle s’éloigne délibérément de la production d’images qui pourraient causer des problèmes.

Si vous voulez accéder à la nouvelle version de Stable Diffusion 2, assurez-vous d’en savoir plus sur GitHub.