macOS 13.1 et iOS 16.2 optimisés pour les générations d'images de Stable Diffusion
Les prochaines versions des systèmes d'exploitation d'Apple seront capables de générer des images Stable Diffusion plus rapidement. La quatrième bêta de macOS 13.1, iOS 16.2 et iPadOS 16.2 apportent en effet des optimisations qui permettent au modèle d'apprentissage automatique de fonctionner plus efficacement, en s'appuyant sur le Neural Engine et le circuit graphique des puces Apple Silicon.
Le blog de l'équipe Machine Learning d'Apple a annoncé la bonne nouvelle. Il explique qu'un MacBook Air M2 doté de 8 Go de mémoire peut générer 50 itérations d'une image en 18 secondes avec le modèle v2 de Stable Diffusion. Le constructeur a partagé du code sur GitHub pour tirer le meilleur profit de Core ML pour Stable Diffusion sur ses puces maison.
Lancé en août, Stable Diffusion permet de générer des images à partir d'une description textuelle, à l'image de Dall-E par exemple. On peut tester le modèle directement sur le web ou avec l'app Diffusion Bee.
Diffusion Bee permet de générer des images localement avec Stable Diffusion
Je n’aime vraiment pas les images que génère l’AI.
C'est les images ou leur génération que tu n'aimes pas ?
@geooooooooffrey
C’est souvent très bancal quand même.
@roccoyop
c’est extrêmement utile quand on cherche l’inspiration en design
on donne les mots clefs
il sort 20/30 imgs
et la on commence à gratter le papier
pratique et pas récent, un designer bg chez ubisoft nous montrait comment il fonctionnait pareil avec un generateur de lignes aléatoires sur lesquelles il imaginait les contours de ses bg, c’était en 2010
@geooooooooffrey
Je n’aime pas les univers générées. Je serais pas être plus explicite.
Ca reste 100x fois mieux que :
l'art moderne ;
le fan art (pokemon, petit poney...)
le memphis corporate ;
le graph ;
...
@v1nce29
ne critiquez jamais les pokemons devant moi !!! 😡
@v1nce29
C’est bien, c’est très objectif comme commentaire
Merci. J'aurai pu citer d'autres cancers de la création contemporaine mais j'ai préféré m'arrêter aux principaux.
C'est vrai que les images générées par stable diffusion font un peu mauvais collage. Mais celles de midjourney sont bluffantes.
Et on fait quoi de ces images ensuite ?
@sailor29
Ça peut être utilisé ensuite sur Photoshop pour du montage pour créer des éléments de base ou agrandir une image en imaginant ce qu’il pourrait y avoir sur les côtés. Ou un exemple concret que j’ai vu passer c’est la création de textures 3D pour Blender.
Et pour monsieur tout le monde il y a plein d’app qui s’appuient sur cette IA par exemple pour créer des photos de profil sympa.
@nifex
Ok merci !
@sailor29
korben s'en sert maintenant pour générer des images d'illustrations de ses articles, je crois qu'il utilise :
https://twitter.com/Korben/status/1598228659114246146
il a fait quelques articles :
https://korben.info/stable-diffusion-python-script.html
https://korben.info/corriger-visage-midjourney.html
https://korben.info/phraser-generer-prompts.html
https://korben.info/outpainting-infini-stable-diffusion.html
celui-ci pour les plus mégalo :) ? https://korben.info/devenez-grec-romain-viking-punk-et-voyagez-a-travers-lespace-et-le-temps.html
@bunam
Horrible
@sailor29
Certains s’en servent pour générer des images d’illustration (au lieu d’utiliser des banques d’images) ou pour constituer des séries d’image pour des jeux (deck de cartes, fiches personnage, etc.).
Le dernier cavalier de l'apocalypse les textes se confirme l'ia semble jouer ce rôle
Avec un minimum de niveau en dessin et Photoshop(disons au delà du bonhomme-bâton) ça permet de s’affranchir des photostock à 50€+ par image.
Au lieu du travail de recherche de la bonne image avec la lumière qui va dans le bon sens etc pour compositing et images pour mes créations de sites internet.
Après ceux qui croient que l’image générée est à utiliser brute n’ont rien compris ou bien ne sont pas ceux qui font de l’argent avec.
Oui c’est parfois chaotique mais avec le bon workflow c’est un outil génial !
Parfois faut même dégrader l’image générée pour avoir un meilleur résultats : floutez un visage cabossé par IA, corrigez les défauts à travers le flou, moulinez ça par Remini , et voilà ! Le reste de mes secrets je les gardes.
Sinon les models des « flûtistes +18 » sont intéressants pour faire de la prévention sur les dangers des photos publiques sur les réseaux sociaux.
Pardon, je suis juste un peu frustré par les commentaires
@CestMickael
+1
les artistes qui doivent pondre des designs innovants voient parfaitement une nouvelle source d’inspiration sui servira de base pour la suite
Ok c’est bien , c’est une jolie démonstration mais quelle perte pour l’Homme. On ne saurait plus avoir d’imagination nous même. On va de ce fait minimiser le talent des créateurs.
Bon c’est que mon avis, mais je ne suis pas emballé par la direction prise.
@Seb42
Pourquoi un nouvel outil devrait représenter une perte ¿
Avec la découverte du métal on a eu des marteaux et burins qui ont permis aux sculpteurs de créer des œuvres encore plus importantes.
Un artiste remouline ses créations par IA
l'artiste produit une oeuvre.
Une IA décrit l'oeuvre.
Une seconde IA génère une oeuvre à partir de la description.
https://creapills.com/photographies-midjourney-antti-karppinen-20221201