macOS 13.1 et iOS 16.2 optimisés pour les générations d'images de Stable Diffusion

Mickaël Bazoge |

Les prochaines versions des systèmes d'exploitation d'Apple seront capables de générer des images Stable Diffusion plus rapidement. La quatrième bêta de macOS 13.1, iOS 16.2 et iPadOS 16.2 apportent en effet des optimisations qui permettent au modèle d'apprentissage automatique de fonctionner plus efficacement, en s'appuyant sur le Neural Engine et le circuit graphique des puces Apple Silicon.

Quelques images gérées par Stable Diffusion avec Core ML sur du matériel Apple Silicon.

Le blog de l'équipe Machine Learning d'Apple a annoncé la bonne nouvelle. Il explique qu'un MacBook Air M2 doté de 8 Go de mémoire peut générer 50 itérations d'une image en 18 secondes avec le modèle v2 de Stable Diffusion. Le constructeur a partagé du code sur GitHub pour tirer le meilleur profit de Core ML pour Stable Diffusion sur ses puces maison.

Lancé en août, Stable Diffusion permet de générer des images à partir d'une description textuelle, à l'image de Dall-E par exemple. On peut tester le modèle directement sur le web ou avec l'app Diffusion Bee.

Diffusion Bee permet de générer des images localement avec Stable Diffusion

Accédez aux commentaires de l'article