Google intègre l'intelligence artificielle au cœur de son environnement de développement

Nicolas Furno |

L’IA était le maître mot de la Google I/O diffusée hier soir et l’entreprise compte bien en mettre partout. Y compris dans Android Studio, l’environnement de développement fourni par Google à tous les créateurs d’apps pour les appareils qui reposent sur Android ou les systèmes dérivés, où les développeurs américains uniquement au départ pourront tester Studio Bot. Il s’agit de l’équivalent du CoPilot de GitHub, un assistant construit sur les grands modèles de langage et spécialisé dans la création d’apps.

Une fois activé, le Studio Bot prend place dans une barre latérale de l’app de développement. Vous pourrez alors lui poser des questions sur la création d’une app, aussi générales que de savoir ce qu’est le mode sombre ou précises que de demander un bout de code pour ajouter le mode sombre à son app. Comme GitHub Copilot, tout l’intérêt ici est l’intégration profonde entre l’éditeur de code et l’IA : l’objectif n’est pas de recevoir des réponses génériques, comme avec ChatGPT ou le futur Bard de Google, mais bien d’avoir un assistant spécialisé dans le développement.

Ses réponses dépendront ainsi du code source affiché à côté et Studio Bot pourra l’analyser et ajuster des propositions en fonction du code déjà présent. Comme toutes les IA de ce type, vous pourrez aussi entretenir des discussions suivies, les réponses précédentes pouvant servir de base aux questions suivantes. Le code suggéré par Studio Bot pourra être inséré dans le fichier en cours et à l’inverse, vous pourrez sélectionner des lignes de code et les utiliser comme base pour une question. L’assistant pourra aussi vous fournir un lien vers la documentation d’une fonctionnalité spécifique, ou vous renseigner sur les fonctionnalités d’Android Studio.

Sous le capot, Studio Bot repose sur un nouveau modèle spécialisé baptisé Codey et créé sur la base de PaLM 2, le modèle de langage de grande taille (LLM) maison qui vient justement d’être mis à jour. Il est capable de comprendre et de générer du code en Java, le langage historique d’Android, ainsi qu’en Kotlin, le deuxième langage de développement officiellement pris en charge par Google pour son système mobile. Comme toutes les IA de ce type, les réponses ne sont pas générées en local, tout passe par les serveurs mis en place par l’entreprise. Le code source reste toutefois en local, sauf si vous en utilisez comme base pour une question.

Réservé aux États-Unis, Studio Bot est actuellement considéré comme une expérience, pas même une bêta et Google prévient qu’il pourrait donner de mauvaises informations. Charge au développeur de vérifier ce qu’il propose avant de l’utiliser aveuglément. Ce service est pour l’heure entièrement gratuit, mais la version finale pourrait être payante.

Cette nouveauté devrait en tout cas donner du grain à moudre pour tous ceux qui espèrent le même type de solution de la part d’Apple. Est-ce que la prochaine version majeure de Xcode, l’équivalent d’Android Studio dans l’écosystème pommé, intégrera elle aussi un assistant construit sur un modèle de langage de grande taille ? Si c’est le cas, on aura sûrement des nouvelles lors de la prochaine WWDC. D’ici là, une app tierce permet d’intégrer GitHub Copilot et ChatGPT au cœur de Xcode.

Faute de solution d’Apple, une app intègre GitHub CoPilot et ChatGPT dans Xcode

Faute de solution d’Apple, une app intègre GitHub CoPilot et ChatGPT dans Xcode

avatar Ensearque | 

Dommage que cela ne se cantonne qu’aux solutions Android. Une solution pour Keras et TensorFlow m’aurait beaucoup plu

avatar madaniso | 

ça viendra :)

avatar Ensearque | 

@madaniso

Je n’en suis pas certain. Mis à part Android Studio, Google n’a pas d’autre IDE. Je les voit mal proposer un plugin pour VS Code.

avatar Furious Angel | 

Je sens que ça va rendre la keynote d’Apple bizarre. Parler d’un casque AR alors que l’idée est mise à la poubelle par tout le monde, et probablement aucun mot sur l’intelligence artificielle, ils risquent d’être un peu à coté. À moins que leur casque invente des usages géniaux, mais je reste dubitatif.

avatar Ensearque | 

@Furious Angel

L’un n’empêche pas l’autre.

Apple publie des articles académiques sur des recherches en IA, et pas mal de ses recherches se focalisent sur l’implémentation de ces algos sur des devices.

On est pas à l’abri de voir un casque qui a l’aide d’une IA est capable de faire une segmentation d’image, détection d’objet ou de générer des infos à la vue de l’objet, le tout en limitant les appels serveur.

avatar Mac1978 | 

En tout cas, ça a l’air très utile et pour ceux qui débutent et pour les experts qui visent l’augmentation de leur productivité, ou de leur code.

avatar BeePotato | 

@ Mac1978 :
À l’heure actuelle, ça n’a pas l’air génial pour ceux qui débutent, puisqu’il faut vérifier que le code fourni ne contient pas d’erreurs.

avatar oomu | 

@Mac1978

"Google prévient qu’il pourrait donner de mauvaises informations. Charge au développeur de vérifier ce qu’il propose avant de l’utiliser aveuglément."

avatar kiddsoso | 

On veut çaaaaaaaaaa sur Xcode ! Svp Apple !!!

CONNEXION UTILISATEUR