« Ship first, fix later » : un monde en bêta

Anthony Nelzin-Santos |

Vous avez l'impression d'être un cobaye permanent au service des éditeurs de logiciels et de fabricants de matériel ? Votre intuition est la bonne : vous avez en effet payé pour l'obligation de tester le produit… et le droit de recevoir quelques mises à jour par la suite pour régler ses principaux bogues.



Beta

Des développements plus agiles à l'heure d'internet



Le modèle de la « bêta permanente » est indissociable de l'émergence d'internet, un réseau qui favorise la collaboration en masse, le retour utilisateur immédiat et direct, et la distribution directe de nouvelles itérations. Des mots qui évoquent les méthodes agiles de développement, ou en tout cas les méthodes « itératives-incrémentales-adaptatives », qui émergent justement au début des années 1990.



Il ne fait aucun doute que les développeurs web ou de logiciels libres qui ont les premiers adoptés cette mentalité l'ont fait sans une structure aussi rigide que les méthodes RAD ou Scrum, sans même parler de l'Extreme Programming. Mais force est de constater leur proximité, au moins dans l'esprit, du grand pragmatisme à la bonne réactivité en passant par l'organisation autour des besoins et remarques de l'utilisateur.



Les méthodes agiles sont d'abord et avant tout dédiées au monde de l'entreprise et la gestion des projets d'envergure : il paraît donc normal que des développeurs indépendants ou de petits groupes ne les aient pas adoptées stricto sensu, même si l'on retrouve certains de leurs aspects dans leur façon de travailler.



La constitution de start-ups devenues multinationales de l'internet au tournant du XXIe siècle a néanmoins provoqué un glissement qui provoque parfois la confusion. Voici que de grands groupes fonctionnent comme de petits développeurs et adoptent des méthodes agiles, c'est-à-dire plus souples que les méthodes traditionnelles, sans pour autant être agiles, au sens des méthodes RAD, Scrum, et des autres. Un entre-deux très peu formel et donc débarrassé de nombreuses contraintes entravant des cycles rapides d'innovations constantes.



Un monde en bêta permanente



Inspirée par les cycles de développement très rapides du web et du logiciel libre, et poussée par leur concurrence directe, Google fait partie des premières sociétés à adopter de manière organique le modèle du ship first, fix later. On ne compte plus le nombre de produits de la firme de Mountain View qui ont gardé pendant des années l'étiquette « bêta », à la fois excuse pour les quelques pannes et facilitateur des évolutions très rapides, par petites touches, de ces services.



De manière générale, le web a été un formidable terrain d'expérimentation, d'itérations et d'adaptations constantes — l'utilisation d'outils statistiques (Google Analytics, Mint, les heatmaps, etc.) permettant de toujours affiner les propositions. Facebook a construit son succès sur des évolutions constantes de son site : certaines consistent à décaler un bouton de quelques pixels pour qu'il soit plus facile à cliquer, d'autres renversent totalement l'interface pour favoriser de nouveaux usages.





Cette pratique s'est peu à peu étendue au logiciel, sous la double impulsion de la rencontre du web et du natif via les services et de l'émergence des app stores, qui facilitent les mises à jour. Apple a mis un pied dans la bêta publique avec iWork.com, et ce sont aujourd'hui la plupart de ses produits qui sont concernés. Il n'y avait plus qu'un pas pour que le matériel soit lui aussi soumis à ces cycles, et c'est aujourd'hui indubitablement le cas.



La méthode d'Apple a néanmoins l'avantage de la clarté : la firme de Cupertino a recyclé la stratégie tick-tock d'Intel. Le tick d'Apple, c'est l'incorporation de nouveautés radicales, soit dans un produit existant, soit par le biais d'un nouveau produit — avec les risques de fiabilité et de stabilité que cela comporte. La pression du calendrier oblige à commercialiser des logiciels voire des OS auxquels il manque des fonctions évidentes, compromettant parfois leur cohérence. Le manque de stabilité des processus industriels naissants provoque des taux de déchets élevés, ou des problèmes de fiabilité sur les premières séries.



Le tock, c'est la stabilisation de ces nouveautés. Le retour utilisateur permet de savoir ce qui manquait et ce qui n'est finalement pas nécessaire. Les statistiques d'utilisation permettent d'améliorer certains processus, de renforcer un point chancelant ou de boucher une faille. Le travail sur les chaînes de production permet d'augmenter la cadence et la fiabilité. Le mythe de la « Rev. A » n'est pas uniquement une théorie du complot : il se base sur des faits bien tangibles.



Une nécessité industrielle : s'adapter ou mourir



Pourquoi accepter un OS X Lion moins stable et moins cohérent qu'un OS X Mountain Lion, un MacBook Air 2010 à la charnière plus fragile que le MacBook Air 2011, un iPhone 4 qui capte moins bien qu'un iPhone 4S, un iPad de troisième génération qui est plus chaud que son successeur ne le sera ? C'est tout simplement une nécessité industrielle : à l'heure où tout le monde adopte le ship first, fix later, il faut s'adapter et adopter les mêmes cadences, ou mourir.



Windows Phone est sans conteste un excellent système d'exploitation mobile, mais s'il ne perce pas, c'est aussi parce que Microsoft a adopté un rythme extrêmement lent d'itérations, laissant iOS et Android faire la course en tête. Les systèmes d'Apple et de Google sont peut-être un peu moins cohérents et un peu moins stables, mais ils sont revus de manière très régulière pour corriger leurs faiblesses et ajouter peu à peu des nouveautés.





Nokia et RIM ont aussi été rayés de la carte, non pas parce qu'ils ont été incapables de répondre à Apple, mais parce qu'ils n'ont pas su répondre à Apple vite. Et ensuite se dépêcher de répondre bien. Si la part de marché de Firefox s'érode, c'est aussi parce que Chrome, avec son cycle de développement extrêmement rapide, a donné l'impression d'être largement plus innovant.



Avec son modèle « innovation / stabilisation », Apple a su répondre à cette fuite en avant, tout en la temporisant de manière régulière. Le problème de certaines méthodes agiles est en effet le manque de contrôle qualité, et ce sont les boulons parfois mal serrés qui provoquent cette impression d'être un bêta-testeur permanent. Force est de constater que si le modèle d'Apple n'est pas le moins fiable de tous, il reste encore largement imparfait.



La capacité d'Apple et de ses concurrents à multiplier les itérations tout en garantissant leur stabilité et leur fiabilité sera sans conteste un défi particulièrement ardu à relever. En attendant, le remède sera parfois pire que le mal : au nom de l'ajout de fonctions pour l'utilisateur, on continuera à souvent lui imposer des solutions bancales.


avatar jackWhite92 | 
@sugarwater : personnellement je pense que le monde automobile pratique ces méthodes depuis longtemps (au moins pour les renaults que j'ai eues, les autres marques je ne connais pas ...)
avatar Anthony Nelzin-Santos | 
@gueven : nous sommes d'accord ! C'est pour ça que je dis : « Il ne fait aucun doute que les développeurs web ou de logiciels libres qui ont les premiers adoptés cette mentalité l'ont fait sans une structure aussi rigide que les méthodes… ». Ils ont adopté certains de leurs principes, parfois sans s'en rendre compte, mais sans la structure et le contrôle qualité — et s'en servent même de prétexte !
avatar jeanquisquall | 
Gueven : Tout à fait d'accord. Pour bosser depuis près de 10 en méthode agile, la priorité est la qualité. S'il faut sortir un produit à une date fixe, c'est le périmètre fonctionnel qui sera remis en cause. Les mises à jour régulières et rapides permettent d'étendre ce périmètre sans jamais négliger la qualité. Les betas peuvent aussi faire partie du jeu, mais elles doivent être utilisées pour répondre au mieux aux besoins et non pour se cacher en cas de bugs.
avatar Lio70 | 
@lmouillart "Non dans le monde PC grand public les tarifs des logiciels sont cher voir très cher, bien souvent > 60€/pièce et par machine." 60 EUR ce n'est pas cher. Apple vend ses petites applications a un tarif ridiculement bas pour tuer la concurrence.
avatar Djipsy5 | 
Eh Bah ! C'est la mode! Qui prendrait le risque de travailler un produit fini, puis de trouver un marché déjà pris ! En tout cas ça me dérange po ! Il faut suivre la technologie !
avatar maleole | 
@Steeve J. Ah mais ouiiii..... Je le connais ton client ! C'est Mr scoumoune.. Et il éleve des chat noirs c'est pas ça ?? Lol
avatar Vavache | 
Je ne m'en rends pas trop compte sur informatique, mais alors au niveau des jeux vidéos, on est clairement des cobayes, les jeux sortent non finis du fait de la possibilité d'apporter des patchs, c'est vraiment pénible.
avatar esantirulo | 
L'article, et certaines réactions, passent un peu à côté de la nature même d'un programme d'ordinateur : on parle là de systèmes discrets (par opposition aux systèmes physique "continues" ou "analogiques) et même des applications relativement simples ont un espace d'états gigantesques dont il est en pratique impossible de faire une validation exhaustive avec une couverture à 100%. C'est parfois possible avec certaines contraintes, par exemple pour le code embarqué (ex : systèmes de transports). Mais c'est cher et surtout le contexte d'exécution est parfaitement maîtrisé car le code s'exécute sur un moniteur temps réel. Les jeux vidéos sont le parfait exemple de la difficulté à tester un logiciel : outre la combinatoire lié au gameplay lui-même, il faut supporter différents OS (ex : XP et Seven 32/64 bits, voire OX X) et des configurations hardware très différentes, notamment au niveau GPU. Il est vrai que les développeurs abusent de plus en plus de cette non-possibilité de validation exhaustive et bâclent la partie test. Mais même avec la meilleure volonté, et même en faisant grimper les prix pour plus de tests, il est impossible de faire un logiciel sans bug.
avatar Anthony Nelzin-Santos | 
@esantirulo : au contraire, je suis parfaitement conscient de ces problématiques. Il y a néanmoins une différence de nature entre faire le constat de l'impossibilité de tout contrôler à 100 % et utiliser l'impossibilité de tout contrôler à 100 % pour accélérer les cycles produit de manière artificielle.
avatar Gueven | 
@anthony Je trouve quand même la structure rédactionnelle de cet article assez périlleuse. (Même si tu connais parfaitement les méthodes Agiles, ce que je ne doute pas, je ne vois pas le rapport avec les méthodes Agiles). Faire le lien avec les méthodes Agiles et dire quelles sont partiellement appliquées me gène. Et ensuite faire le lien avec la mode des versions bêta officielles n'a pas de sens (à mon avis). Cela signifie que pour toi les méthodes Agiles sont un alibi ? Permet moi d'en douter. Je pense que les cycles de développement sont certainement plus court qu'au paravant, mais cela n'a absolument aucun rapport avec les méthode Agiles (même si c'est une composante des méthodes Agile. Peut être celle que tout le monde cite en premier). Le seul réel inconvénient des cycles courts de développement est le coût exorbitant des phases de qualification (enfin si on décide de ne pas faire d'impasse). La solution adoptée (dans le monde Agile) pour réduire ce coût est l'utilisation de l'intégration continue. D'ailleurs SCRUM pour ne citer que lui ne parle pas d'intégration continue. Mais SCRUM précise que la qualité est NON NEGOCIABLE. Donc le seul lien qu'on retrouve avec les méthodes Agiles est le cycle de développement raccourcis. C'est bien maigre ... -- C'est globalement le seul article qui me parait "tiré par les cheveux". Les autres sont plaisants à lire et j'apprécie grandement la lecture de ce type d'article sur MacGénération.
avatar C1rc3@0rc | 
Si le systeme est bien decrit, les causes en sont tout de meme sujet a controverse. De mon expérience dans le monde du développement industriel, on est arrivé a cette situation absurde sous la pression du marché (a savoir marketing+actionnaires) et non pas pour le bénéfice de la créativité. Le manque de fiabilité des logiciels actuels est lié à: 1) nécessité de compresser les couts de R&D et de réalisation (programmation) 2) généralisation de plateformes instables et mal adaptées 3) outils de développements imposés inadaptés 4) nécessité de suivre et de s'adapter au marketing et son incapacité a gérer le temps Avant l'industrialisation du logiciel, la démarche était la suivante: a) analyser les besoins du client b) réaliser un outil adapté a ses besoins et ciblé pour s'intégrer dans son environnement de travail Cela nécessitait de long cycles d'interview/proposition de solutions avant d'entamer le cycle de développement. Ce cycle nécessitait alors un travail d'ingénierie de conception/réalisation/vérification bien structuré conduisant alors a des produits de qualité (et généralement certifiés et disposant d'un vrai SAV!) Avec l'approche industrielle l'ingénieur informaticien n'a plus eu de contact avec le client, et c'est le marketing qui lui a donné les directives et les délais. De plus si initialement on comptait le temps de développement en homme/jour pour une partie spécifique et bien définie (donc après analyse), la dictature du marketing à imposés une estimation statistique du temps avant livraison faite avant même le travail de conception... Et finalement, la pression pour réduire les couts a fait que l'on a préféré engager des stagiaires de manière croissante plutôt que des ingénieurs expérimentés. La goutte d'au qui a fait déborder le vase, c'est que le financement a été massivement mis sur le marketing plutôt que sur les ressources de production... L'autre partie du problèmes vient des plateformes et outils imposés. Au début c'était a l'ingénieur de proposer une plateforme et a lui seul de déterminer ses outils de travail. Maintenant c'est le marketing qui détermine la plateforme, massivement du Windows d'ailleurs bien connue pour ses failles et son statut de pre-beta permanent. Et c'est l'éditeur de la plateforme qui impose plus ou moins directement un environnement de développement complet. Essayez aujourd'hui de proposer un développement commercial avec un environnement securitaire tel que ceux d'Ada ou d'Eiffel... Aujourd'hui on doit coder obligatoirement avec des dérivés du C(Objective-C,C#,C++,Java) quels que soient les projets, lui même déjà catastrophique au niveau fiabilité, et donc soit totalement insecures soit d'une complexité telle que seuls des ingénieurs spécialistes peuvent les utiliser efficacement, et comme ces ingénieurs sont très chers, on les engagent pas... Et puis les bulles internet ont encore accru la puissance du marketing et on est arrivé a une situation ou l'on devait proposer de véritables applications sur la plateforme Web! Or le Web n'a jamais été prévu pour ca: il a été prévu pour être une suite de documents structurés (textes + images) statiques et une navigation basée sur des liens hypertextes... Donc on a du "bidouiller" des technologies a la hussardes et dans l'urgence pour satisfaire le marketting: Flash et Javascript! Ce qui fait que le développement Web, qui était a l'origine que de la mise en page structurée (travail d'archiviste de documentaliste et de chercheur ), a du se baser sur des solutions bâtardes, inadaptées, incohérentes et productrices de bug en série. De plus la tache de développement a été de plus en plus confiée a des personnels n'ayant pas de formation d'ingénieur, ni même de documentalistes et ce sont massivement des graphistes qui ont du faire un boulot qui n'a jamais été le leur... Le développement matériel a suivi la même voie. Pour baisser les couts et augmenter la rentabilité on a réduit de plus en plus les procédures de vérification, on a accepté des taux d'erreurs de plus en plus élevés et des taux de fiabilité de plus en plus bas. On est arrivé a une situation ou l'on accepte des mise sur le marché massive de processeurs faisant des erreurs de calcul tellement systématiques que l'on doit adapter spécifiquement les logiciels pour prendre en charge ses erreurs (ce fut un très gros scandale pour Intel, mais c'est aujourd'hui une fatalité acceptée)... Et puis s'est rajouté toujours plus massivement le principe d'obsolescence programmée: une machine doit durer 3 ans au maximum, un logiciel une année au mieux, l'un et l'autre étant interdépendant évidement... Le problème avec ça, c'est que l'on ne produit plus de la qualité industrielle, mais de la médiocrité commercialisable rapidement. Or on va avoir des problèmes de plus en plus souvent, effet boule de neige de masse, jusqu'a arriver a une phase critique ou des pans entiers de systèmes vont s'effondrer en entier. Sur Apple on a déjà quelques exemples, comme les puces NVidia qui grillaient la cartes mère en même temps et après avoir génèré de multiples bug ou encore les batteries qui gonflaient, ce qui ce n'est rien en rapports des catastrophes a venir... Les couts pour les clients et les producteurs vont être colossaux...
avatar Lateralus | 
Un monde en bêta ???? Debian stable. 5 ans de support.
avatar mrik974 | 
@ Gueven : +1 ! Je ne pense pas que SCRUM et les méthodes AGILE aient un rapport avec les beta continues et les produits lancés non finis. Cependant, il est devenu clair que pour exister et subsister dans un monde constamment en évolution, il est nécessaire de ne jamais rater le coche. La seule chose à faire pour remplir cette condition est de sortir les produits plus vite que les autres, au prix, certes, de la qualité et des fonctionnalités, et de les améliorer au fur et à mesure de leur existence. Ainsi, voyons les choses d'un autre angle, un angle un peu nouveau, qui fait effet aux Etats-Unis depuis un peu plus d'un an (chez DropBox, Grockit, etc...), et qui apporte une toute nouvelle vision à l'innovation et à l'entrepreneuriat : le Lean Startup. Les principes du Lean Startup, à la lecture du bouquin d'Eric Ries (le fondateur du mouvement), ne sont qu'une liste de bonnes pratiques évidentes, et adoptées par certaines entreprises depuis plusieurs années. Le Lean Startup, de l'aveu même de son auteur, ne fait que regrouper ces pratiques et les mettre en mouvement ensemble. Parmi ces principes, citons les MVP (Minimum Viable Product), le BML (Build, Measure, Learn), et un type de consommateurs, que l'on appelle Early Adopters. Cela se traduit par : avoir des assomptions ou des certitudes autour d'une idée, bâtir un produit ayant des fonctionnalités minimales afin de valider cette idée (le MVP), mettre à disposition d'un groupe de gens (les Early Adopters) le produit, en "beta" car loin d'être complet, et valider ses assomptions par les réactions des consommateurs. Ainsi, continuer à améliorer le produit, toujours en observant les réactions des consommateurs, et décider ou non de persévérer ou changer de direction (le BML). AMHA, le "monde en beta" dont Anthony parle doit certainement tirer ces racines de ces principes... Plus d'infos sur le Lean Startup ici (en anglais) : http://en.wikipedia.org/wiki/Lean_Startup
avatar Anonyme (non vérifié) | 
@tatouille Commentaire à l'emporte pièce et sans interet qui a le don de m'irriter. Tu crois quoi ? que ce sont les developpeurs lambda qui sont à l'origine de cet état de fait. Faut plutot se tourner vers les décideurs et manageurs qui mettent souvent une pression folle sur les projets pour être sur le marché avant son copain quitte à sortie des softs de merde. Si on retrouvait globalement un mode de fonctionnement raisonnable, une majorité de gens travailleraient bien plus conscienceument et rigoureusement. Les canards boiteux sont à mon avis une minorité. @C1rc3@0rc +10000 Pas mieux. Tu décris là ma vie professionnelle, mes frustrations quotidiennes ... mon envie de changer de domaine.
avatar mrik974 | 
@C1rc3@0rc : Même si ce que tu dis est vrai, et est même devenu un cas d'école dans la plupart des start-up françaises (et je suis moi aussi en plein dedans), je doute sincèrement du fait que ça soit la même chose outre atlantique. Rien qu'à voir la facilité avec laquelle les start-up lèvent des fonds aux Etats-Unis, et le CA qu'ils se font me font penser que ça n'est pas le cas. Je ne parle pas par contre de l'"obsolescence programmée" qui je le trouve aussi est une manoeuvre marketing controversée... Cependant, je pense que les produits en beta sont, pour nous consommateurs, une aubaine (enfin pour ceux qui acceptent cette étiquette), et la promesse de services correspondant exactement à nos "nouveaux besoins vitaux".
avatar C1rc3@0rc | 
[quote=coolthemac 02/08/2012 13:38] @tatouille Commentaire à l'emporte pièce et sans interet qui a le don de m'irriter. Tu crois quoi ? que ce sont les developpeurs lambda qui sont à l'origine de cet état de fait. Faut plutot se tourner vers les décideurs et manageurs qui mettent souvent une pression folle sur les projets pour être sur le marché avant son copain quitte à sortie des softs de merde. Si on retrouvait globalement un mode de fonctionnement raisonnable, une majorité de gens travailleraient bien plus conscienceument et rigoureusement. Les canards boiteux sont à mon avis une minorité. [/quote] J'abonde dans ton sens, d'ailleurs les managers dont tu parles sont parmi les plus mediocres car leur motivation c'est de la reactivité a suivre les autres(meme si c'est pour essayer de les preceder quelques temps). Les bons, dans ce systeme, suivent l'exemple de Bill Gates: ne pas etre le premier mais être le seul, dominer, creer un monopole, le rendre durable par tous les moyens, puis, au fait de la réussite, abandonner ce tremplin a sa deliquescence pour, grace a ses milliards, dicter aux Etats ce qu'ils doivent faire... Dans le rêve d'être maitre du monde c'est une belle réussite. [quote] @C1rc3@0rc Tu décris là ma vie professionnelle, mes frustrations quotidiennes ... mon envie de changer de domaine. [/quote] Je sais ce fut la mienne et celle de pas mal d'amis et collègues aimant pourtant le boulot bien fait et aimant leur travail (si si ca existe encore un peu) :( Mais si tu veux vraiment changer de domaine c'est a condition de sortir de l'industrie, car tous les domaines industriels sont actuellement dans le meme etat voir pire...
avatar Lio70 | 
@C1rc3@0rc Un peu long pour une reaction a une news mais tout a fait correct. ;-)
avatar C1rc3@0rc | 
[quote=mrik974 02/08/2012 13:53] @C1rc3@0rc : Même si ce que tu dis est vrai, et est même devenu un cas d'école dans la plupart des start-up françaises (et je suis moi aussi en plein dedans), je doute sincèrement du fait que ça soit la même chose outre atlantique. Rien qu'à voir la facilité avec laquelle les start-up lèvent des fonds aux Etats-Unis, et le CA qu'ils se font me font penser que ça n'est pas le cas. Je ne parle pas par contre de l'"obsolescence programmée" qui je le trouve aussi est une manoeuvre marketing controversée... Cependant, je pense que les produits en beta sont, pour nous consommateurs, une aubaine (enfin pour ceux qui acceptent cette étiquette), et la promesse de services correspondant exactement à nos "nouveaux besoins vitaux". [/quote] La France et les USA sont différents c'est évident, mais l'obsolescence programmée n'est pas une manoeuvre marketing (le marketing est un moyen d'imposer l'obsolescence programmée), et la situation aux USA est bien pire qu'en France ou ailleurs en Europe. Les USA ont inventé l'obsolescence programmée pour être l'un des moteurs fondamentaux de leur économie et cela remonte a 1929. Lors du "jeudi noir" le système économique américain s'est écroulé dans le gouffre de son endettement colossal! Mais plutôt que de tenter de l'assainir, l'objectif a été inverse: faire croitre l'endettement et pousser dans le surendettement le consommateur, puis le monde occidental par la suite! Ainsi les USA n'ont jamais remboursé leur dette - qui n'a jamais cessé de croitre- et les entreprises américaines ont continué de s'endetter, sans fin, pendant que l'economie US devenait la plus puissante au monde! Ainsi les fondamentaux de cette économie globale sont: la virtualisation de la monnaie (abandon d'un valeur tangible:or, immobilier) et la spéculation sur celles ci. la monétisation de la dette la valorisation spéculative de la valeur des entreprises (cour de l'action) l'obsolescence programmée la globalisation des activités de crédits (on a même inventé des organismes uniquement spécialisés dans la gestion de credit- ou plutôt d'endettement -, le top étant le crédit a la consommation!) ... On est donc passé d'une économie de production a une économie financière virtuelle basant sa croissance sur de l'endettement. Et le summum a été atteint lors de la mise en place de la valorisations spéculatives: - probabilité de faillite des entreprises - risque de banqueroute des Etats (états poussés dans l'endettement toujours plus grands par les organismes financiers anglosaxons)! Dans les deux cas cette probabilité est défini par les tristement célèbres 5 agences de notation anglosaxonnes... Ce qu'il faut voir c'est que derrières les investisseurs aux USA (et dans le monde anglosaxon en general) ils m'y a que des fonds d'investissements (assurance, pensions, banques de credits...) qui sont aujourd'hui les responsables de cette évolution (ou plutôt degeneration) dans l'industrie. Ce sont bel est bien eux qui depuis des années dirigent les entreprises et orientent leurs objectifs voire dénature totalement leurs métiers. Le résultat c'est que plupart des entreprises aujourd'hui n'ont plus que des objectifs purement financiers a tres court terme. Leur seule préoccupation c'est l'atteinte du cour de l'action satisfaisant les actionnaires, quel qu'en soit les moyens (et souvent artificiellement: compression de personnel, multiplication de contrat de stagiaires plutôt qu'engager des pro expérimentés, outsourcing, delocalisation...). Et cela au détriment de leurs production propres. Il serait donc logique que les entreprises licencient leurs personnels et deviennent uniquement des organismes financiers puisque leur produits principaux ne sont que des actions et des dettes (le reste -voitures, aliments, technologies,.. ce sont des productions secondaires! )... C'est d'ailleurs ce que Jobs disait et pourquoi il a fait d'Apple une entreprise indépendante financièrement et sans dette (alors que la norme c'est le surendettement durable et entretenu). Et le pire c'est que ce modèle a bien marché: les banques et fonds (pensions, assurance,...) n'ont jamais connu de croissance aussi forte et sur une aussi longue période, tout ca en poussant le monde a s'endetter... Ce système est même venu a bout de l'empire soviétique (avec l'aide de tchernobyl comme accélérateur final)! Et il est en train de saigner a blanc le projet européen! Le paradoxe, tout de meme, c'est que ce modèle est en train de financer l'instauration du modèle ennemi fondamental: le communisme chinois et son économie dirigée...
avatar C1rc3@0rc | 
[quote Lio70 02/08/2012 17:16] @C1rc3@0rc Un peu long pour une reaction a une news mais tout a fait correct. ;-) [/quote] Oui désolé pour la longeur mais Anthony Nelzin a pondu un article de fond, rempli de concepts intéressants et nécessitant un gros travail, travail face auquel les reactions "c'est mal parce que c'est pas bien" ou "c'est super parce que je trouve ca bien" me semblent inappropriées. Et puis si tu as pris la peine de me lire c'est que finalement ce n'était pas si long que ca ;)
avatar C1rc3@0rc | 
[quote=Lateralus 02/08/2012 12:35] Un monde en bêta ???? Debian stable. 5 ans de support. [/quote] Oui mais la on est pas dans le commercial, on est dans l'opensource: les objectifs sont la qualité, le durable, la rationalité et l'efficacité. Faut pas tout confondre ;)
avatar Gueven | 
@mrik974 Je connaissais le Lean Manufacturing mais pas le Lean Startup. En effet, le concept du Lean StartUp est intéressant. Si j'ai bien compris cette démarche d'amélioration s'applique pour prouver un concept et s'appuyer sur les Early Adopters (qui sont probablement plus sujet à accepter un produit novateur en bêta). L'idée est bonne et merci pour l'info :)

Pages

CONNEXION UTILISATEUR