W3C : les standards du web bientôt pilotés par une « entreprise d’intérêt public à but non lucratif »

Anthony Nelzin-Santos |

Le World Wide Web Consortium, ou W3C, préside aux destinées du web. Tim Berners-Lee avait fondé l’organisme de normalisation comme une « communauté de pairs », accueillie au sein du MIT, mais rapidement partagée avec l’université Keiō au Japon et l’Inria en France. Cette structure croule sous la pression des géants du web : en janvier 2023, le W3C deviendra une « entreprise d’intérêt public à but non lucratif », gouvernée par un conseil d’administration.

Image MacGeneration.

Lorsqu’il quitte le Cern en 1994, où il a conçu le web avec l’aide de Robert Cailliau, Tim Berners-Lee fonde le World Wide Web Consortium. Le MIT accueille le consortium, avec le soutien de la DARPA américaine et de la Commission européenne. La branche européenne est hébergée d’abord à l’Inria, puis à l’ERCIM, tandis que la branche asiatique est confiée à l’université Keiō. Une antenne chinoise ouvre à l’université Beihang en 2013.

Les quatre organismes se partagent les tâches administratives, et emploient la soixantaine de salariés chargés de coordonner les 459 membres qui participent aux travaux du W3C… et les financent. Des groupes se forment pour rédiger des brouillons, formalisés sous la forme de recommandations, qui deviennent des spécifications après avoir été étudiées par le « comité consultatif » du W3C.

Dans les faits, les concepteurs de navigateurs web jouent un rôle central. Apple, Google, Mozilla, et Microsoft fournissent la plupart des « éditeurs » qui coordonnent les travaux sur les spécifications. Le processus de recommandation permet surtout de réconcilier des positions parfois divergentes, et d’affiner les propositions avec le regard des « experts invités », mais le W3C fait souvent figure de chambre d’enregistrement.

Sa nouvelle structure acte la défaite des tenants historiques d’un web centré sur le partage d’informations, et la victoire des partisans d’un web conçu comme une plateforme applicative agnostique. L’abandon de la norme XHTML 2.0 attachée à la sémantique, au profil de la « plateforme » HTML5 proposée par les concepteurs de navigateurs web, puis la publication de la spécification Web DRM, avait sonné le glas du consortium.

« Nous avons besoin d’une structure qui nous permet de répondre plus rapidement aux exigences des nouvelles capacités du web et de nous attaquer aux problèmes urgents du web », explique le W3C. Le conseil d’administration sera élu à la majorité des membres, et devra refléter « les multiples parties prenantes du consortium ». Les institutions de recherche qui accueillent les bureaux du W3C resteront impliquées, et le « groupe d’architecture technique » gardera le dernier mot sur les questions techniques.

Le W3C ne prévoit pas de changer son processus de spécification, qui sera toujours dirigé par le « comité consultatif ». Reste que cette nouvelle structure parachève la prise de contrôle du consortium par les concepteurs de navigateurs web. Google promeut des spécifications permettant de concevoir de véritables applications, tandis qu’Apple pousse les spécifications de sécurité et de confidentialité. Les autres membres se partagent les miettes.

avatar Lucas | 

Outch. Merci pour l’info ! Triste jour pour internet…

avatar pat3 | 

Tristesse 😞 La dernière instance qui arbitrait encore les standards du web avec des objectifs non marchands vient de signer sa capitulation. A moyen terme, censé aussi la mort de Firefox et des alternatives à WebKit et Blink.

avatar Mrleblanc101 | 

@pat3

En quoi devenir un Organisme sans but lucratif est une capitulation ?

avatar pat3 | 

@Mrleblanc101

Un organisme sans but lucratif financé par ceux qui défendent leurs intérêts privés pour un web de plateformes, dont la tendance est déjà de plus en plus privative, c’est le début de l’enterrement de la plus grande bibliothèque du monde, d’un web « documentaire », au bout des liens duquel se trouvait des documents téléchargeables. Un web d’applications, c’est un web à autorisation d’accès - collé le sont les réseaux sociaux.

avatar Mrleblanc101 | 

@pat3

Et tu crois qu'il était financé comment avant ? Le W3C a toujours été financé par ces compagnies. Firefox est lui même une organisms à but non lucratif et ça ne semble pas te choquer.

Tous les projets Open-source majeur sur GitHub son financés par de grandes compagnies.

avatar Derw | 

@Mrleblanc101

« Le W3C a toujours été financé par ces compagnies. »

Certes. Et ces entreprises avait donc un pouvoir d’influence très fort. Mais il y avait des contre-pouvoirs. Après ce changement, le risque est que ces contre-pouvoirs sautent…

« Tous les projets Open-source majeur sur GitHub son financés par de grandes compagnies. »

Et pourquoi ? Par philanthropie ?

avatar pat3 | 

@Mrleblanc101

Financé oui, pas dirigé par.

avatar Mrleblanc101 | 

@pat3

Exactement la même chose qu'ici

avatar pat3 | 

@Mrleblanc101

Ici, sur MacG tu veux dire ? Ben ça n’a rien à voir. Ou alors je n’ai pas compris ce que tu voulais dire (je penche pour cette 2e hypothèse).

avatar kiddsoso | 

@pat3

N’importe quoi !!

Blender est une organisation à but non lucrative financée par les plus gros géants de la tech et pourtant il n’y a aucune influence négative ou quoi que ce soit

avatar Derw | 

@kiddsoso

« et pourtant il n’y a aucune influence négative ou quoi que ce soit »

A moins que tu ne sois un membre de la partie supérieure de l’organigramme qui gère Blender, je dirais que tu n’en sais rien…

Quant au parallèle entre Blender et internet, je dirais qu’il n’est pas très judicieux : les enjeux (et donc les gains pour « ceux qui commandent ») ne sont absolument pas les mêmes…

avatar pat3 | 

@kiddsoso

Oui, parce que Blender est financé par, pas dirigé par. Ce qui se passe pour le W3C, c’est que les financiers deviennent les directeurs.

avatar Dimemas | 

C’est vraiment dingue le pouvoir qu’ont les gafam

avatar Un Type Vrai | 

C'est pas une façon noire de présenter la chose ?

Je ne comprends pas la phrase : "Sa nouvelle structure acte la défaite des tenants historiques d’un web centré sur le partage d’informations, et la victoire des partisans d’un web conçu comme une plateforme applicative agnostique."

En quoi une plateforme agnostique est contraire au partage de l'information ?
https livrera toujours du contenu accessible de tous, non ?

J'ai presque envie de dire que ce qu'il manquerait c'est un app:// dédié aux applications agnostiques ?

On peut avoir une petite explication de texte du coup ?

avatar iPop | 

@Un Type Vrai

« Accessible »

oui, j’ai mis des guillemets. 🤔

avatar Anthony Nelzin-Santos | 
@Un Type Vrai : sans écrire un livre sur le sujet, et je pourrais, disons que le « canal historique » qui voit le web comme un système de partage d’informations essentiellement textuelles a été dépassé par les entreprises de la Silicon Valley qui voient le web comme une plateforme applicative agnostique. La première tendance promeut une séparation stricte du contenu et de la présentation, une grande rigueur sémantique pour décrire les documents statiques au navigateur, et des éléments génériques précisés par le biais d’attributs et de définitions. La deuxième tendance promeut un couplage fort entre le contenu et la présentation, la génération de métadonnées pour décrire les contenus dynamiques aux moteurs de recherche, et des éléments spécifiques décrivant non seulement des contenus mais aussi des comportements. Ou, pour le dire autrement, les premiers veulent que le web soit constitué de sites (essentiellement publics) quand les autres veulent que le web soit constitué d’applications (essentiellement privées). Lorsque le W3C a proposé d’abandonner le langage HTML au profit d’une syntaxe XML plus stricte, au milieu des années 2000, Apple, Mozilla, et Opera ont réagi en formant le WHATWG. Google et Microsoft ont rejoint le groupe, qui a gagné le débat, et qui édite maintenant la spécification HTML sous la forme d’un « document vivant », ou plutôt mort-vivant. Apple, Google, Microsoft, et dans une moindre mesure Mozilla noyautent le W3C, et toutes les évolutions récentes des technologies du web servent à la conception d’applications web. Dans un sens, on a beaucoup gagné, puisque la plupart des applications qui semblent natives sont en fait des applications web, et qu’on est bien loin des sites en noir sur fond gris du début des années 1990. Dans un autre sens, on a beaucoup perdu, puisque l’idéal d’une « communauté de pairs » aux objectifs parfois contradictoires est mort et enterré, et que des pans entiers du web ne sont plus accessibles au bout d’une URL stable.
avatar fornorst | 

@Anthony

Ouch… en tant que développeur web, je suis vraiment en grand désaccord avec toi ! L’abandon du XHTML a par exemple été une excellente nouvelle pour toutes les personnes non expertes qui écrivent du markup : xhtml était beaucoup trop strict et laissait vraiment très peu de place aux débutants ! De ce point de vue html5 a été une immense avancée !

Concernant la sémantique c’est la même chose à énormément fait évoluer les micro formats (en les renommant micro data pour les standardiser) et ça sert aujourd’hui à tout le monde ! N’importe qui peut par exemple crawler des pages web en en sortir des éléments structurés, ce qui n’était pas à la portée des devs « normaux » avant ça ! Je trouve justement que la séparation contenu / contenant va plutôt dans la bonne direction.

Enfin concernant les pages dont l’URL n’est pas stable, c’est justement un grand combat de ces acteurs, notamment pour des questions de SEO et on voit que les frameworks front end qu’ils proposent mettent énormément en avant le routage pour avoir des urls cleans et stables. On est de ce point de vue à des années lumières de ce qui se faisait dans les années 2000 avec des frameworks comme Struts et compagnie qui faisant la part tellement belle aux « sessions » que le côté stateless du web avait disparu et que les applications demandaient d’ailleurs explicitement à ne pas utiliser le bouton « back » du navigateur !

De plus, sous l’impulsion des créateurs de navigateurs, on a fait des bons de géant en termes d’interoperabilite, de protection de la vie privée, de sécurité, de possibilités sur l’UI des sites, …
Personnellement je n’échangerai pour rien au monde le web d’aujourd’hui contre celui d’il y a 20 ans ! Et de qui est beau, c’est que le web d’il y a 20 voire 30 ans marche toujours très bien, pour la plupart des sites en tout cas, sur des navigateurs modernes !

Je ne sais pas si le changement décrit dans cet article est bon ou mauvais ( je ne me suis pas assez document sur le sujet) mais, clairement, cet article (ainsi que le commentaire associé) est à charge et ne me convainc donc absolument pas.

Étrange article… comme si les entreprises privées étaient devenues le mal incarné alors que macg en est d’ailleurs une 🤦‍♂️

avatar Anthony Nelzin-Santos | 

@fortnost : « l’abandon du XHTML a par exemple été une excellente nouvelle » : je n’ai pas écrit le contraire*. Je n’ai pas dit non plus que « les entreprises privées étaient devenues le mal incarné », et cet article n’est absolument pas « à charge », je me suis contenté de refaire la chronique pour expliquer que l’on arrive aujourd’hui à la conclusion logique. Le W3C est à la main de ses membres les plus actifs, qui devraient pouvoir faire avancer les choses plus rapidement, en éloignant définitivement le « canal historique » pour promouvoir la « plateforme web ». Point à la ligne.

(*mais je n’en pense pas moins, ça fait des années que je répète à tue-tête que l’on ne devrait probablement laisser à personne le droit d’écrire directement dans un langage de balisage, que ce langage soit HTML ou Markdown ou LaTeX ou je ne sais quoi. Si nos outils étaient vraiment si perfectionnés que cela, la question de la syntaxe ne se poserait pas. Mais il faut dire que sur ce point, je m’exprime comme un auteur qui développe, ou un développeur qui écrit, ce qui est probablement le pire des mélanges.)

avatar fornorst | 

@Anthony

« Lorsque le W3C a proposé d’abandonner le langage HTML au profit d’une syntaxe XML plus stricte, au milieu des années 2000, Apple, Mozilla, et Opera ont réagi en formant le WHATWG. Google et Microsoft ont rejoint le groupe, qui a gagné le débat, et qui édite maintenant la spécification HTML sous la forme d’un « document vivant », ou plutôt mort-vivant »
-> c’est tout de même ce qui transparaît de ce passage il me semble

Et je ne vois toujours pas en quoi le fait que les membres actifs du w3c aient plus de poids que les membres historiques soit un problème en soi.
C’est très souvent comme ça que fonctionnent ces organismes quand ils ne veulent pas s’essouffler. La fondation Apache le fait avec ses projets, le monde de l’open source fonctionne souvent de la sorte, …

Je te concède que je suis allé trop loin sur ta vision des entreprises privées mais c’est vraiment la critique que je pensais lire dans le fond de l’article. Désolé donc si ma lecture n’était pas la bonne.

On n’a donc pas du tout la même lecture du fond de l’article comme de sa forme et je ne pense pas que nous arrivions à nous convaincre mutuellement :)

avatar Anthony Nelzin-Santos | 

@fornorst : « c’est tout de même ce qui transparaît de ce passage il me semble » : oh non, c’est un constat de fait. Le mécanisme consistant à figer des « clichés » du document maintenu par le WHATWG est un échec patent, et il faut espérer que la plus grande fluidité promise par cette annonce favorise aussi la capacité du W3C à reprendre ce travail qu’il n’a pas réussi à accomplir correctement jusqu’ici. (Ou de tout faire sauter et soit laisser complètement la main au WHATWG, soit complètement incorporer le WHATWG, ce qui revient au même.)

« je ne vois toujours pas en quoi le fait que les membres actifs du w3c aient plus de poids que les membres historiques soit un problème en soi » : là encore, ce n’est pas ce que je dis, je me contente de décrire la situation. J’ai mes réserves quant à la tendance de Google et d’Apple de former un duopole qui privatise les débats, il faudra observer la composition du CA et sa dynamique, mais je n’ai aucune naïveté sur les dynamiques organisationnelles.

avatar pat3 | 

@Anthony

"mais je n’en pense pas moins, ça fait des années que je répète à tue-tête que l’on ne devrait probablement laisser à personne le droit d’écrire directement dans un langage de balisage, que ce langage soit HTML ou Markdown ou LaTeX ou je ne sais quoi."

Alors là je ne te suis pas du tout. Tu pourrais être plus explicite ?

avatar Anthony Nelzin-Santos | 

@pat3 : je ne suis pas convaincu qu’il soit forcément nécessaire, dans tous les contextes, de montrer la syntaxe aux développeurs/rédacteurs. Quand tu écris dans un traitement de texte, tu finis généralement par écrire dans un fichier XML, mais tu ne vois rien d’autre qu’un éditeur WYSIWYG. C’est la même chose avec Markdown ou LaTeX : pourquoi devrait-on absolument voir la syntaxe ? Le rôle de la syntaxe est d’être comprise par la machine, pas nécessairement d’être vue par l’utilisateur. Cela devrait être probablement la même chose pour le langage (X)HTML dans certains cas, et si nos outils avaient un plus grand pouvoir d’abstraction, je ne suis pas certain que le débat sur la syntaxe XHTML aurait eu la même conclusion. Quand je vois les progrès des frameworks de templating, je me dis qu’on progresse doucement. (J’espère juste que la solution définitive ne consistera pas uniquement à générer du code HTML à partir de quelques lignes de JS.)

avatar Nephou | 

@Anthony

Mais ça veut dire que l’émetteur accepte une dématérialisation de son texte ou en tous cas une abstraction de celui-ci en couches sémantiques. Or je ne sais pas si beaucoup de rédacteur — hors ceux travaillant pour un organe de presse qui composent (pun intended) avec des outils de gestion éditoriale qui doit laisser une liberté proche de 0. Titre chapô contenu résumé et baste — quand titre, chapô et résumé ne sont pas réservés à un ou une secrétaire de rédaction d’ailleurs — (et merde je me suis perdu dans mes incises trop longues) — or, commençais-je il y a bien trop longtemps, je ne sais combien de rédacteur accepteraient ce lâcher prise. Il fauterait sans doute commencer par supprimer toutes ces mauvais traitements de texte (word, page, writer, et compagnie) qui donnent de mauvaises habitudes. Exit aussi les indesign et autres logiciels de mise en page qui font trop de choses mal et privilégient les paillettes aux concepts (je cherchais un autre mot mais pas trouvé un qui sonne aussi bien). Je provoque un peu mais il faudrait aussi se poser cette question là. Pour moi le markdown est un pis-aller qui répond à une partie de ces questions mais de manière imparfaite également.

Zut. Je m’étends comme un mauvais whisky et je ferais mieux de rédiger un truc Null-part. Surtout que ça rentre en résonance avec mon travail actuel pour la Coko foundation !

avatar Anthony Nelzin-Santos | 
avatar Nephou | 

Rhaaa il va falloir que je creuse la pile Markdown => HTML (potentiellement via un outil comme eleventy.js pour des choses avancées) => PDF via paged.js que certains commencent à explorer sinon utiliser

avatar pat3 | 

@Anthony

"je ne suis pas convaincu qu’il soit forcément nécessaire, dans tous les contextes, de montrer la syntaxe aux développeurs/rédacteurs."

Mais les contextes dans lesquels il est utile de la montrer sont en augmentation, depuis que l’espace de publication du texte n’est plus nécessairement la page imprimée. Et il me semble aussi que montrer la syntaxe et écrire la syntaxe (du moins la structure textuelle) n’est pas tout à fait la même chose.

Ça reste quand même une question de maîtrise : c’est un peu comme si tu disais qu’on devrait se passer d’orthographe/grammaire puisqu’il y a des correcteurs orthographiques/grammaticaux. On passe de l’aide au palliatif, et chaque usager perd en autonomie.

"Quand tu écris dans un traitement de texte, tu finis généralement par écrire dans un fichier XML, mais tu ne vois rien d’autre qu’un éditeur WYSIWYG."

C’est la raison d’être du WYSIWYG, et c’est la raison pour laquelle il a encore de beaux jours devant lui. Mais les langages de balisage n’auraient pas eu lieu d’être si les traitements de texte avait été si propres, non ?

En tout cas si tu l’écris ce livre, je serais parmi les premiers à le lire.

avatar Derw | 

@fornorst

« comme si les entreprises privées étaient devenues le mal incarné »

Les entreprises privées ne sont ni le mal ni le bien, ce sont… des entreprises… Leurs objectifs sont de l’ordre du financier et du pouvoir. Pas de la morale. Le mal et le bien sont des notions qui ne les intéressent pas. Par conséquent, les motivations qui participeront aux prises de décisions du W3C ne seront probablement pas plus dictées par des notions de morale, de bien, ou de mal, mais par des notions de profit et de pouvoir…

avatar Nephou | 

Arf je refais ici en plus court ce que j’ai commencé à répondre sur mastodon ;)
Oui le noyautage du W3C par les « constructors » est dommageable mais pour avoir vécu l’histoire a l’époque, le « braquage » sur le HTML par Opéra et consorts via le whatwg a soulagé aussi les défenseurs d’un web standard et ouvert qui craignaient un retour en arrière avec ce nouveau standard non rétro compatible.

HTML n’est d’ailleurs pas sans notion sémantique (les éléments section, header, footer, aside, etc. en font partie) et à ma connaissance la séparation structure / forme / interactions est toujours là.

Certes l’aspect living standard n’en fait sans doute pas un point fort pour l’aspect archivage des documents mais tant que le contenu est dans un fichier texte et pas dans un binaire compilé c’est déjà quelque chose.

Après la question intéressent aussi est pourquoi en est-on arrivé là ? Pourquoi il n’y a pas eu plus de financement publics pour garder la main sur un commun ?

avatar Anthony Nelzin-Santos | 
@Nephou : « à ma connaissance la séparation structure / forme / interactions est toujours là » : tu veux vraiment me forcer à écrire un livre :D Cela concerne moins le W3C lui-même que ses membres, mais je m’interroge tout de même sur ces frameworks qui conditionnent (au moins partiellement) l’affichage du contenu au chargement de l’environnement de rendu, parmi d’autres comportements qui brouillent les frontières entre contenu et contenant. (Dont certains sont promus, voire conçus, par les membres les plus éminents du W3C.) Je ne suis pas sûr d’avoir un avis définitif sur le sujet : il est indéniable qu’on a beaucoup progressé en utilisant Vue pour refondre nos sites par exemple, mais je m’inquiète aussi d’une petite perte de compétences de certains développeurs sur des notions comme la cascade à cause de certaines facilitées offertes par le CSS scopé, et on a clairement régressé sur le plan de l’accessibilité. C’est vraiment un moment intéressant, et j’ai assez hâte de voir comment la poutre va continuer à travailler — HTML qui permet de contrôler le comportement du navigateur et de repousser l’usage de JS, ou CSS qui a formidablement évolué ces dernières années, c’est tout de même quelque chose.
avatar Nephou | 

@Anthony

Pour les frameworks je suis d’accord : quand les fichiers html se contentent d’avoir un élément racine et de charger un index.js ou app.js qui injecte le vrai contenu on perd beaucoup en accessibilité. Mais je jette plus la Pierre aux développeurs qu’aux standard

avatar pat3 | 

@Anthony

"tu veux vraiment me forcer à écrire un livre :D"

Moi en tout cas je suis preneur du livre :-)

avatar Nephou | 

Anthony dispose de deux piles de livres : la pile des livres à lire et la pile des livres à écrire : je me demande laquelle est la plus haute.

avatar Anthony Nelzin-Santos | 
@Nephou : je ne suis pas encore résolu à désherber mes brouillons plus ou moins inachevés. La bibliothèque est beaucoup plus facile à gérer.
avatar pat3 | 

@Nephou

"HTML n’est d’ailleurs pas sans notion sémantique (les éléments section, header, footer, aside, etc. en font partie) et à ma connaissance la séparation structure / forme / interactions est toujours là."

Ces éléments sémantiques ne sont arrivés qu’avec le HTML5 si je ne m’abuse, soit après la prise de pouvoir du whatwg.

avatar pat3 | 

@Nephou

"Certes l’aspect living standard n’en fait sans doute pas un point fort pour l’aspect archivage des documents"

Et du web dans son entier. Déjà le web de base de données rendait les contenus plus ou moins accessibles et compliquait l’archivage, mais là il n’y aura bientôt plus rien dans le navigateur en hors ligne (je catastrophisme un peu, mais je suis quand même très inquiets).

avatar oomu | 

Je continue de regretter la vision de XHTML

Le web aurait du être d'avantage consacré au partage de documents hypertextes que d'être une plateforme applicative de services centralisés et vaguement standardisés où rien ne reste pérenne bien longtemps tellement les navigateurs sont des chantiers constants et les formats poussés par les entreprises.

La rigueur stricte de XHTML me paraissait plus utile qu'un web informe de services rest.

web -> documents hypertexte

applicatifs et services -> autre outil/protocoles spécifiques.
On aurait eu des urls tels que twitter:// app:// etc. et que chaque chose soit strictement séparé et qu'ainsi on filtre aisément les "applications" d'internet sans couper l'accès à des documents académiques de toutes sources.

Le web sémantique intégrait dans la conception même des pages une riche information pour faciliter le travail de robots, d'aide à la lecture, standardiser la navigation dans les documents, etc. Un projet que je considérais enthousiasmant.

Enfin... si on a pour vision que de troller sur twitter, ou être un influenceur de réseau (as)social, effectivement un web centralisé et applicatif à coup de javascript sur chrome est bien suffisant et fait le travail.

Disney n'a jamais eu besoin de web sémantique, il avait besoin d'un DRM obligatoire.

Actuellement on ne peut plus, sérieusement, couper Javascript sans perdre l'accès à nombre de documents simplement hypertextes : document et applicatif et authentification sont mélangés et on en perd le contrôle

On est à la merci de Plateformes où pour juste lire faut que notre navigateur exécute du CODE venu d'internet ! (javascript et autres tentatives de code natif exécutés par le navigateur).

-
Et même mon commentaire ici est problématique.
Stocké , on ne sait sous quelle forme non exportable, dans une obscure base de donnée, probablement SQL, de macG

zéro interopérabilité, zéro partage entre sites d'éditeurs différents.

Le web n'a pas de "google takeout" standard et universel. Parce qu'il est ni standard ni universel !

Le combat n'est plus au niveau de HTML ou CSS. Il est au dessus: les "sites applications" à la facebook, reddit, réservation ratp, netflix, etc.

Le Web 2.0 est un truc jamais né, toujours agonisant, qui marche suffisamment pour pester dans des forums oranges.

avatar Anthony Nelzin-Santos | 
@oomu : « sous quelle forme non exportable » : juste pour embêter @Nephou, c’est parfaitement exportable, sous la forme d’un fichier… XML ! (Bon d’accord, en vrai, on privilégie la sortie JSON. Mais.)
avatar Nephou | 

@oomu @anthony

Ne me lancez pas sur l’inter operabilité et les structures des bases de données : je fais encore des cauchemars des BDD de mon ex système d’information hospitalier, de WORLDs oracle, de dblink, d’EAI (Enterprise Application Integration) qui essaient de faire communiquer tout ce petit monde, d’HL7,v2, v3 XML, de HPRIM… avec l’obligation de creuser à la frontale via Oracle SQL Developer (soit dit en passant une application java parmi les plus réactives et les mieux foutues que j’ai croisé), puis de faire des choses avec QlikView pour faire de l’analyse et de la recherche d’erreur voir de la transformation 😰

avatar v1nce29 | 

Avec un peu de boulot (pas forcément beaucoup) ton service rest peut te cracher du xml plutôt que du json.
Si tu veux être sympa, tu peux linker une xsl.
Et encore plus sympa ? Tu peux générer du html (en appliquant le xsl côté serveur)

Bon après ça équivaut à fournir ta propriété intellectuelle (ou alors il faut brider adroitement). Faut savoir ce qu'on veut.

avatar Derw | 

@oomu

En fait, pour moi, le problème est apparu avec la concomitance de 2 facteurs contradictoires :
1. Les consommateurs de contenu ont acquis l’habitude que celui-ci soit gratuit.
2 Les producteurs de contenus (enfin, un grand nombre) on eut besoin que celui-ci leur rapporte de l’argent.

De ces 2 contradictions est né un modèle économique basé sur la publicité et la collecte (vol ?) d’informations personnelles et toutes leurs conséquences…

avatar Ali Baba | 

Les commentaires ici sont de grande qualité et extrêmement instructifs. Merci à ceux qui ont participé à cette discussion. Cest le genre de commentaires qu’on aime lire.

Ça change de certains autres articles à 400 commentaires inutiles.

avatar koko256 | 

Bonne nouvelle. La W3C manque de staff et de compétences dans beaucoup de domaines et notamment la crypto. L'abandon de en est un exemple. atob et btoa qui ne travaillent pas sur les ArrayBuffer mais sur les String un autre.
Et sur XML, il faut l'abandonner parce que c'est une usine à gaz qui n'a pas répondu aux attentes : les XML schema trop lourds, le XSLT que quasi personne ne comprend. Avec l'abandon de XML aucun intérêt de maintenir XHTML vu que l'on n'utilise plus les parser générique du XML (pour un parser spécifique ou c'est la même difficulté à interpréter).

avatar v1nce29 | 

J'espère que l'inventeur des namespace XML mourra dans d'atroces souffrances.
Xslt le problème c'est qu'il faut la version 2 pour faire un truc un peu avancé et que la v2 n'est pas supportée par MS.

CONNEXION UTILISATEUR