Normalisation et disparités

MCF-HDR en SIC, chercheur associé, Chaire UNESCO ITEN (Innovation, Transmission, Édition Numériques).

La normalisation des Villes Territoires Durables et Intelligents (VTDI) doit être comprise comme un potentiel d’adaptabilité des modalités d’expression numérique d’un territoire saisi dans son infinie diversité de contextes. Un des freins majeurs du déploiement d’une culture numérique harmonieuse tient à ce que son aspect normatif très codifié est souvent mal compris.

En abandonnant l’ASCII et en décidant d’intégrer toutes les cultures d’écriture du monde dans un unique répertoire de codes (Unicode) la normalisation a démontré qu’il était possible de les numériser, les faire communiquer, coexister, s’articuler entres elles, dans leur infinie diversité de culture et d’usages (musiques, logos, émoticon, etc.). L’instance de normalisation qui a codifié tous les caractères typographique est précisément le JTC1-SC2, un des premiers fondé au JTC1. Cet exemple est emblématique de la dynamique d’hyperconvergence des technologies numériques.

A l’instar du déploiement d’Unicode qui a été la première et indispensable pierre des progrès impensables de l’ingénierie linguistique, le progrès des VTDI ne se déploiera pas sans un effort de coopération normative absolu associant en les articulant soigneusement entre elles des cultures territoriales, humaines nécessairement diversifiées et en les enrichissant de toute la complémentarité des potentiels techno numériques et réseautiques actuels. Bien sûr les projets urbains que souhaite pouvoir déployer une cité historique à vocation balnéaire ne sont pas similaires à ceux d’une ville capitale à vocation portuaire, industrielle et financière. Une mégapole tropicale ne peut avoir les mêmes ambitions qu’un village de montagne isolé. A l’instar des langues humaines qui ont toutes su déployer la subtile diversité des cultures de l’homo-sapiens à partir de nos universaux d’articulation phonétiques, symboliques puis scripturaux, il est de la responsabilité de tous de savoir déployer nos visions de destins territoriaux collectifs dans des modalités d’articulation normatives obligatoirement codifiées, normalisées et interopérables. En linguistique, comme en mécanique, mais aussi en informatique et bien sûr en normalisation la notion d’articulation est primordiale. Les phonèmes s’articulent par 2, 3 voire plus pour former des mots, les mots en phrase pour enrichir le potentiel langagier. Dans les langues tonales la hauteur du son enrichira encore le potentiel d’articulation. Le bit s’articule en octet et au delà en lignes de code échappant au binaire strico sensu. Toute norme peut s’articuler dans une infinie diversité d’applications à condition qu’elle se déploie sur des fondamentaux universellement partagés.

La question essentielle est donc de s’entendre sur une structure d’articulation ontologique du catalogue pragmatique de description des universaux des territoires. A partir de ce premier noyau nous pouvons à l’envie l’articuler sur des diversités continentales, géographiques, socio-politiques, démographiques, culturelles mais aussi sur nos options et choix industriels à condition que toutes ces diversités soient en capacité de s’articuler pour pouvoir être inter-compatibles et modulaires. Nous n’avons pas à avoir peur ou prendre comme repoussoir les premières Smart City asiatiques, tout comme les ambitions des GAFAM dans le domaine des VTDI. La peur serait le plus sûr moyen de risquer de devenir dépendant de ces premiers modèles. Nous pouvons être certains que si nous ne nous investissons pas en tant qu’européens dans le développement normatif du cœur ontologique et informatique des VTDI, les priorités de développement ne seront pas forcément celles que nous souhaitons. La vraie question reste alors celle du retour sur investissement des potentiels d’application. La gestion des flux urbains : transports, réseaux d’eaux, d’énergie ou de télécommunication, mais aussi la surveillance constitue une première offre d’applications évidemment rentabilisables. Il est important d’intégrer au niveau de ce premier noyau ce qui pourra articuler des applications culturelles, sociétales, écologiques, non urbaines ; c’est à ce seul prix que nous pourrons préserver les valeurs d’humanisme numérique que nous revendiquons.

Reprenons une dernière fois l’exemplarité du développement d’Unicode et son importance comme déclenchement initial d’une culture numérique hyperconvergente et universelle. Dans la fin des années quarante la Chine maoïste et le Japon, sur l’insistance des USA, subirent toutes les deux de très fortes pressions pour abandonner leurs écritures. Les lettrés ont su résister, les industriels informatiques Japonnais et Taïwanais ont très vite compris que passer d’un octet à 32 bits était un atout fantastique et les grandes multinationales leur ont très vite emboité le pas. Imposer la richesse d’articulation applicative d’une norme est une manière certaine d’élargir le marché industriel, même si celui-ci se développe toujours sur les premières priorités de rentabilité. Le développement normatif des VTDI est désormais devenu notre priorité de survie culturelle.

Contributions
Pour contribuer, connectez-vous ou inscrivez-vous