Play all audios:
Depuis ses débuts officiels en 1983, Internet a beaucoup évolué et évoluera encore. Mutations technologiques, évolution de la consommation de contenus, fractures sociologiques et
générationnelles : tour d’horizon de ce qui conditionne l’avenir du réseau mondial. Christophe Martin-de Montagu Publié le 12 avril 2016 L’évolution rapide des pratiques numériques a
entraîné une mutation des usages qui transforment le consommateur de médias en être connecté, en mouvement dans une réalité augmentée qui bien souvent, le dépasse ! Les formats de diffusion
et le débit proposés par le réseau sont interdépendants, y compris dans une concentration exponentielle des médias autour d’Internet. Les perspectives technologiques correspondant à ces
enjeux modifient déjà le statut du consommateur de contenus et sa place dans un avenir connecté ou pas. UNE RÉELLE SENSIBILITÉ AUX FORMATS IMAGE ET SON HAUTE DÉFINITION ? > Les sirènes du
marketing nous assènent des concepts aux antipodes > des besoins réels La question peut être ainsi posée : sommes-nous devenus plus sensibles ou, dit autrement, nos sens sont-ils en
évolution face à une escalade de nouveaux formats HD et Ultra HD, ou bien sommes-nous simplement sensibles aux sirènes du marketing qui nous assènent de nouveaux concepts parfois aux
antipodes des besoins réels ? Un paradoxe s’installe, né de l’hypertrophie de l’écran de télévision d’un côté, et de l’individualisation du réflexe télévisuel de l’autre. Le téléviseur n’est
plus le centre du foyer et le moment de réunion familiale autour d’un programme tend à disparaitre, car le mode de consommation qui vise l’écran-spectateur est pluriel et par principe
individuel. Compte tenu de ce constat et des supports qui accompagnent le consommateur dans son quotidien « médias », on peut se poser la question de la pertinence d’une augmentation à
marche forcée de la qualité de diffusion. Question qui pourrait passer pour une simple provocation si ce n’est que les outils à notre disposition pour visualiser des programmes ne font pas
preuve d’une grande homogénéité, ce serait plutôt l’inverse. Si dans les domaines de l’image animée en général et de la vidéo en particulier, le passage de l’analogique au numérique a été
globalement vécu comme une évolution positive, tout comme est en train de le devenir celui de la SD à la HD de façon généralisée, il n’en va pas de même pour l’audio. En effet, dans ce
domaine, c’est le chemin en sens inverse qui a été parcouru depuis le son analogique du vinyle et de la K7, remplacés par le CD (jusque-là tout allait à peu près bien) puis le MP3 est passé
par là… Toujours considéré comme le parent pauvre de l’audiovisuel, le son devrait pourtant progresser dans sa qualité de diffusion. En effet notre cerveau perçoit assez mal les grands
écarts qualitatifs entre image et son simultanés. C’est encore plus flagrant avec les écoutes au casque. Les nouveaux supports de diffusion individuels que sont les ordinateurs portables,
les tablettes et autres smartphones ont massivement recours à l’écoute au casque stéréophonique. Si notre cerveau est conditionné en partie par une société d’images (qu’il priorise donc), le
son joue un rôle totalement complémentaire si il est associé à ces images et il faudra compenser en permanence une moindre qualité du son. Ces deux domaines doivent par conséquent, évoluer
de concert, dans le respect des normes en vigueur. À charge ensuite aux diffuseurs de s’adapter, et aux fabricants de permettre au son d’être restitué correctement. Par ailleurs, le
transfert amorcé mais pas encore totalement admis, de l’ensemble des médias audiovisuels vers Internet, risque de redéfinir en profondeur lesdits formats. Si nous prenons simplement
l’exemple de l’écran de l’ordinateur, avant que celui-ci n’adopte un format généraliste en 4K et à un coût identique à celui d’un écran actuel et que sa connexion autorise un débit suffisant
pour un affichage à cette qualité, il y a un cap non encore franchi et qui pourrait aller à contre-courant des réflexes utilisateurs, qui dépensent moins pour ce type de terminal, la mise
de départ étant répartie entre ordinateur portable ou de bureau, smartphone, tablette, multiplié par le nombre de personnes présentes dans un foyer. HAUT DÉBIT, 5G… POURQUOI ? > La toile
va-t-elle réussir à gérer des milliards de connexions ? La question n’est pas tant de savoir si Internet va supporter des hautes définitions audiovisuelles mais si la toile mondiale va
réussir à gérer des milliards de connexions simultanées, même en qualité réduite. C’est aussi sans compter avec tout ce qui sera connecté dans les années à venir, car au-delà des outils
informatiques sous toutes les formes, il y aura aussi les objets connectés. On estime qu’à l’horizon 2020, plus de 25 milliards d’objets transiteront par Internet. Les enjeux de la future 5G
seraient, en théorie, à la hauteur de ce défi. En ce qui concerne l’Europe (cadre 5G PPP), celle-ci s’est dotée d’un programme de projets (FP7) qui devraient rentrer en exploitation à
l’horizon 2020. Chaque continent industrialisé ou en voie de développement, s’est doté d’un projet de cadrage de la 5G. Pour autant, le réseau fibré n’est pas en reste bien que l’on constate
de nombreuses disparités dans l’Hexagone. On distingue plusieurs modes de distribution du signal à ce stade : FTTH, qui est une solution P2P (Point to Point), garantissant en principe 1Gbps
pour l’utilisateur final. Cette solution coûteuse semble plus correspondre à un argument marketing qu’à un réel besoin et on imagine sans peine qu’elle ne peut concerner que certaines zones
sur le terrain. La technologie GPON est la plus répandue dans le monde d’après les études de l’Idate. Celle-ci permet de passer par un séparateur (Splitter) qui éclate le flux entre
plusieurs utilisateurs. Aujourd’hui, la subdivision couramment utilisée est de 1 pour 32 ou encore 1 pour 64. Le principe, dans ce cas, est d’alimenter le réseau, en amont, avec suffisamment
de puissance pour que chaque connexion finale puisse prétendre au fameux Gbps ! En ce qui concerne les câblo-opérateurs, il semble que la technologie de câblage hybride (fibre/coaxial) liée
à la norme DOCSIS 3.1 lève en partie certaines contraintes relevées notamment au principe même du déploiement initial de réseaux fibrés. Cette évolution de la norme autorise l’agrégation de
canaux et s’appuie sur l’OFDM (Orthogonal Frequency division Multiplexing). QUELLE EST LA PLACE D’INTERNET DANS LA MUTATION DE LA CONSOMMATION AUDIOVISUELLE ? Si nous avons souvent le
réflexe de considérer nos abonnements Triple Play en regard du bouquet télévisuel, il est pourtant déterminant de se pencher sur la partie consacrée à Internet. En effet, ce vecteur risque,
dans la décennie à venir, d’être largement majoritaire en regard de nos modes de consommation en pleine révolution. Suivre les programmes audiovisuels sur l’ordinateur est un nouveau réflexe
générationnel. 36 % de la population scolaires et étudiants affirment suivre prioritairement les programmes via Internet. Cette proportion grimpe à 47 % si l’on se concentre sur la tranche
d’âge des 18-24 ans. Ces pourcentages sont à comparer aux 22 % (soit 1 personne sur 5) qui s’adonnent à ce mode de visualisation des programmes. Il n’empêche que les mêmes jeunes répondent à
98 % regarder aussi la télévision « classique ». Ce qu’il faut en déduire est que l’un n’empêche pas l’autre et qu’il s’agit de nouveaux modes de consommation. En nous appuyant sur une
étude du CRÉDOC, il y a bien une mise en perspective de cette évolution des modes de consommations concentrées sur la nouvelle génération. Ces 12 ans et plus représentent par ailleurs les
consommateurs de demain, avec pouvoir d’achat à la clé. Il est donc logique de la part de l’industrie de se pencher sur ces vecteurs de consommation en devenir. Que ce soit le principe de la
TV connectée (HBB-TV), qui propose une interactivité avec l’usager face à son écran de télévision (peut on encore appeler cet outil un téléviseur ?) ou celui d’une VoD aussi accessible
depuis le web, il semble bien que la tendance soit au contournement des fournisseurs d’accès classiques. De plus en plus de producteurs de contenus ont le besoin impératif d’être au contact
de leur « client-téléspectateur » sans qu’aucun intermédiaire ne vienne interférer. On s’acheminerait alors vers une solution de l’offre segmentée (jusqu’au service Premium par exemple), qui
représente un des deux grands scénarios envisageables par les opérateurs. L’autre est celui du principe Smart Pipe ou les opérateurs réseaux valorisent la qualité de l’acheminement des
données en se concentrant donc sur la partie réseau (plutôt que contenus). Pour Internet, on constate aujourd’hui une généralisation de la lecture audiovisuelle. Si celle-ci se concentrait
jusqu’alors sur des « chaînes » clairement identifiées ( YouTube en premier lieu), les médias audiovisuels ont envahi depuis l’espace de notre réseau social et il n’est pas une page Facebook
ou autre page web, personnelle ou pas, qui ne propose du contenu audiovisuel. Ces contenus embarqués donnent au passage un sacré coup de vieux aux sites qui n’en proposent pas. De nouveaux
protocoles deviennent alors des sortes de références du moment comme le MPEG DASH par exemple. Bien que chaque diffuseur/constructeur qui s’empare de ce protocole l’adapte selon ses besoin
(HLS pour Apple par exemple) , le postulat de base reste inchangé : adapté le flux au terminal de l’utilisateur, dans une logique de continuité de programme. QUELLES PERSPECTIVES
TECHNOLOGIQUES ? On peut raisonnablement considérer dans les domaines de gestion de flux audiovisuels que l’industrie et les instances décisionnaires (instances européenne, agences
nationales etc.) ont entre 5 et 10 ans d’avance sur les technologies en vigueur. Cela va des programmes de recherches exploratoires aux mises en place de normes à venir. La gestion de
programmes ambitieux de déploiement (comme pour la fibre) nécessite beaucoup d’anticipation mais aussi de projets futuristes qui demandent une prospective rigoureuse très en amont de nos
usages futurs. Les prochaines étapes vont équilibrer les modes de diffusion en priorisant les usages dit « managés » c’est à dire sous contrôle des opérateurs audiovisuels. Les set top box
risquent fort de disparaître au profit d’une connexion directe sur un terminal et la réalité virtuelle va entrer progressivement dans les mœurs. En cela, le réflexe individualiste de
consommation va se renforcer via l’immersion du spectateur-acteur audiovisuel. En cela, paradoxalement, nous rejoignons le principe de la TV connectée qui risque de ne représenter qu’une
étape intermédiaire dans cette mutation. On croit souvent, à tort, que c’est la technologie qui freine l’innovation, qu’il faut attendre que certains verrous soient levés pour pouvoir
avancer (ce qui reste vrai pour certains domaines scientifiques). Un regard plus précis sur les domaines touchant à Internet met en évidence que ces technologies sont déjà là et que si elles
sont bridées, cela ne tient qu’à la volonté des pouvoirs publics et de l’industrie de distiller ces étapes pour une consommation progressive on ne peut plus contrôlée. NOTRE AVENIR
SERA-T-IL CONNECTÉ OU NE SERA-T-IL PAS ? À l’évidence, le futur d’une partie de l’humanité sera connecté. Cela ne sera pas une réalité sur l’ensemble des continents et le clivage n’en sera
que plus flagrant entre populations pauvres et « déconnectées » et populations dites riches et hautement « connectées ». Malgré l’émergence d’une utilisation généralisée des smartphones dans
les pays en voie de développement, la capacité des réseaux ne permet pas un plein accès aux ressources internet. Pour être un Homo erectus connecté, il faut vivre dans un pays industrialisé
qui bénéficie d’une infrastructure réseau apte à supporter ces flux toujours plus important. > Pour être un Homo erectus connecté, il faut vivre dans un pays > industrialisé En dehors
du réseau terrestre, il existe bien sûr les satellites qui représentent une part non négligeable de la diffusion, mais là encore, les pays concernés doivent avoir, soit une indépendance de
gestion de ce réseau satellitaire, soit les moyens de louer ces infrastructures à d’autres. Dans un autre registre le projet européen de positionnement Galileo a vu le jour pour éviter
d’être en dépendance du réseau GPS américain. Il existe aussi le réseau GLONASS russe et Beidou chinois. La réalité virtuelle passant par-là, nous risquons d’avoir plusieurs lectures de
notre environnement proche ou lointain. Réalité de survie d’un côté, réalité tangible d’un quotidien saturé d’informations d’un autre, augmenté d’une réalité virtuelle sans doute vécue comme
une sorte de fuite consciente ou pas. Le problème est qu’un monde ultra connecté risque d’avoir du mal à dialoguer avec un monde qui ne le serait pas. Le réflexe générationnel dont nous
parlions plus haut génère déjà une forme d’incompréhension entre individus d’un même environnement sociétal, familial. La question se posant à l’échelle mondiale et dans un contexte sociétal
hétérogène, on imagine sans peine les incompréhensions générées. L’accès inégal aux technologies de diffusion et l’individualisation de plus en plus prégnante de l’accès aux contenus ne
représente t-il pas un paradoxe : alors qu’internet a été perçu comme un lien planétaire entre les humains, n’est-il pas finalement un vecteur de division ? -- Crédits photos _Internet_.
Dennis Skley / Flickr. Licence CC BY-ND 2.0 _Futur en Seine 2012_. Samuel Huron / Flickr. Licence CC BY-NC-ND 2.0 _Connected_. Martin Snicer Photography / Flickr. Licence CC BY-ND 2.0