RAPPORT
SUR L’AVENIR DE LA TELEVISION NUMERIQUE TERRESTRE
PRESENTÉ AU PREMIER MINISTRE
PAR MICHEL BOYON
Août 2011
Pour élaborer le présent rapport, l’auteur s’est entretenu avec plus de cent personnalités, qui se
sont exprimées soit en leur nom personnel, soit en leur qualité de dirigeant d’entreprise ou
d’organisation professionnelle. Il leur exprime sa reconnaissance pour les éléments d’information
et d’appréciation qu’elles lui ont apportés.
Près de 400 contributions ont été déposées, par des professionnels, des associations ou des
particuliers, sur le site internet ouvert à cet effet. Que celles et ceux qui les ont présentées en
soient remerciés.
L’auteur dit également toute sa gratitude aux administrations qui lui ont fourni un précieux
concours, notamment aux services du Conseil supérieur de l’audiovisuel.
1
SOMMAIRE
Ø PRÉLIMINAIRES…………………………………………………………………………………………………………………. 3
Ø FACTEURS CONDITIONNANT L’AVENIR DE LA TÉLÉVISION
NUMÉRIQUE TERRESTRE……………………………………………………………………………………………… 6
I/ Un secteur économique oscillant entre stabilité et stagnation……………………………………… 6
A. L’effritement relatif de la position des chaînes « historiques » gratuites…………………………. 7
B. La croissance rapide des nouvelles chaînes gratuites de la TNT……………………………………. 8
C. Les difficultés persistantes de la TNT payante………………………………………………………………10
D. Les interrogations relatives à la fiction française……………………………………………………………11
E. La question de l’élasticité du marché publicitaire…………………………………………………………..12
F. L’inconnue des téléviseurs connectés ……………………………………………………………………………15
II/ La compatibilité des canaux compensatoires avec le droit européen ………………………..17
A. Le régime des canaux compensatoires…………………………………………………………………………..17
B. Les procédures en cours devant la Commission européenne ………………………………………..19
C. L’argumentation présentée par les autorités françaises ………………………………………………….19
D. Les prochaines étapes……………………………………………………………………………………………………20
III/ La technologie au service d’une ressource radioélectrique contrainte……………………..21
A. Une ressource contrainte………………………………………………………………………………………………21
B. Les normes de compression : du MPEG 2 au MPEG 4 ……………………………………………….23
C. Les normes de diffusion : du DVB-T au DVB-T2………………………………………………………..24
2
Ø RÉFLEXIONS ET PROPOSITIONS SUR L’AVENIR DE LA TÉLÉVISION
NUMÉRIQUE TERRESTRE……………………………………………………………………………………………..26
I/ Les hypothèses retenues …………………………………………………………………………………………………..26
II/ Les options envisageables ………………………………………………………………………………………………30
A. Y-a-t-il un nombre optimum de chaînes ? …………………………………………………………………….30
B. Quel peut être l’avenir des canaux compensatoires ?…………………………………………………….32
C. Pour quelle date faut-il prévoir la fin de la norme de compression MPEG 2 ? ……………..35
D. A quelle date est-il envisageable d’introduire la norme DVB-T2 ? ………………………………..38
Ø DERNIÈRES OBSERVATIONS………………………………………………………………………………………..44
Ø ANNEXES
1. Lettre de mission du Premier ministre ………………………………………………………………………….46
2. Le marché français des téléviseurs ………………………………………………………………………………..48
3. Les parts d’audience nationale des chaînes de la télévision numérique terrestre
en juin 2010 et juin 2011……………………………………………………………………………………………….49
4. La procédure applicable à la modification de la norme de diffusion ……………………………..50
5. Les réaménagements de fréquences………………………………………………………………………………51
3
PRÉLIMINAIRES
La télévision numérique terrestre est, en France, un incontestable et remarquable succès. Ce qui
est souvent qualifié de révolution a produit les résultats qui en étaient attendus lorsque le
Gouvernement et le Conseil supérieur de l’audiovisuel ont décidé, à l’automne 2002, de mettre en
oeuvre le processus dont les bases avaient été définies par la loi du 1er août 2000. Le 30 novembre
2011, comme le prescrit la loi du 5 mars 2007, la diffusion analogique de la télévision par la voie
hertzienne terrestre aura cessé sur l’ensemble du territoire de la République, en métropole comme
outre-mer. L’année 2011 est donc un moment privilégié – en tout cas, la dernière occasion avant
plusieurs années – pour étudier les principales hypothèses d’évolution du paysage hertzien
terrestre, et donc du paysage audiovisuel français dans son ensemble, afin de préparer les
décisions qui satisferont le mieux possible les exigences de l’intérêt général. Tel est le sens de la
mission que le Premier ministre a définie dans sa lettre du 20 mai 2011.
Pour aider les pouvoirs publics à déterminer les réponses aux défis présents et à venir, le Premier
ministre a spécifié que les réflexions devraient tenir compte de l’ensemble des aspects techniques,
juridiques, économiques et culturels actuels, et envisager les différents scénarios adaptés aux
nouveaux enjeux.
La réussite de la TNT a été soulignée par toutes les personnes entendues dans le cadre de la
présente mission. Les faits ont montré que, comme l’auteur du présent rapport l’avait écrit en
2002, la TNT n’a été ni un gadget, ni un épouvantail. Son succès est d’abord technologique. La
diffusion hertzienne numérique terrestre a fait la preuve de sa qualité et de sa pertinence. La
planification des fréquences et la fixation des caractéristiques des sites d’émission par le Conseil
supérieur de l’audiovisuel, d’une part, l’information et l’accompagnement du public par le
groupement d’intérêt public France Télé numérique, d’autre part, ont permis de généraliser la
TNT dans les conditions prévues. Grâce à l’engagement des élus nationaux et locaux, des services
des collectivités territoriales, de nombreuses associations, l’arrêt de la diffusion analogique a été
bien compris et bien accepté par la très grande majorité de la population. Seules trois régions
métropolitaines, au sens des décrochages éditoriaux de France 3, et les départements et
collectivités d’outre-mer doivent encore passer au tout numérique. Ainsi, le calendrier qui avait
été fixé dans le rapport établi à la demande du Premier ministre en octobre 2002 sera respecté à
quatre mois près.
Le succès est aussi de nature audiovisuelle et même industrielle. La TNT compte aujourd’hui en
métropole dix-huit chaînes nationales gratuites en temps plein -dont quatre sont également
diffusées en haute définition-, dix chaînes nationales payantes -dont trois comportent des plages
en clair obligatoires, l’une étant aussi diffusée en haute définition-, cinquante télévisions locales
et, très prochainement, un service de vidéo à la demande. Outre-mer, le premier multiplex
contient de huit à dix chaînes en fonction des particularités locales. La TNT a ouvert l’accès à de
nouveaux éditeurs, répondant à l’objectif de pluralisme fixé par la loi : étant effectuée service par
service, et non multiplex par multiplex, l’attribution de la ressource a fortement contribué à la
diversité des opérateurs privés. Le service public de l’audiovisuel, dont le financement est
désormais assuré, bénéficie d’un périmètre approprié.
La réussite, enfin, est populaire. Au mois de juillet 2011, six années après le lancement de la TNT,
les nouvelles chaînes ont rassemblé 23,6% de l’audience totale de la télévision, ce qui prouve bien
qu’un public qui ne pouvait recevoir par la voie hertzienne que six chaînes nationales, et souvent
même moins, était en attente d’un enrichissement et d’une diversification de l’offre. Mais il en
résulte des exigences supplémentaires quant à la qualité et à l’originalité des programmes. La TNT
a aussi favorisé le développement de l’accessibilité des émissions aux personnes souffrant d’un
handicap auditif ou visuel.
Ces succès incitent à envisager l’avenir de la « plate-forme numérique hertzienne terrestre » avec
optimisme. Bénéficiant de l’antériorité par rapport aux autres « plates-formes » (câble, satellite,
ADSL, fibre optique), utilisée par au moins la moitié de la population française pour le premier
récepteur domestique, et davantage encore pour les autres récepteurs (près de 53% des foyers
équipés pour recevoir la télévision disposent d’au moins deux récepteurs)(1), la TNT continue de
structurer l’offre de programmes et de déterminer l’usage de la télévision même par les foyers qui
sont alimentés selon d’autres modes de réception. Elle a, parmi ses caractéristiques essentielles, la
gratuité d’accès, la simplicité, la qualité de l’image et du son. Elle est en quelque sorte le service
universel de la télévision.
Pour autant, dans un contexte marqué par des mutations technologiques extrêmement rapides et
profondes, la TNT doit également s’adapter aux nouveaux besoins, aux nouvelles exigences, des
(1) Il est possible que cette proportion soit sous-estimée du fait d’incertitudes quant au mode de réception
effectivement utilisé par les téléspectateurs.
téléspectateurs. Si l’immobilisme serait pour elle la pire des hypothèses, les pouvoirs publics et les
professionnels ont néanmoins le devoir d’agir avec méthode, en particulier sans précipitation, sur
la base de priorités clairement définies, elles-mêmes issues d’une analyse du contexte juridique,
économique, technologique et culturel actuel.
Pour d’évidentes raisons de droit, notamment afin que l’impartialité des décisions qui
seraient prises par le Conseil supérieur de l’audiovisuel sur des demandes d’éditeurs de services de télévision ne puisse être mise en cause, le présent rapport ne formulera
aucune appréciation ni sur la teneur de futurs appels à candidatures, ni sur la ligne
éditoriale de projets qui pourraient être présentés.
FACTEURS CONDITIONNANT L’AVENIR
DE LA TELEVISION NUMERIQUE TERRESTRE
I/ UN SECTEUR ECONOMIQUE OSCILLANT ENTRE STABILITE ET
STAGNATION
La dimension économique du secteur audiovisuel a été trop longtemps sous-estimée, voire
ignorée. Pourtant, quelle que soit leur activité (édition de services audiovisuels, production, filière
technique), quel que soit leur statut (public ou privé), quelle que soit leur taille, les entreprises du
secteur audiovisuel sont des entreprises comme les autres, confrontées aux mêmes contraintes
que les autres, plongées dans la réalité de la vie économique. La dimension culturelle et sociétale
qui est dans leur nature même ne doit pas faire oublier qu’elles ont à affronter des mutations
technologiques profondes ou qu’elles ont à s’adapter en permanence aux lois de l’économie.
La situation économique du secteur audiovisuel français est aujourd’hui caractérisée par une
relative fragilité et une grande incertitude.
Une analyse de l’évolution de l’économie de la télévision depuis dix ans conduit à formuler quatre
remarques générales :
– en Europe, la durée moyenne d’écoute de la télévision n’a cessé d’augmenter : en France,
elle dépasse 3 heures 30, en dépit du développement de la consommation de services
accessibles par l’internet. Ainsi, contrairement à ce que certains ont bien voulu faire croire
par le passé, allant presque jusqu’à proposer l’inscription de la télévision sur la liste des
espèces menacées, ce média se porte bien en termes d’audience et confirme son
adaptation aux attentes du public ;
– si l’on compare les taux de croissance annuels de la publicité dans les principaux pays
européens avec ceux du produit intérieur brut, on constate que les évolutions du marché
publicitaire sont étroitement liées aux variations de l’activité économique générale ;
7
– le secteur télévisuel français se caractérise par un relatif équilibre entre le financement par
la publicité (32%), le financement public (26%) et l’abonnement (42%). A priori, il devrait
donc être légèrement moins exposé aux aléas économiques que la plupart des autres
secteurs télévisuels européens ;
– lorsqu’on examine le marché publicitaire dans le secteur des médias entendu au sens large,
on constate que la part de la télévision est restée très stable dans le temps, passant de 32%
en 2000 à 33% en 2010. Ainsi, la croissance du marché publicitaire sur l’internet s’est
effectuée, du moins jusqu’à présent, au détriment d’autres médias et non à celui de la
télévision qui reste un support de masse à la puissance encore inégalée.
A. L’effritement relatif de la position des chaînes « historiques » gratuites
L’étude de la situation des chaînes hertziennes « historiques » gratuites confirme une nette
fragmentation des audiences en raison de la croissance des nouveaux services diffusés sur la
TNT. De 2002 à 2005, année du lancement de la TNT, ces chaînes avaient perdu en moyenne 0,9
point d’audience par an au profit des chaînes thématiques diffusées par le câble ou le satellite.
Depuis, elles ont perdu globalement 1,7 point d’audience en 2006, 3,7 points en 2007, 6,2 points
en 2008, 4,2 points en 2009, 4 points en 2010. Il est évidemment impossible de dire si, quel que
soit le nombre futur des chaînes de la TNT, ce mouvement se poursuivra « mécaniquement »
avec la substitution générale de la diffusion numérique à la diffusion analogique, et donc avec
l’accentuation de la concurrence, ou s’il sera conditionné par les appréciations que le public
portera sur l’attrait relatif des différentes chaînes.
Si l’on se place au niveau, non plus des chaînes, mais des groupes audiovisuels « historiques », on
constate qu’ils n’ont pas toujours réussi à maintenir leur niveau global d’audience même en
ajoutant les résultats obtenus par les nouvelles chaînes dont ils sont éditeurs sur la TNT. Ainsi, la
part d’audience de France Télévisions est passée, de 2004 à 2010, de 38,7% à 31,8%, malgré
l’adjonction de France 4 ; celle du groupe TF1 de 31,8% à 29,4%, même en tenant compte de
TMC et de NT1 ; en revanche, alors que celle de M6 était de 12,6%, l’ensemble formé par cette
chaîne avec W9 est passé à 13,4%.
L’effritement des audiences a naturellement eu pour conséquence de réduire la part des chaînes
« historiques » dans le marché publicitaire : en recettes nettes, elle est passée de 96% en 2000 à
environ 80% en 2010. Il faut ajouter une baisse tendancielle du prix moyen réel des écrans
publicitaires de ces chaînes en raison de la crise économique, de l’augmentation de la capacité
publicitaire due à l’apparition des chaînes de la TNT, et des modifications réglementaires
intervenues en 2008 et 2009, telles que l’autorisation d’une seconde coupure de publicité lors de
la diffusion d’oeuvres audiovisuelles et cinématographiques ou l’augmentation de la durée
moyenne horaire de la publicité de six à neuf minutes. Le pouvoir de négociation des annonceurs
et de leurs agences s’en est trouvé considérablement renforcé.
Si la part des chaînes « historiques » dans le marché publicitaire reste dans la moyenne supérieure
des pays européens, leurs revenus publicitaires n’ont quasiment pas évolué depuis 2005, excepté
la baisse importante subie pendant la crise économique de 2008 et 2009. Sans doute, la
suppression de la publicité sur les chaînes de France Télévisions à partir de 20 heures a-t-elle
permis aux chaînes « historiques » de maintenir la valeur de leurs écrans publicitaires les plus
rémunérateurs. On peut ajouter un effet lié à la « taille » : plus l’audience d’une chaîne est
importante, plus la valeur relative de ses écrans publicitaires est élevée. En revanche, les grandes
chaînes françaises se situent plutôt dans la moyenne basse européenne en termes de rentabilité en
raison, notamment, d’un accroissement du coût de leurs grilles, compris entre 30% et 70% sur
dix ans en euros courants, soit un taux annuel d’augmentation allant de 2,5% à 5,5%. Par ailleurs,
leur rentabilité repose de moins en moins sur leur coeur de métier traditionnel et toujours
davantage sur de nouvelles activités. S’ils témoignent d’une certaine reprise après deux années
difficiles, les résultats positifs enregistrés par les groupes audiovisuels privés au premier semestre
de l’année 2011 ne sont pas de nature à remettre en cause les appréciations qui précèdent.
B. La croissance rapide des nouvelles chaînes gratuites de la TNT
Comme il l’a été rappelé, les nouvelles chaînes de la TNT ont très rapidement gagné des parts
d’audience depuis leur création. Ce phénomène était prévisible. Son caractère quasiment
inéluctable expliquait l’hostilité de certains opérateurs, en 2002, au lancement de la TNT. En
2010, ces chaînes ont représenté 19,7% de l’audience totale de la télévision, mais leur audience est
inégalement répartie dans la journée : elles sont davantage regardées l’après-midi, où les chaînes
« historiques » ont en général des audiences plus faibles. Elles ont bénéficié de 23,1% des recettes
publicitaires brutes de la télévision, mais sensiblement moins en recettes nettes. Ainsi, après plusieurs années difficiles marquées par des pertes individuelles comprises entre 2 et 30 millions
d’euros, les nouvelles chaînes se rapprochent de l’équilibre, à des rythmes très différents ; certaines d’entre elles sont même légèrement bénéficiaires.
Cependant, en 2010, les neuf nouvelles chaînes gratuites de la TNT participant au financement
d’oeuvres aidées par le Centre national du cinéma et de l’image animée ont été à l’origine de
seulement 353 heures de programmes en tant que premiers diffuseurs, contre 2 487 heures pour
les chaînes « historiques », y compris Canal+. Ces dernières ont financé à elles seules plus de 90%
des investissements totaux. Ainsi, les nouvelles chaînes, qui privilégient la rediffusion, ne
représentent qu’une part très réduite du financement de la création audiovisuelle : en 2010, leur
niveau de commande a atteint seulement 8% de l’ensemble des heures aidées par le CNC (6,6%
en 2009), pour 1,8% des investissements de l’ensemble des chaînes dans la production
audiovisuelle aidée. De plus, elles sont quasiment absentes de la production de fiction : en 2010,
une seule chaîne privée est intervenue dans la production d’une série de fiction en tant que
premier diffuseur pour un montant de 800 000 euros. De même, seules deux chaînes ont
contribué au financement de la production cinématographique française pour un montant total
de 850 000 euros, soit 0,6% des investissements des chaînes gratuites ; leur participation s’est
élevée en moyenne à 170 000 euros par film, soit 2,4% du devis. Il est significatif que les enquêtes
d’opinion montrent que, si une majorité des téléspectateurs se disent satisfaits des programmes
des nouvelles chaînes, beaucoup souhaitent moins de rediffusions et davantage de programmes
récents ou originaux.
S’agissant des documentaires, les nouvelles chaînes gratuites de la TNT ont investi en 2010 6,9
millions d’euros, soit 64% de plus que l’année précédente, dans la production de 214 heures de
documentaires, dont 188 en tant que premiers diffuseurs. Elles ont ainsi assuré 7,7% des volumes
horaires commandés dans ce genre par les chaînes. Enfin, Gulli a été la seule chaîne à investir
dans l’animation.
Malgré une croissance rapide de leur audience, les nouvelles chaînes privées gratuites reposent
encore sur un équilibre financier fragile. Pour limiter le coût de leurs grilles, et si l’on met à part
les chaînes d’information et Gulli, elles ont, jusqu’à présent, largement privilégié la rediffusion de
programmes de catalogue au détriment des productions inédites. Si le nombre des films qu’elles
ont diffusés a continué d’augmenter en 2010, contrairement à une majorité de chaînes
« historiques », seuls 8% des titres étaient inédits à la télévision gratuite. De plus, on constate une
insuffisante diversité de leur programmation, ce qui pourrait amener à dire que la concurrence
n’a pas encore vraiment bénéficié aux contenus. En revanche, elles font preuve d’une réelle
capacité à innover pour les programmes de flux : elles sont ainsi jugées divertissantes par une
majorité de téléspectateurs.
Le développement des nouvelles chaînes ne doit pas dissimuler les difficultés que rencontrent
actuellement les télévisions locales, qui ont probablement souffert de ne pas être présentes dans
la première vague de la TNT. Le passage au tout numérique permet de redynamiser l’offre
française, très inférieure en quantité à celle des grands pays européens. Le France compte en effet
145 chaînes locales tous modes de diffusion confondus, contre 215 en Allemagne, 590 en Italie et
731 en Espagne. Aussi, depuis plus de trois ans, le Conseil supérieur de l’audiovisuel mène-t-il
une action très volontariste, qui a conduit à la création d’une trentaine de chaînes hertziennes
numériques locales et au passage en mode numérique d’une vingtaine de chaînes hertziennes
existantes. Il manque sans doute encore une dizaine de télévisions locales pour parvenir à une
bonne couverture du territoire métropolitain. Pour autant, la situation n’est pas toujours
satisfaisante : même si l’on constate aujourd’hui l’engagement de nouveaux entrepreneurs,
l’équilibre des chaînes locales reste subordonné au concours des collectivités territoriales et,
parfois, au soutien de la presse quotidienne régionale. Mais, avant de porter un jugement définitif
sur la viabilité, ou non, d’une offre télévisuelle locale, il convient d’attendre que les mesures
décidées ou encore à l’étude, telles que l’harmonisation des dispositifs de financement, l’incitation
au partage des coûts de structure, la définition de nouvelles formes de tournage ou de montage,
l’encouragement au regroupement autour de bassins d’une audience potentielle plus importante,
aient produit leurs effets.
C. Les difficultés persistantes de la TNT payante
La diffusion de services payants sur la TNT a commencé dès 2005. Pour s’abonner, les
téléspectateurs ont la possibilité de s’adresser à deux distributeurs, dont l’un est également éditeur
de chaînes payantes et distributeur de services par satellite. Les redevances versées par les
distributeurs représentent la principale source de revenus des chaînes payantes de la TNT. Selon
l’Observatoire européen de l’audiovisuel, des services payants existent sur la TNT dans au moins
quatorze États membres de l’Union européenne, ainsi que dans cinq autres pays européens ;
s’agissant des chaînes nationales, ils représentent 53% du nombre total des chaînes de la TNT.
Les 30 octobre 2008 et 30 avril 2009, le Conseil supérieur de l’audiovisuel a abrogé, à la demande
des éditeurs, les autorisations accordées pour les chaînes AB1 et Canal J. Excepté un groupe
audiovisuel qui jouit d’une position majeure sur ce secteur, les chaînes payantes de la TNT
peinent à se développer. En 2010, sur douze millions de foyers abonnés à la télévision payante,
seulement 1,1 million l’était à la TNT payante. Il en faudrait sans doute le double pour assurer un
socle de viabilité économique. Ceci s’explique en partie par la faible attractivité de l’offre,
notamment par rapport à celle qui est disponible grâce au satellite, au câble ou à l’ADSL, et
même à la téléphonie, et par un réel manque d’information imputable, selon certains, à
l’organisation actuelle de la distribution. La renégociation en cours des contrats de distribution
laisse présager de nouvelles difficultés, si bien que la question de la pérennité de la TNT payante
ne doit pas être dissimulée.
C’est sur la base de ce constat que le Conseil supérieur de l’audiovisuel a accordé, le 14 décembre
2010, une autorisation d’émettre à la chaîne CFoot pour dynamiser l’offre payante et la rendre
plus attrayante. Du succès ou non de cette nouvelle chaîne aux contenus populaires et exclusifs
dépendra largement l’avenir de la TNT payante en France. L’espoir n’est pas interdit au regard de
la réintroduction réussie d’une offre payante sur la plate-forme hertzienne espagnole après une
première tentative qui s’était soldée par un échec.
Pour autant, le passage d’une partie de l’offre actuelle du secteur payant vers le secteur gratuit est
présenté par certains éditeurs comme le seul moyen de préserver la pérennité de chaînes de
qualité, aux programmes innovants et au professionnalisme reconnu. Quant à la présence
éventuelle sur le secteur gratuit d’un groupe bénéficiant d’une position importante sur le secteur
payant, elle susciterait des interrogations au regard des règles de la concurrence : on ne pourrait a
priori exclure que le fait d’être acheteur des droits pour la diffusion cryptée d’un film ou d’une
oeuvre audiovisuelle confère un avantage compétitif décisif quant à la négociation des droits pour
la diffusion en clair.
D. Les interrogations relatives à la fiction française
En 2010, la fiction française a représenté 26% de l’offre totale de programmes sur les chaînes
gratuites(2). De tous les genres, elle est celui dont la situation est la plus préoccupante. En nombre
d’heures, l’offre de fiction n’a cessé de baisser chaque année depuis 2007 : selon le CNC, elle a
(2) Hors Arte, la Chaîne parlementaire, BFM TV et i>TV représenté en 2010 16,6% de l’offre totale de programmes audiovisuels aidés (contre 17,7% l’année précédente). Cette diminution affecte bien sûr les chaînes « historiques », y compris celles de France Télévisions qui continuent pourtant de contribuer pour plus de 54% aux investissements des chaînes dans la fiction. Comme le montre une étude réalisée en 2010 par les services du Conseil supérieur de l’audiovisuel, la France, pays de création, est le seul Etat européen dans lequel la fiction américaine arrive systématiquement en tête des audiences, alors qu’en Italie ou au Royaume-Uni, les fictions nationales occupent les dix premières places.
Cette tendance s’inscrit dans la durée puisque la part de la production américaine dans l’ensemble
des oeuvres de fiction diffusées en France est passée de 41% en 2008 à 46% en 2010, la fiction
française ne représentant plus que 35% de l’offre totale. De surcroît, en raison de la crise
économique, les investissements des chaînes gratuites dans la fiction ont baissé pour la deuxième
année consécutive en 2009 (-8,5%), atteignant leur plus bas niveau depuis 2004 ; ils ne se sont
redressés que de 3,3% en 2010. Mais ces chiffres globaux ne doivent pas masquer une
augmentation pour les chaînes publiques (10,3%) et une diminution pour les chaînes privées
(6,8%). La fiction pour la jeunesse n’est pas moins malmenée. Comme il l’a été rappelé, les
nouvelles chaînes de la TNT représentent une part modeste, voire marginale, des commandes de
fiction inédite.
La crise que traverse depuis des années la fiction française a donné lieu à plusieurs études et à des
missions de réflexion. Celles-ci ont permis de formuler de nombreuses propositions qu’il
n’appartient pas, au présent rapport, de détailler. En revanche, il faut souligner que la création de
nouvelles chaînes n’a pas encore bénéficié à la fiction française. Ce constat est d’autant plus
regrettable que les auteurs et réalisateurs français savent faire preuve de créativité. En témoigne le
dynamisme de la production française d’animation, dont les contenus originaux séduisent un
public toujours plus large en France comme à l’étranger.
E. La question de l’élasticité du marché publicitaire
Cette question difficile suscite d’autant plus de débats qu’elle conditionne le lancement, ou non,
de nouvelles chaînes gratuites sur la TNT. Les auditions qui ont été menées permettent de
distinguer deux approches ou deux « écoles ».
D’un côté, certains professionnels soulignent, avec raison, que le marché publicitaire télévisuel
est relativement peu développé en France par rapport à d’autres grands pays. En proportion du
produit intérieur brut, il y représentait ainsi 0,18% en 2010, contre 0,23% en Espagne, 0,25% en
Italie, 0,24% au Royaume-Uni et 0,34% aux Etats-Unis. Le décalage entre ce marché et le marché
publicitaire tous supports confondus est en proportion à peu près le même. La recette nette par
habitant s’élève à 42 euros en France, contre 78 en Italie, 50 au Royaume-Uni, 44 en Allemagne.
Ces mêmes professionnels estiment que « l’offre crée sa propre demande », que le lancement de
nouvelles chaînes attirera automatiquement de nouveaux annonceurs, soit parce que ceux-ci se
situeront sur un segment qui n’est pas exploité sur les chaînes en clair ou qui l’est encore peu, soit
parce que l’augmentation du nombre des écrans disponibles entraînera une baisse des prix
moyens proposés aux annonceurs. Ils considèrent que l’impact de l’internet sur le volume de la
publicité à la télévision ne doit pas être surestimé. Ils font valoir enfin que des pays comparables à
la France disposent d’un plus grand nombre de chaînes gratuites sur le réseau hertzien terrestre :
26 en Espagne, 35 au Royaume-Uni, 40 en Italie. Certains soutiennent même que l’augmentation
du nombre des chaînes serait une nécessité pour empêcher la régression, à terme, des ressources
publicitaires de la télévision.
En regard, de nombreux professionnels mettent en avant la stagnation du marché publicitaire
français depuis dix ans, son caractère « fini », l’absence de réserve d’audience, et la montée en
puissance de l’internet qui ponctionne une part toujours plus grande des recettes publicitaires et
qui est, pour beaucoup de nouveaux annonceurs, plus attractif que les médias traditionnels. Déjà,
selon l’IDATE, la productivité publicitaire -c’est-à-dire la rentabilité de la publicité à la secondede
la vidéo à la demande sur les grands sites internet de partage est proche de celle des chaînes
thématiques. La création de chaînes supplémentaires aurait pour effet de fragmenter encore plus
les audiences et donc de fragiliser les éditeurs actuels, tout en affaiblissant la presse et la radio.
Ces professionnels soulignent enfin que le nombre élevé des chaînes gratuites présentes sur le
réseau hertzien dans d’autres pays s’explique par la prise en compte de chaînes régionales à fort
bassin d’audience (l’Allemagne ne compte ainsi que 17 chaînes gratuites nationales, soit deux de
moins que la France), de chaînes de télé-achat, dont la spécificité est évidente, ou de chaînes
diffusées sur des canaux partagés.
Qu’en est-il réellement ? En 2010, les recettes publicitaires de la télévision ont atteint 3,44
milliards d’euros, soit une hausse de 11,2% par rapport à 2009, après deux années de forte
diminution (-4% en 2008, -11% en 2009). La progression des recettes publicitaires en 2010
s’explique par la très forte croissance des chaînes « historiques » (+9,5% après une baisse de 14%
l’année précédente) et des chaînes du câble et du satellite, ainsi que par le dynamisme des
nouvelles chaînes de la TNT (+20%). Cependant, le marché publicitaire télévisuel n’a fait que
retrouver en 2010 ses niveaux de 2003 et 2004. La suppression de la publicité sur les chaînes de
France Télévisions, qui n’a guère entraîné un effet d’aubaine, a permis de réduire les
conséquences de la crise des ressources. Au cours du premier semestre 2011, les recettes
publicitaires brutes (c’est-à-dire avant négociations commerciales) ont crû de 12,3% : 3,6% pour
les chaînes « historiques » ; 36,3% pour les nouvelles chaînes de la TNT ; 18,5% pour les chaînes
du câble et du satellite. Mais la situation économique de l’été 2011 conduit à observer cette
embellie avec beaucoup de circonspection.
Si l’on raisonne sur une période plus longue, on constate que, dans la décennie 2001- 2010, les
recettes publicitaires nettes de la télévision ont augmenté de 3% en euros courants, notamment
grâce à des modifications de la réglementation, telles que l’ouverture d’un accès partiel à la
publicité pour la distribution ou l’élargissement des temps de diffusion des écrans publicitaires.
Depuis le lancement des nouvelles chaînes de la TNT, si le nombre des annonceurs s’est accru,
les recettes n’ont augmenté en euros courants que de 4%, ce qui tend à démontrer que l’élasticité
du marché publicitaire par rapport à l’augmentation du nombre des chaînes n’est que très relative.
On constate qu’en euros constants, la valeur du marché a diminué de 4% entre 2005 et 2010,
même si la télévision a moins souffert que la presse ou la radio du développement de la publicité
sur l’internet. Ainsi, ce qui pourrait être vrai, à la marge, en volume ne l’est sûrement pas en
valeur.
Différentes études donnent à penser que la télévision, dont l’efficacité publicitaire ne
semble pas altérée par les nouveaux comportements d’écoute du public, devrait
conserver sa part de marché. La progression de l’internet se ferait plutôt au détriment des
autres média (affichage, presse, radio), à l’exception du cinéma qui bénéficierait de la
numérisation des salles. La prise en compte de la télévision de rattrapage, depuis le début de
l’année 2011, dans le calcul de l’audience aura un effet bénéfique. En revanche, la fragmentation
des audiences diminuera progressivement le nombre et l’attrait des écrans des chaînes les plus
regardées.
L’expérience prouve que, dans presque tous les pays, les variations du marché publicitaire sont
corrélées à celles de l’activité économique générale, un peu amplifiées selon que cette activité est
bonne ou médiocre. Il n’y a guère de raison de penser que la situation serait susceptible d’évoluer
beaucoup dans les prochaines années. On peut pronostiquer que l’augmentation du volume
global de la publicité à la télévision ne sera, au mieux, que légèrement supérieure, en
valeur, au taux de la croissance économique, sachant qu’il existe une possibilité de marge
supplémentaire sur les services non-linéaires. Cette analyse n’exclut pas, par principe, que des
chaînes reposant sur des thématiques aujourd’hui absentes de la TNT puissent capter les
ressources nécessaires sans trop perturber l’équilibre global du financement du secteur.
A plus long terme, la consolidation des ressources publicitaires des chaînes privées sera
conditionnée par l’entrée en vigueur effective des dispositions législatives supprimant à compter
du 1er janvier 2016, avec quelques restrictions, la publicité dans l’ensemble de la journée sur les
chaînes de France Télévisions. Par ailleurs, il conviendra, le moment venu, de réexaminer la
question des secteurs interdits de publicité qui suscite toujours autant de débats, parfois un peu
disproportionnés.
F. L’inconnue des téléviseurs connectés
Avec le développement des téléviseurs connectés à l’internet, mais aussi des « smartphones »,
tablettes, consoles de jeux et autres instruments connectables, la télévision entre dans l’ère de la
mondialisation. Elle passe d’un modèle fondé sur l’écoute d’une chaîne diffusant une grille
d’émissions au libre choix des programmes, d’un système reposant sur de nombreux
intermédiaires à une pratique largement désintermédiée, d’un domaine clos à un espace sans
frontières. Sur ce point, les auditions ont confirmé l’existence de deux approches radicalement
opposées : l’une préconisant un développement rapide de l’offre sur la plate-forme hertzienne
terrestre de façon à « occuper l’espace » avant l’arrivée des grands acteurs de l’internet ; l’autre
plaidant pour un renforcement des groupes existants. Quoi qu’il en soit, la principale incertitude,
du moins à court terme, concerne le rythme du développement du nombre et de l’usage des
téléviseurs connectés. En effet, si environ 25% des téléviseurs vendus actuellement en France
sont connectables à l’internet, seuls 10% à 20% d’entre eux seraient effectivement connectés, en
particulier faute de modalités d’utilisation suffisamment simples (beaucoup de progrès sont à
réaliser notamment pour les télécommandes). De surcroît, on ne sait que peu de choses sur leur
utilisation véritable ; même les informations provenant des Etats-Unis sont peu consistantes.
Pour autant, cette évolution est réelle. Elle se traduira par une plus grande liberté de choix pour
le téléspectateur, par l’apparition de services interactifs imaginés par les chaînes, qu’ils soient
directement liés aux programmes ou plus autonomes, et par une meilleure exposition des
contenus audiovisuels. L’expérience conduite par France Télévisions en 2011 pour les
Internationaux de France de tennis est révélatrice. Comme l’a rappelé le Conseil supérieur de
l’audiovisuel lors d’un colloque organisé sur ce thème le 28 avril 2011, la plate-forme hertzienne
et l’internet, dont les services ne peuvent pas utiliser le réseau de la TNT compte tenu de la rareté
et du coût de la bande passante, ne sont pas concurrents, mais bel et bien complémentaires.
Cette analyse est particulièrement vraie pour la télévision de rattrapage. Sur les 715 millions de
programmes audiovisuels « premium » regardés en ligne de janvier à mai 2011, 88% relevaient de
la télévision de rattrapage. Les genres ayant le plus progressé ont été le divertissement (+97%),
l’information (+52%) et, dans une moindre mesure, la fiction (+21%). Or, excepté un guide
électronique des programmes commun à toutes les chaînes, la plate-forme hertzienne n’est pas
forcément le mode de diffusion le plus adapté pour répondre aux besoins de la consultation
individualisée de contenus délinéarisés en raison d’obstacles juridiques et techniques : importance
de la ressource radioélectrique utilisée, coût de la diffusion hertzienne, nécessité de disposer
d’équipements de réception compatibles. Il est cependant important pour cette plate-forme
d’accueillir des services interactifs, tel que le service de médias audiovisuels à la demande qui a été
récemment autorisé par le Conseil supérieur de l’audiovisuel. Mais la ressource radioélectrique
risque de ne pas être suffisante pour permettre la présence d’un nombre important de tels
services.
Même si son modèle économique n’est pas encore clairement défini, la télévision de rattrapage,
aujourd’hui massivement regardée sur des téléviseurs beaucoup plus que sur des ordinateurs, est
un bon exemple de ce que pourrait être une stratégie fondée sur la complémentarité entre offre
linéaire et offre non linéaire, d’un côté, entre plate-forme hertzienne et internet, de l’autre. Au
surplus, on prévoit que l’augmentation de l’usage de l’internet dans les prochaines années
concernera essentiellement la vidéo. Ainsi, le développement de nouveaux services liés à la
connectivité des téléviseurs apparaît non seulement comme le principal relais de croissance pour
les chaînes hertziennes, mais également comme la meilleure réponse à apporter au défi des
téléviseurs et autres appareils connectables.
Ceux-ci posent, à l’ensemble des professionnels, des problèmes techniques, juridiques et
économiques non négligeables, qu’il s’agisse de la dispersion des audiences, de l’irruption de
nouveaux concurrents puissants, de la possibilité pour les studios américains de proposer leurs
films ou leurs fictions directement sur l’internet sans passer par les éditeurs nationaux, de la
coexistence de contenus régulés et de contenus non régulés sur un même écran, du financement
de la création, ou encore du risque de « parasitage » des programmes audiovisuels par la
surimpression de flux, tels que des bandeaux publicitaires, certains de ceux-ci pouvant même
inciter par un simple « clic » au reroutage vers des sites exploités par de grands opérateurs de
l’internet (moteurs de recherche, sites de partage de vidéos, réseaux sociaux). Les éditeurs français
de la TNT ont ainsi adopté, en novembre 2010, une charte relative aux « modalités d’affichage
des contenus et services en ligne sur les téléviseurs et autres matériels vidéo connectés ». La
charte vise à assurer le respect de l’intégrité du signal des chaînes et leur contrôle entier et exclusif
sur les contenus et services affichés en surimpression ou autour des programmes diffusés. Elle
n’a aujourd’hui pas de valeur contraignante à l’égard des fabricants de récepteurs, avec lesquels les
éditeurs entendent coopérer, mais la démarche commence à être reprise à l’étranger. Par ailleurs,
les éditeurs français, avec les éditeurs allemands, ont mis au point une norme commune, connue
sous l’appellation HbbTV, qui permet de proposer des fonctionnalités ou des services interactifs
sur les plates-formes de diffusion en cas de connectivité du récepteur. La généralisation de cette
norme doit donner aux éditeurs de services audiovisuels la possibilité de développer leurs propres
interfaces et, surtout, d’en maîtriser les contenus. Même si elle n’empêche pas les fabricants de
proposer directement sur leurs téléviseurs un accès à un ou plusieurs sites partenaires, la norme
HbbTV (dont les premières applications ont été lancées par des chaînes françaises au mois de
juillet 2011) constitue un premier garde-fou, voire une première réponse, en orientant le
téléspectateur vers un environnement interactif utilisant l’internet, qui serait piloté par les chaînes
hertziennes elles-mêmes.
Il est rappelé qu’une mission de concertation et de réflexion sur les enjeux des téléviseurs
connectés est en cours, à l’initiative du ministre de la culture et de la communication et du
ministre chargé de l’industrie, de l’énergie et de l’économie numérique.
II/ LA COMPATIBILITÉ DES CANAUX COMPENSATOIRES AVEC LE DROIT
EUROPÉEN
A. Le régime des canaux compensatoires
Par la loi du 5 mars 2007 relative à la modernisation de la diffusion audiovisuelle et à la télévision
du futur, le législateur a entendu compenser le préjudice que les éditeurs des services nationaux
de télévision diffusés par voie hertzienne terrestre en mode analogique subissent du fait de l’arrêt
anticipé et progressif, depuis le 30 mars 2008, de la validité des autorisations dont ils sont
titulaires. Deux contreparties ont été définies : la prorogation, pour une durée de cinq ans, de
l’autorisation de diffusion par voie hertzienne terrestre à compter de la date d’extinction
définitive de la diffusion analogique ; l’attribution à ces mêmes éditeurs, sous certaines
conditions, d’un droit supplémentaire à diffusion, plus connu sous le nom de « canal
compensatoire »
L’article 103 de la loi du 30 septembre 1986 relative à la liberté de communication, dans sa
rédaction issue de la loi de 2007, dispose ainsi : « À l’extinction complète de la diffusion par voie
hertzienne en mode analogique d’un service national de télévision préalablement autorisé sur le fondement de
l’article 30, le Conseil supérieur de l’audiovisuel accorde à l’éditeur de ce service qui lui en fait la demande, sous
réserve du respect des articles 1er, 3-1, 26 et de 39 à 41-4, un droit d’usage de la ressource radioélectrique pour la
diffusion d’un autre service de télévision à vocation nationale, à condition que ce service ne soit lancé qu’à compter
du 30 novembre 2011 et qu’il remplisse les conditions et critères énoncés aux deuxième et troisième alinéas du III
de l’article 30-1, souscrive à des obligations renforcées de soutien à la création en matière de diffusion et de
production d’oeuvres cinématographiques et audiovisuelles européennes et d’expression originale française fixées par
décret en Conseil d’Etat ». Dans un avis du 11 juillet 2006, le Conseil supérieur de l’audiovisuel avait
émis de sérieuses réserves sur le dispositif envisagé.
Dans une décision du 27 février 2007, le Conseil constitutionnel a relevé que les dispositions
législatives mettant fin à la diffusion analogique avaient pour effet de réduire la durée des
autorisations accordées pour Canal+, TF1 et M6 respectivement jusqu’en décembre 2010, février
2012 et avril 2012, et donc de porter atteinte à des situations légalement acquises. Il a souligné
que le législateur avait entendu indemniser le préjudice causé aux trois éditeurs et qu’il s’était
notamment référé « aux dépenses inhérentes au passage anticipé à une diffusion exclusivement
numérique ». Le Conseil constitutionnel a rappelé que ces éditeurs seraient soumis aux
prescriptions législatives de droit commun tendant à limiter la concentration dans le secteur de la
communication. Il en a déduit que l’article 103 ne leur apportait pas « une compensation
manifestement disproportionnée ».
B. Les procédures en cours devant la Commission européenne
Une plainte relative à l’article 103 de la loi de 1986, déposée en avril 2008, donne lieu, devant la
Commission européenne, à deux actions distinctes : une procédure en manquement, dont l’objet
est d’examiner la conformité de cet article aux directives dites du « Paquet Télécom », et une
procédure d’examen, destinée à vérifier la compatibilité du même article avec le régime européen
des aides d’Etat.
Dans un courrier du 20 février 2009, la Commission européenne a fait savoir aux autorités
françaises qu’au regard des dispositions prévues par les directives 2002/20 et 2002/77 du
« Paquet Télécom », l’octroi de canaux supplémentaires lui semblait disproportionné par rapport
au préjudice résultant de l’extinction anticipée de la diffusion analogique, d’autant plus que les
chaînes « historiques » avaient déjà bénéficié auparavant d’une prorogation de cinq ans de la
durée de leur autorisation de diffusion. Par ailleurs, l’extinction anticipée de la diffusion
analogique permet aux éditeurs de réduire leurs coûts de diffusion.
Par un courrier du 11 mai 2010, la Commission européenne a pris acte des éléments de réponse
présentés par la France au sujet de la prétendue illicéité d’une « aide d’Etat » ; pour autant, la
procédure d’examen engagée à ce titre n’est pas close. S’agissant de la procédure en manquement,
dans le cadre de la phase précontentieuse, la Commission a mis en demeure la France, le 24
novembre 2010, de présenter des observations concernant la compatibilité de l’article 103 de la
loi de 1986 avec les directives du « Paquet Télécom ». Une note en réplique a été transmise le 24
février 2011 à la Commission par l’intermédiaire du représentant permanent de la France auprès
de l’Union européenne.
C. L’argumentation présentée par les autorités françaises
Pour les autorités françaises, les directives du « Paquet Télécom » ont pour seul objet d’encadrer
le transport des services audiovisuels : elles ne sont donc pas applicables aux autorisations
d’exploitation de la ressource radioélectrique attribuée aux chaînes de télévision.
Néanmoins, pour le cas où ces directives seraient considérées comme applicables, la France fait
valoir qu’elles prévoient un régime dérogatoire pour l’attribution de droits spéciaux poursuivant
un objectif d’intérêt général, à condition que ceux-ci « soient octroyés par le biais de procédures ouvertes,
transparentes et non discriminatoires ». Or, pour la France, le dispositif prévu à l’article 103 n’est pas
discriminatoire dans la mesure où il traite de façon égale des éditeurs placés dans une situation
identique au moment du vote de la loi de 2007. Les autorités françaises soulignent également que
l’octroi d’un canal supplémentaire n’est pas une compensation disproportionnée eu égard à
l’augmentation très importante du nombre des chaînes accessibles par la voie hertzienne terrestre,
ainsi qu’à la nécessité pour les éditeurs bénéficiaires de souscrire à des obligations renforcées,
notamment pour la création cinématographique et audiovisuelle. L’article 103 serait donc
conforme aux dispositions dérogatoires prévues par les directives européennes.
D. Les prochaines étapes
La procédure en manquement est organisée aux articles 258 à 260 du Traité sur le
fonctionnement de l’Union européenne. Elle comporte deux phases successives :
– une phase précontentieuse ou administrative, qui commence par l’envoi d’une lettre de
mise en demeure permettant à l’Etat membre de faire connaître son point de vue et, le cas
échéant, aboutissant à un règlement amiable du litige ;
– une phase juridictionnelle : si la Commission n’est pas convaincue par les éléments
apportés par l’Etat membre, elle émet un avis motivé laissant à celui-ci un délai,
généralement de deux mois, pour modifier les dispositions nationales qu’elle n’estime pas
conformes au droit de l’Union européenne. Si l’État membre ne procède pas à des
modifications ou s’il ne donne pas des signes tangibles qu’il a engagé ce processus, la
Commission peut saisir d’un recours en manquement la Cour de justice de l’Union
européenne.
Selon les informations disponibles, la Commission européenne devrait se prononcer au mois de
septembre 2011 sur la licéité de l’article 103 de la loi de 1986 au regard du droit européen. Si elle
émettait un avis motivé, exposant les motifs de droit de fait pour lesquels elle estimerait qu’il y a
manquement, cet avis lierait le contentieux, sans avoir par lui-même un caractère obligatoire ou
exécutoire.
Dans cette hypothèse, les pouvoirs publics auraient à prendre une décision déterminante. Ils
pourraient entreprendre de modifier la loi, ce qui ouvrirait un choix : soit abroger purement et
simplement l’article 103 ; soit en différer la date d’effet ; soit s’efforcer d’en rendre la teneur
conforme au droit européen, ce qui ne serait pas dépourvu d’aléas, même si la Commission a le
pouvoir de préciser, dans l’avis motivé, les mesures concrètes par lesquelles l’Etat membre peut
mettre fin au manquement.
A l’inverse, les pouvoirs publics pourraient s’abstenir d’entreprendre une modification de la loi,
ce qui aurait pour effet de nouer définitivement le contentieux. En cas de confirmation du
manquement par la Cour de justice, l’État français pourrait faire l’objet d’une injonction de
modifier sa législation, assortie de pénalités financières.
Ainsi, une grande partie de l’avenir de la plate-forme numérique hertzienne est conditionnée à la
position que prendra la Commission européenne dans les prochaines semaines.
III/ LA TECHNOLOGIE AU SERVICE D’UNE RESSOURCE
RADIOÉLECTRIQUE CONTRAINTE
A. Une ressource contrainte
Comme le spécifie l’article 22 de la loi du 30 septembre 1986, le Conseil supérieur de l’audiovisuel
est l’affectataire des bandes de fréquences attribuées à la radiodiffusion hertzienne. Il organise, à
ce titre, la planification de la TNT dans la bande UHF (470-790 MHz) qui est composée de 40
canaux de 8 MHz (canaux 21 à 60).
Il s’agit d’une ressource limitée, qui doit être gérée dans un double souci d’économie et
d’optimisation. Une contrainte géographique s’y ajoute : les fréquences de la radiodiffusion
terrestre sont, très souvent, soumises à des règles de coordination internationale précises, fixées
dans le cadre d’accords régionaux, appelés « Plans », et négociées sous l’égide de l’Union
internationale des télécommunications (UIT). Ce travail de coordination est nécessaire pour
assurer un partage équitable du spectre dans les régions frontalières, tout en évitant les risques de
brouillage entre des émetteurs de pays limitrophes. Il permet également d’optimiser l’usage du
spectre. Sur la base du schéma national de réutilisation des fréquences libérées par l’extinction de
la diffusion analogique, approuvé le 22 décembre 2008, le Premier ministre a souligné que cette
réutilisation devait conduire l’Agence nationale des fréquences (ANFr) à identifier, dans les zones
frontalières, les éléments constitutifs d’un plan de fréquences cible pour la radiodiffusion
numérique de terre dans la bande 470-790 MHz, établis sur la base d’assignations de fréquences.
L’objectif est « de permettre à terme la diffusion en France métropolitaine de 11 réseaux de
diffusion… de TNT et de deux réseaux de diffusion pour la télévision mobile personnelle ».
Après trois années de négociations, si la signature d’accords avec les pays frontaliers sur un plan
comportant huit multiplex est en bonne voie, l’issue des discussions sur un plan comprenant
onze multiplex semble bien incertaine, notamment dans les zones situées à proximité du
Royaume-Uni, de la Belgique, du Luxembourg, de l’Allemagne et de la Suisse. Or ces zones
représentent à elles seules près de 30% de la population métropolitaine et comptent des villes
importantes comme Lille, Strasbourg, Lyon ou Rennes. La couverture d’un éventuel neuvième
multiplex pourrait difficilement aller au-delà de 85% de la population, ce qui présenterait un
intérêt uniquement pour des programmes n’exigeant pas une diffusion plus large, et encore au
prix de réaménagements de fréquences importants et coûteux. Aussi, en l’absence de tout autre
prélèvement qui serait effectué au nom d’un éventuel «second dividende numérique», la ressource
disponible la plus probable à l’horizon 2020 est de huit multiplex à couverture homogène et
conforme aux objectifs fixés par la loi de 2007.
Selon les principaux opérateurs français, l’intérêt d’un «second dividende numérique» n’est pas
susceptible de se présenter, au regard des besoins prévisibles de l’internet à haut débit en
mobilité, avant 2020. Si les besoins devenaient particulièrement importants auparavant, il serait
toujours possible de réaffecter aux services mobiles dits de troisième génération, voire de
quatrième génération, les bandes GSM 900 et 1800 encore occupées principalement par les
services de deuxième génération. Le cadre défini par l’Autorité de régulation des communications
électroniques et des postes le prévoit expressément pour la 3 G et devrait le permettre
prochainement pour la 4 G, sans pour autant fixer une date de « basculement obligatoire »
comme cela a été le cas pour l’extinction de la diffusion analogique de la télévision. Si de
nouvelles fréquences étaient soustraites de la bande attribuée à l’audiovisuel dans la même
proportion qu’aux États-Unis, il ne serait pas possible de planifier, dans la partie du spectre
affectée à la TNT, plus de cinq multiplex avec une couverture de 95%, soit un de moins
qu’aujourd’hui et six de moins que l’objectif assigné en 2008 par le Gouvernement. Le Conseil
supérieur de l’audiovisuel serait, en outre, contraint de procéder à une nouvelle planification
particulièrement coûteuse pour les chaînes concernées par des réaménagements de fréquences,
mais aussi pour le contribuable. Enfin, la perte d’une part importante des fréquences aujourd’hui
allouées au secteur de l’audiovisuel rendrait impossible le passage de l’ensemble des chaînes de la
TNT à la haute définition, sauf à envisager une réduction du nombre des chaînes, ce qui serait
évidemment inacceptable.
Pour toutes ces raisons, liées à la hausse très importante de besoins concurrents, il est
indispensable de disposer de normes de compression et de diffusion toujours plus performantes
pour la transmission du signal. La compression est l’opération consistant à réduire la quantité
d’information qu’il est nécessaire de diffuser pour transmettre un message sans perdre
l’information utile ; elle permet de réduire le débit nécessaire pour transmettre un message
numérique. La diffusion est la technique utilisée pour transporter un signal de télévision, qu’il soit
analogique ou numérique.
A titre de comparaison, imaginons qu’une personne veuille transmettre un message sur papier à
une autre personne par l’intermédiaire d’un tuyau. La norme de diffusion correspond à la taille du
tuyau, alors que la norme de compression est relative à la manière dont le papier est plié pour
circuler dans le tuyau.
Le choix des normes de compression et de diffusion est donc un instrument majeur dans la
recherche de l’optimisation du spectre des fréquences. En vertu de l’article 12 de la loi du 30
septembre 1986, il relève d’un arrêté interministériel pris après avis du Conseil supérieur de
l’audiovisuel.
B. Les normes de compression : du MPEG 2 au MPEG 4
Deux normes de compression coexistent sur la plate-forme numérique hertzienne terrestre. La
norme MPEG 2 est utilisée pour les chaînes gratuites en définition standard (SD), ainsi que pour
les chaînes payantes durant leurs plages en clair obligatoires. La norme MPEG 4 est employée
pour les chaînes payantes et pour les chaînes diffusées en haute définition (HD), ainsi que pour
toutes les chaînes outre-mer. Le choix du MPEG 2 pour les chaînes et les plages en clair avait été
décidé en 2004 essentiellement pour favoriser le lancement de la TNT, les équipements de
réception en MPEG 4 étant d’un coût sensiblement plus élevé.
La norme de compression MPEG 4 est nettement plus performante que la norme MPEG 2, en
raison notamment d’une meilleure efficacité des algorithmes d’encodage des signaux. La
puissance croissante de calcul des équipements de tête de réseau et des équipements de réception
(téléviseurs et adaptateurs) a permis un développement rapide du MPEG 4, à des coûts de plus
en plus réduits, depuis le lancement de la TNT. Les tests subjectifs, utilisés dans le secteur des
télécommunications pour mesurer la qualité ressentie, montrent que cette norme permet
d’obtenir une qualité visuelle équivalente à celle du MPEG 2 avec un débit qui, au prix de
quelques améliorations, pourrait être de 2 à 2,5 fois plus faible. Ces gains d’efficacité
permettraient de dégager un supplément de ressource radioélectrique : par exemple, un même
multiplex pourrait porter dix chaînes gratuites en définition standard au lieu de six aujourd’hui.
La généralisation du MPEG 4 permettrait aux chaînes qui sont actuellement diffusées
simultanément en définition simple et en haute définition de réaliser d’importantes économies, en
mettant fin à cette double diffusion. Mais elle ne permettrait pas, à elle seule, d’assurer le passage
de l’ensemble des chaînes existantes à la haute définition. De nouvelles normes de compression
sont déjà à l’étude au sein des organismes internationaux de normalisation. L’une d’elles, plus
connue sous le nom de high efficiency video coding, permettrait de garantir une qualité de vidéo
identique à celle du MPEG 4, mais avec un débit deux fois inférieur. Le nouveau standard HEVC
devrait être définitivement mis au point au début de l’année 2013. Une application commerciale, à
grande échelle, des premiers services codés en HEVC, avec ce que l’on commence à appeler
« l’ultra haute définition », exigerait naturellement plusieurs années. Toutefois, il faut souligner
que cette norme, telle qu’elle est connue à l’heure actuelle, n’est pas compatible avec le MPEG 4
et impliquerait donc une adaptation supplémentaire des équipements de réception.
C. Les normes de diffusion : du DVB-T au DVB-T2
La norme DVB-T2 est une évolution de la norme DVB-T, conçue pour partie en France, qui est
actuellement utilisée pour la diffusion de la télévision. Selon les premières estimations
disponibles, elle garantirait un débit légèrement supérieur à 35 Mbit/s, soit une augmentation de
près de 40% par rapport à une diffusion en DVB-T. Ces évaluations doivent être complétées
dans la mesure où la réalité dépendrait des paramétrages qui seraient retenus eu égard aux
spécificités de la diffusion en France.
Le DVB-T2, caractérisé par un débit numérique élevé, une plus grande robustesse du signal et
une meilleure flexibilité de configuration, permettrait de diffuser par exemple : dix chaînes par
multiplex en définition standard en MPEG 2 au lieu de six ; dix-sept chaînes par multiplex en
définition standard en MPEG 4 au lieu de dix ; quatre chaînes par multiplex en haute définition
au lieu de trois.
Avec la norme DVB-T, l’adjonction de deux nouveaux multiplex aux six existants permettrait de
diffuser seulement 24 chaînes en haute définition, alors qu’il existe actuellement 28 chaînes
nationales sur la TNT (outre la ressource attribuée pour les télévisions locales et les seconds
décrochages de France 3). Faute de fréquences suffisantes, cela reviendrait à établir une
discrimination entre les chaînes diffusées en haute définition et celles qui seraient condamnées à
rester, contre leur gré, en définition standard. Cela interdirait aussi la création de chaînes
supplémentaires. Il en résulterait un paysage audiovisuel français à la fois appauvri et figé, sans
réelle perspective de développement. C’est pourquoi la plupart des professionnels, avec plus ou
moins d’enthousiasme, estime inéluctable une généralisation à terme de la norme DVB-T2 pour
optimiser la ressource radioélectrique disponible. Il sera dès lors possible, avec huit multiplex
portant chacun quatre chaînes en haute définition, de garantir le passage de l’ensemble des
chaînes existantes à la haute définition, tout en créant deux chaînes supplémentaires, peut- être
trois si la nouvelle norme présentait de meilleures performances ou si le débit attribué à chaque
chaîne était réduit. Il serait cependant impératif que les caractéristiques techniques de la norme
DVB-T2 « à la française » puissent, comme le demande le « Forum HD », permettre la
conservation des actuels pylônes d’émission et ne pas imposer le changement des antennes de
réception.
Si le choix d’une nouvelle norme de diffusion ne devrait pas soulever de difficultés excessives
dans son principe, il n’en irait pas de même du calendrier de sa mise en service. Comme sur
d’autres sujets, les auditions ont fait ressortir l’existence de deux approches aux arguments
également structurés : la première est fondée sur une introduction immédiate et progressive de la
norme DVB-T2, tandis que la seconde repose sur un basculement général qui n’aurait pas lieu
avant plusieurs années.
* * *
RÉFLEXIONS ET PROPOSITIONS SUR L’AVENIR
DE LA TÉLÉVISION NUMÉRIQUE TERRESTRE
Que le secteur audiovisuel français ne puisse parler d’une seule voix sur des sujets essentiels n’a
rien d’étonnant, tant les intérêts sont divergents. Comme il l’est rappelé dans les pages qui
précèdent, les facteurs d’incertitude qui pèsent sur l’avenir sont nombreux et contraignants. Faute
de disposer d’une visibilité suffisante, certains éprouvent des difficultés à nourrir une vision.
Pour une bonne compréhension, il faut rappeler que l’ensemble des chaînes de la TNT est
actuellement réparti sur six multiplex, dénommés R1 à R6. Les services du Conseil supérieur de
l’audiovisuel ont achevé la planification de deux nouveaux multiplex. R8 est communément
considéré comme celui qui devrait accueillir les canaux compensatoires ; R7, pour lequel des
éditeurs ont récemment demandé le lancement d’un appel aux candidatures, est ouvert à de
nouvelles chaînes en haute définition ou en définition standard. Mais il ne s’agit que d’une
commodité de langage car R7 et R8 ont des caractéristiques identiques : ils sont en mesure de
couvrir dès à présent 33% de la population métropolitaine (dont l’Île-de-France) et devraient
dépasser, dans le délai d’un an, le taux de 95% comme les autres multiplex.
I. Les hypothèses retenues
Les hypothèses qui suivent ont été retenues pour bâtir les scénarios qui seront précisés plus loin.
La plupart d’entre elles s’appuient sur des chiffres, d’autres sur l’expérience, quelques unes
relèvent de l’intime conviction. Elles répondent, en tout cas, au même souci : éviter la simple
prévision, forcément aléatoire, ainsi que le consensus mou, au confort apparent mais trompeur.
1. La proportion des foyers français équipés d’au moins un téléviseur ne cesse d’augmenter : elle
atteint aujourd’hui 98,5%. L’annexe 2 rappelle quelques données sur le marché des téléviseurs ;
selon l’institut GfK, la tendance observée ces dernières années devrait se prolonger en 2011, mais
sans doute à un moindre rythme en raison de l’achèvement du passage au tout numérique. Le
prix de vente moyen d’un téléviseur est tombé à 450 euros environ.
2. La plate-forme hertzienne terrestre est aujourd’hui celle qui a la préférence des téléspectateurs.
Plus de 60% des foyers sont équipés d’au moins un téléviseur disposant d’un adaptateur TNT,
externe ou intégré, raccordé à une antenne « râteau » ou, beaucoup plus rarement, à une antenne
intérieure. Après l’achèvement du passage au tout numérique, ce taux sera supérieur à 65%. La
TNT est, depuis 2005, le moteur de la numérisation de la réception de la télévision. Les
études sur l’équipement des foyers montrent que la tendance principale, ces dernières années, est
l’augmentation du nombre de ceux qui possèdent à la fois la réception par l’ADSL ou par la fibre
optique et la réception par la voie hertzienne terrestre (celle-ci étant largement privilégiée pour les
récepteurs secondaires). Si l’on prend en compte l’évolution prévisible des réseaux câblés, la
moindre qualité de l’ADSL dans la diffusion d’images, notamment en haute définition, pour un
grand nombre de foyers, et la concentration de l’équipement en fibre optique sur les zones les
plus rentables, on peut estimer que la plate-forme hertzienne terrestre restera longtemps la plus
importante en nombre d’usagers de la télévision. En tout cas, elle continuera d’être l’élément
structurant de l’offre de programmes dans la mesure où elle procure aux chaînes qu’elle porte un
avantage décisif en termes de notoriété.
3. L’avenir de la plate-forme hertzienne est aussi celui de la télévision gratuite.
4. Les perspectives ouvertes à la production et à la création sont, par nature, plus
importante sur la TNT que sur les autres modes de diffusion. Elles sont étroitement liées
à la bonne santé économique des chaînes.
5. Pour ne pas se laisser dépasser par d’autres modes de diffusion, pour résister à la concurrence
toujours plus nourrie des offres disponibles sur l’internet, pour consolider la place de la télévision
régulée par rapport à la télévision non régulée, la plate-forme hertzienne terrestre doit continuer
d’évoluer et d’innover, en insistant sur ce qui fait sa force depuis l’origine : la gratuité, la simplicité
et l’universalité. En particulier, l’internet ne doit pas être perçu comme un concurrent de la
télévision, mais comme son complément. De même, la délinéarisation est un prolongement
naturel de la diffusion linéaire, pour la bonne et simple raison que l’une n’existerait pas sans
l’autre.
6. Le passage de l’ensemble des chaînes à la haute définition est un impératif, déjà
souligné par les pouvoirs publics. Les éditeurs actuels de la TNT se déclarent convaincus de son
caractère inéluctable, même s’ils sont prudents quant au calendrier. Ceux qui font part de leur
intention d’accéder à la TNT sont dans le même état d’esprit. Il est communément reconnu que,
par les améliorations qu’elle présente, la haute définition constitue un progrès au moins aussi
important que le passage du noir et blanc à la couleur. Sa qualité de diffusion est sur la TNT, à
l’instar du câble et du satellite, supérieure à celle de l’ADSL. Les Français ont largement anticipé
cette évolution puisque 67% des foyers équipés d’un téléviseur détiennent déjà au moins un
écran capable d’afficher une image en haute définition : paradoxalement, la disponibilité des
terminaux a largement précédé celle de l’offre ! La couverture des chaînes TF1 HD, France 2 HD
et M6 HD est aujourd’hui de 87% de la population métropolitaine et atteindra 95% au milieu de
l’année 2012 ; celle d’Arte HD est de 95% et sera de 97% le 30 novembre 2011 ; celle de Canal+,
qui est aussi de 95%, progressera légèrement d’ici à cette dernière date : ces petits écarts sont liés
aux taux de couverture des différents multiplex. La principale incertitude concernant le passage à
la haute définition est celle de son calendrier pour trois raisons : la disponibilité en ressource
radioélectrique ; les surcoûts de production, au moins pour certains programmes, et de diffusion,
alors qu’une augmentation des revenus publicitaires reste improbable, sauf peut-être pour une
chaîne qui serait très en avance par rapport à ses concurrentes ; la propension du public à
s’équiper en matériels de réception complémentaires. Faut-il aller jusqu’à définir plusieurs niveaux
de haute définition, consommant des quantités de ressource radioélectrique différentes, et donc
correspondant à des qualités différentes ? Cette hypothèse, suggérée par certains, ne serait pas
conforme à l’objectif d’assurer la meilleure qualité à tous les programmes sur la TNT.
7. La diffusion en trois dimensions (3D), qui est popularisée aujourd’hui par des films et des jeux
vidéo, semble devoir être réservée, en tout cas pour une période assez longue, à des programmes
très spécifiques tels que les films d’action ou de genre, l’animation, les séries à succès ou les
événements sportifs ou culturels majeurs, en raison notamment de surcoûts de production
importants et de l’obligation pour le téléspectateur d’utiliser des lunettes, du moins dans la
technologie stéréoscopique qui paraît aujourd’hui privilégiée. Actuellement, le besoin n’est pas
clairement identifié et les difficultés techniques non encore surmontées. Aussi, les perspectives de
développement de la 3D en télévision sont-elles en grande partie liées à la capacité des industriels
à proposer des récepteurs familiaux ne nécessitant pas le port de lunettes, mais aussi au
déploiement de la fibre optique. Au-delà, on peut s’interroger sur l’intérêt réel qu’il y aurait à créer
un canal entièrement consacré à la 3D sur la TNT gratuite en raison de la difficulté de bâtir une
programmation permanente, ainsi que du coût de diffusion. Mais il ne faut pas oublier que la
haute définition a mis plus de vingt ans pour donner naissance à des chaînes de télévision…
8. La nécessité de généraliser rapidement la haute définition justifie à elle seule
l’introduction de la norme de diffusion DVB-T2 en raison de la rareté de la ressource
radioélectrique. Dans la mesure où il existe autant d’arguments en faveur d’une introduction
immédiate que d’arguments en faveur d’une introduction différée, toutes les solutions sont, a
priori, envisageables : gel des multiplex R7 et R8 afin de préparer un « saut technologique »,
lancement immédiat de R7 et R8 dans la norme DVB-T, lancement immédiat de R7 et R8 dans la
norme DVB-T2, voire lancement de R7 en DVB-T et de R8 en DVB-T2. Une introduction
progressive de la norme DVB-T2 exigerait d’être accompagnée d’une offre suffisamment
attractive pour inciter les téléspectateurs à s’équiper d’un adaptateur ou à changer de téléviseur.
9. D’un point de vue économique, si la situation actuelle des grands groupes audiovisuels ne
suscite pas d’inquiétude particulière, les nouvelles chaînes de la TNT reposent encore aujourd’hui
sur un équilibre financier fragile. Le phénomène de concentration constaté depuis deux ans
pourrait donc se poursuivre ; il n’est pas en soi condamnable. De plus, l’augmentation de l’offre
n’a pas encore donné tous les résultats escomptés quant à la production de programmes inédits.
10. Concernant l’évolution du marché publicitaire télévisuel dans les prochaines années,
rien ne permet d’affirmer qu’il pourra croître à un rythme très supérieur à celui qui a été
constaté dans la dernière décennie. De même, il est peu probable que la création éventuelle de
chaînes sur les multiplex R7 et R8 ait sur le marché publicitaire un effet d’entraînement
significativement supérieur à celui qui a été observé après le lancement des nouvelles chaînes de
la TNT.
11. Pour autant, la situation du marché publicitaire ne paraît pas faire obstacle au
lancement de chaînes complémentaires. Mais il ne faut pas oublier qu’une chaîne thématique
ou ciblée sera, à l’avenir, plus exposée qu’une chaîne généraliste à la concurrence des services
proposés sur l’internet.
12. La TNT payante est à la croisée des chemins. Deux éditeurs ont exprimé leur souhait de faire
passer l’une de leurs chaînes de la TNT payante à la TNT gratuite. Un renforcement important de
l’offre payante exigerait la conception de services hautement attractifs, et donc privilégiant des
exclusivités ; il supposerait peut-être aussi une modification de la législation, par exemple en
révisant le nombre maximum d’autorisations de diffusion pouvant être détenues par un même
groupe, voire en permettant à un opérateur de multiplex de constituer lui-même, sous le contrôle
du Conseil supérieur de l’audiovisuel, le bouquet de son choix, comme c’est généralement le cas à
l’étranger.
13. La première clef de répartition des différents scénarios sera la décision de la Commission
européenne concernant la compatibilité, ou non, des canaux compensatoires avec le droit
européen.
II/ Les options envisageables
A. Y a-t-il un nombre optimum de chaînes ?
Il existe bien sûr une limite « physique » au nombre des chaînes nouvelles pouvant être lancées
sur la TNT. Celui-ci dépend notamment du nombre des multiplex disponibles, du taux de
couverture de futurs multiplex, du passage à la haute définition. Plusieurs combinaisons sont
possibles, que le présent rapport ne développera pas puisque des études sont en cours sur les
besoins futurs des différentes catégories d’utilisateurs du spectre des fréquences.
A supposer que la ressource totale en fréquences disponibles pour la TNT soit définitivement
connue, il serait très aléatoire de tenter de déterminer, a priori et dans l’abstrait, un
nombre optimum de chaînes, qu’elles soient gratuites ou payantes. Une raison simple s’y
opposerait d’ailleurs : la ressource radioélectrique nécessaire varie selon qu’il s’agit de services
gratuits diffusés en MPEG 2 SD ou de services payants comportant des plages en clair
obligatoires diffusées en MPEG 2 SD, de services payants diffusés en MPEG 4 SD, et de services
gratuits ou payants diffusés en MPEG 4 HD, outre le cas des services de médias audiovisuels à la
demande. Même en prenant en compte le fait que la loi entend favoriser le passage à la haute
définition, on ne peut préjuger de la teneur des appels à candidatures que le Conseil supérieur de
l’audiovisuel pourrait avoir à lancer, notamment s’agissant du caractère gratuit ou payant des
chaînes.
Quant à essayer de définir pour l’avenir un nombre optimum de chaînes gratuites sur la TNT – et
indépendamment de la remarque qui précède sur la haute définition -, cette tentative se heurterait
à deux séries d’incertitudes : les unes tiennent à ce qu’on ne peut à l’avance émettre une
appréciation sur la consistance et l’intérêt de projets qui ne sont pas connus ; les autres tiennent
au jugement que le Conseil supérieur de l’audiovisuel portera, le moment venu, sur la capacité de
collecte de ressources publicitaires par chaque candidat et donc sur la viabilité économique de
chaque projet. Quand il statue au terme d’un appel à candidatures, le Conseil ne se borne pas à
remplir au mieux des « cases » ; il se livre à des appréciations d’ensemble en recherchant la
combinaison la plus pertinente entre divers types de formats et de programmes.
Pour ce qui est, dans l’immédiat, de R7 et, le cas échéant, de R8, les auditions ont fait ressortir
deux positions principales, qui reposent chacune sur des arguments solides. Les uns soutiennent
qu’à la suite du trouble causé à une partie importante de la population par la substitution de la
diffusion numérique à la diffusion analogique, et compte tenu de l’état actuel et prévisible du
marché publicitaire, il serait préférable de différer toute autorisation nouvelle de création de
chaîne pendant quelques années, par exemple jusqu’à l’arrêt de la publicité sur les chaînes de
France Télévisions (1er janvier 2016). Selon ces professionnels, la priorité devrait être donnée à la
consolidation de la situation économique des éditeurs, à l’amélioration des contenus et au passage
à la haute définition. On peut ainsi entendre des expressions comme : « il faut une pause », « le
téléspectateur a besoin de souffler » ou « les chaînes doivent reconquérir leur solidité ». Le
raisonnement vaut pour R7 bien sûr, mais aussi pour R8 dans le cas où les canaux
compensatoires seraient déclarés contraires au droit européen et où les fréquences
correspondantes donneraient lieu à un appel à candidatures.
A l’inverse, d’autres font valoir que la plate-forme hertzienne terrestre ne doit pas se laisser
distancer par les plates-formes concurrentes, qu’il lui faut en permanence s’enrichir et innover, et
que l’une des voies les plus sûres est le lancement de chaînes nouvelles qui apporteraient une
réponse à des attentes que l’offre actuelle ne satisfait pas. On entend ainsi dire : « l’immobilisme
n’est jamais gagnant » ou « il faut savoir mettre en cause les situations acquises ». Le Conseil
supérieur de l’audiovisuel devrait donc être invité à lancer des appels à candidatures sans délai
pour R7, de même que pour R8 si ce dernier n’avait pas à porter uniquement des chaînes
compensatoires.
Sans être pour autant facétieux, on remarquera que cette ligne de partage recoupe souvent celle
qui divise les opinions sur l’évolution du marché publicitaire et sur la date de mise en application
de la norme DVB-T2.
Enfin, il faut être très prudent sur ce que pourraient être les souhaits du public quant au nombre
des chaînes disponibles sur la TNT. Les enquêtes d’opinion montrent en effet des résultats
contradictoires, et l’on sait que beaucoup de téléspectateurs ne regardent en fait qu’un petit
nombre de chaînes.
Pour les raisons qui ont été exposées en introduction, l’auteur du présent rapport ne prend pas
parti entre ces deux approches. Il se borne à affirmer sa conviction que l’augmentation du
nombre des chaînes et l’enrichissement des programmes ne sont pas nécessairement
deux objectifs qui s’opposeraient de manière manichéenne.
B. Quel peut être l’avenir des canaux compensatoires ?
1. Si les canaux compensatoires sont déclarés compatibles avec le droit européen par la
Commission, l’article 103 de la loi de 1986 produira son plein effet. La diffusion analogique
de la chaîne Canal+ ayant pris fin le 24 novembre 2010, l’éditeur de ce service peut à tout
moment présenter une demande en vue de bénéficier d’un canal supplémentaire à compter du 30
novembre 2011, date à laquelle toute diffusion analogique aura cessé sur l’ensemble du territoire.
Eu égard aux termes même de la loi, les éditeurs des chaînes TF1 et M6 doivent attendre le 29
novembre 2011 pour déposer leur demande, date à laquelle ces chaînes cesseront complètement
d’être diffusées en mode analogique.
Au vu des demandes dont il sera saisi, le Conseil supérieur de l’audiovisuel devra s’assurer que
chacun des nouveaux services envisagés satisfera aux conditions et critères énoncés aux deuxième
et troisième alinéas du III de l’article 30-1 de la loi de 1986. Comme l’a spécifié le Conseil
constitutionnel dans sa décision du 27 février 2007, il lui appartiendra notamment « de veiller au
respect du pluralisme des courants de pensées et d’opinions compte tenu des ressources
radioélectriques alors disponibles » et au respect des dispositions législatives tendant à limiter la
concentration. Mais, du fait de la rédaction de la loi, le Conseil supérieur de l’audiovisuel ne
disposera que d’une marge d’appréciation limitée par rapport à celle qu’il détient lorsqu’il examine
les suites d’un appel à candidatures.
Par ailleurs, l’éditeur devra souscrire des obligations renforcées de soutien à la création s’agissant
de la production et de la diffusion d’oeuvres cinématographiques et audiovisuelles européennes et
d’expression originale française. Ces obligations auront été préalablement fixées par un décret en
Conseil d’État.
Le fait que les canaux compensatoires ne soient pas déclarés contraires au droit européen par la
Commission n’interdit naturellement pas que la Cour de justice ait à se prononcer sur ce point,
par exemple à la suite d’une question préjudicielle posée à l’occasion d’un recours formé devant le
Conseil d’État contre une décision du Conseil supérieur de l’audiovisuel accordant l’autorisation
de diffusion à l’un des trois éditeurs concernés.
Toujours dans l’hypothèse où les canaux compensatoires ne seraient pas déclarés incompatibles
avec le droit européen par la Commission, certains professionnels suggèrent que l’octroi des
autorisations susceptibles d’être accordées en application de l’article 103 soit différé. Selon eux, ce
report pourrait être justifié soit par un motif économique (la fragilité des nouvelles chaînes de la
TNT, la situation du marché publicitaire, l’attente de la suppression totale de la publicité sur les
chaînes de France Télévisions), soit par un motif juridique (l’inconnue s’attachant à la licéité des
canaux compensatoires tant que la Cour de justice n’aurait pas statué), soit par un motif
technique (la perspective d’un « grand soir » associant la généralisation de la norme MPEG 4 et
l’introduction de la norme DVBT-2). Cependant, il se peut que la loi qui serait nécessaire pour
décider ce report coure un risque d’inconstitutionnalité : d’une part, parce que le motif qui serait
invoqué, sauf s’il s’agissait du motif juridique, pourrait être regardé comme n’étant pas, par luimême,
de nature à justifier le report au regard de la remise en cause des droits acquis conférés par
l’article 103 ; d’autre part, parce que le report aboutirait à laisser des fréquences inutilisées pour
une période assez longue et, qui plus est, d’une durée pouvant être indéterminée, ce qui serait
susceptible de constituer une atteinte au principe constitutionnel de la liberté de communication.
Au surplus, cette situation risquerait de faire naître des préjudices pouvant donner lieu à
indemnisation par l’État.
Il faut enfin préciser que, si l’une des chaînes déclarait expressément renoncer au bénéfice de son
canal compensatoire – ce qui semble possible s’agissant d’un droit « subjectif », donc d’un droit à
la libre disposition de son titulaire -, la ressource rendue disponible devrait faire l’objet d’un appel
à candidatures. La chaîne ne pourrait probablement plus revenir sur sa renonciation après le
lancement de cet appel.
2. Si la Commission européenne émet un avis motivé, donc une position négative, sur les
canaux compensatoires, il paraît préférable que l’article 103 de la loi de 1986 soit abrogé –
34
et ce, même si la Cour s’abstient d’ordonner, à titre conservatoire, la suspension des dispositions
législatives françaises contestées-.
En effet, outre la question de constitutionalité évoquée ci-dessus, un simple report, par la loi, de
la date d’attribution des autorisations créerait une situation d’incertitude et d’insécurité
empêchant les opérateurs d’envisager sereinement l’avenir du paysage audiovisuel, alors que la
possibilité d’une décision de la Cour de justice favorable à l’article 103 serait très faible : en 2010,
sur 128 recours en manquement d’Etat introduits devant la Cour par la Commission, seuls 12 ont
été rejetés. L’intérêt d’un tel report n’est donc pas certain.
Les pouvoirs publics pourraient aussi tenter de modifier l’article 103 pour le rendre conforme au
droit européen. Mais cette solution ne serait pas sans risque, même si la Commission a le pouvoir
de définir des mesures concrètes mettant au fin au manquement, il semble, au regard de la
pratique de la Commission qui se prononce exclusivement sur le plan juridique dans de tels cas,
que l’avis motivé ne ferait pas ressortir à quelles conditions précises l’article 103 devrait être
modifié pour être jugé conforme aux directives de 2002.
Quant à laisser l’article 103 en l’état, ce serait une solution aléatoire. Les trois éditeurs concernés
ne manqueraient pas de demander les autorisations prévues, et ils pourraient être tentés de
commencer à les exploiter (en 2010, la durée moyenne de la procédure devant la Cour saisie d’un
recours en manquement a été supérieure à seize mois et demi). En cas de confirmation de l’avis
de la Commission par la Cour, et même s’il serait aisé de démontrer qu’ils ne pouvaient ignorer
les risques qu’ils prenaient, ils seraient en droit de demander que l’État les indemnise du préjudice
subi, en obtenant par exemple le remboursement des dépenses utiles et justifiées qu’ils auraient
engagées, diminuées des recettes perçues, ou la contrepartie de la rémunération des capitaux
investis et immobilisés. Des éditeurs concurrents pourraient demander à être dédommagés des
pertes de ressources publicitaires résultant de l’exploitation des canaux jugés en définitive illicites.
Certes, on peut objecter que la jurisprudence du Conseil d’État encadre de manière rigoureuse la
responsabilité du fait des lois, dont les conditions de mise en jeu sont très restrictives. On peut
aussi soutenir que l’abrogation pure et simple de l’article 103 serait, elle aussi, susceptible de faire
naître des préjudices indemnisables. Mais, d’une part, le montant de la réparation due par l’État
serait moindre dans cette dernière hypothèse ; d’autre part, l’abrogation empêcherait l’apparition
d’une situation d’incertitude prolongée qui serait en réalité préjudiciable à tous.
C. Pour quelle date faut-il prévoir la fin de la norme de compression MPEG 2 ?
Choisir la norme la plus pertinente pour la compression du signal est essentiel pour parvenir à
une gestion optimale du spectre des fréquences.
La norme MPEG 4 est utilisable aussi bien pour la définition standard que pour la haute
définition. En revanche, la réception de la haute définition exige que le téléspectateur soit muni
d’un équipement en MPEG 4, qu’il s’agisse d’un téléviseur ou d’un adaptateur. Le passage d’un
nombre croissant de chaînes de la TNT à la haute définition impliquera donc l’extension de
l’usage de cette norme.
1. Compte tenu de l’intérêt que la norme MPEG 4 présente pour une gestion optimale du
spectre des fréquences, il est essentiel de favoriser sa généralisation et, corrélativement,
de préparer l’abandon du MPEG 2. Tous les professionnels du secteur de la télévision, mais
aussi le public, doivent être mis à même de prendre en compte au plus tôt cette mutation, dont la
justification n’est guère contestée.
Or il ne faut pas oublier que le public continue d’acquérir des adaptateurs MPEG 2 pour le
passage au tout numérique, ni que cette norme reste celle de beaucoup de récepteurs secondaires,
dont le nombre s’est accru avec les achats massifs de téléviseurs effectués ces dernières années,
notamment du fait de la généralisation de la TNT. On ne doit pas sous-estimer le sentiment de
frustration, voire le mécontentement, qui se répandraient si ces téléviseurs secondaires cessaient
d’être en mesure de remplir leur office.
Il est pourtant vivement recommandé qu’une date soit fixée dès que possible par les pouvoirs
publics, au moins comme objectif, pour l’arrêt du MPEG 2.
2. Selon les instituts Médiamétrie et GfK, en mars 2011, 67% des foyers équipés d’au moins un
téléviseur disposaient d’un écran capable de restituer des images en haute définition.
43% de ces mêmes foyers étaient équipés d’au moins un téléviseur « TNT HD », apte à recevoir
les chaînes en haute définition de la TNT. Ce niveau d’équipement, qui a pratiquement doublé en
un an, a été atteint grâce à l’attrait de la haute définition et à la perception qu’a le public d’une
extension rapide de celle-ci, alors qu’une seule obligation légale s’impose aujourd’hui aux
vendeurs professionnels : depuis le 1er décembre 2009, les téléviseurs destinés aux particuliers et
36
ayant une diagonale d’écran supérieure à 66 centimètres doivent intégrer un adaptateur
permettant la réception de l’ensemble des programmes gratuits de la TNT, en définition standard
et en haute définition. Or cette obligation s’est appliquée à une grande majorité des téléviseurs
vendus depuis son entrée en vigueur. Selon le Syndicat des industries de matériels audiovisuels
électroniques (SIMAVELEC), la diagonale moyenne des écrans commercialisés est en effet
passée de 56 centimètres en 2004 à 80 centimètres en 2008. Les écrans d’une diagonale d’au
moins 81 centimètres ont représenté les deux tiers des téléviseurs commercialisés en 2010.
En réalité, la proportion des foyers pouvant recevoir les chaînes de la TNT en haute définition
est même plus importante puisque les chiffres qui précèdent ne prennent pas en compte les
adaptateurs externes en MPEG 4. Or l’intérêt pour ceux-ci s’est beaucoup renforcé avec le
passage au tout numérique.
Selon une modélisation réalisée par les services du Conseil supérieur de l’audiovisuel, des
téléviseurs « TNT HD » devraient être présents dans 90% des foyers au quatrième trimestre 2014
et dans 95% des foyers au premier trimestre 2016. Cette estimation prend en compte le fait qu’à
partir du 1er décembre 2012, tous les matériels vendus aux particuliers devront, en vertu de la loi,
être compatibles avec la norme MPEG 4. Elle s’appuie aussi sur l’hypothèse que les
téléspectateurs déjà équipés d’un écran HD sans adaptateur TNT (si cet écran a été acheté avant
le 5 mars 2008) ou sans adaptateur TNT HD (si l’écran a été acheté entre le 5 mars 2008 et le 1er
décembre 2008) seront incités soit à acheter un nouveau téléviseur (car l’ancien aura au moins six
ou sept ans d’âge), soit à acheter un adaptateur TNT HD externe. Des événements sportifs
majeurs, comme le championnat d’Europe de football qui aura lieu en France en 2012,
accroîtront l’incitation à s’équiper en téléviseurs TNT HD ou en adaptateurs TNT HD.
3. Compte tenu des niveaux actuel et prévisible d’équipement des foyers, il est aujourd’hui
possible d’envisager une date pour la cessation de l’usage du MPEG 2. Le processus
d’arrêt serait assez semblable à celui de la diffusion analogique : il s’agirait de substituer une
technologie de diffusion à une autre sans rupture complète puisque ces deux technologies
coexistent déjà (toutefois, il ne serait peut-être pas nécessaire d’opérer par plaques régionales).
Les études menées par France Télé numérique montrent que l’arrêt de la diffusion analogique a
été réalisé sans difficulté majeure alors que 5 à 10% des foyers, selon les régions, étaient encore
entièrement dépendants de cette diffusion un mois avant le passage au tout numérique. Ainsi, il
37
n’est nul besoin d’attendre que la quasi-totalité des foyers soit équipée pour procéder à un
changement de technologie de diffusion.
Les pouvoirs publics pourraient donc fixer pour objectif que la diffusion en MPEG 2 soit
arrêtée en 2015 ou 2016, années au cours desquelles plus de 90% et, probablement, 95%
des foyers disposeront d’un équipement compatible avec la norme MPEG 4.
Naturellement, l’extinction du MPEG 2 nécessitera une forte action de communication. Il faudra
également se prononcer, le moment venu, sur la création éventuelle d’une aide financière aux
foyers les plus défavorisés, sachant que les premiers prix de vente d’un adaptateur TNT HD sont
aujourd’hui inférieurs à 30 euros dans le commerce en ligne et sont de 50 à 60 euros dans la
distribution traditionnelle, mais que ces prix diminueront rapidement, comme toujours, avec
l’augmentation des ventes.
Enfin, deux points doivent être soulignés, l’un et l’autre liés à l’insuffisance de la ressource
radioélectrique si le nombre des multiplex reste inchangé, et alors même que les chaînes TF1,
France 2, M6 et Arte n’auront plus à faire l’objet d’une double diffusion en définition standard et
en haute définition, ce qui représentera des économies substantielles pour leurs éditeurs. D’une
part, l’extinction du MPEG 2 ne pourra pas être précédée d’une période de double diffusion pour
une grande majorité de chaînes (encore faudrait il d’ailleurs que celles-ci acceptent d’en supporter
le surcoût alors que celui-ci ne serait pas compensé par des ressources publicitaires
supplémentaires). D’autre part, elle ne permettra pas à toutes les chaînes actuelles d’être diffusées
en haute définition : dans la norme DVB-T, huit multiplex ne permettent de diffuser que vingt
chaînes HD (par exemple 17 gratuites et 3 payantes), outre deux chaînes gratuites en définition
simple, le canal géographiquement partagé entre des télévisions locales et des seconds
décrochages régionaux de France 3, sept chaînes payantes en définition simple, un service à la
demande et un guide électronique des programmes.
Quant à la norme de compression HEVC, elle reste encore trop imprécise pour qu’il soit
raisonnable de la prendre en compte dès aujourd’hui, quels que soient ses bienfaits probables.
L’arrêt de l’usage de la norme MPEG 2 nécessitera, outre un changement de l’arrêté
interministériel du 24 décembre 2001 modifié, une adaptation des dispositions de l’article 30-1 de
la loi de 1986 qui imposent à la grande majorité des chaînes gratuites le maintien d’une diffusion
en définition standard, et donc en MPEG 2.
38
D. À quelle date est-il envisageable d’introduire la norme DVB-T2 ?
Au premier abord, cette question est celle qui paraît susciter les oppositions les plus tranchées
entre les professionnels et entre les experts. Mais on peut penser que ces divergences seront, avec
le temps, plus nuancées.
1. Comme il l’a été indiqué, la norme de diffusion DVB-T2 est aujourd’hui une norme définie,
même si les paramètres techniques nécessaires à son application en France doivent encore être
précisés. Naturellement, les adaptateurs DVB-T2 externes ou intégrés permettront la réception
des programmes diffusés en DVB-T. Compte tenu des exigences d’une optimisation du
spectre des fréquences, l’interrogation ne porte pas vraiment sur la nécessité que la
diffusion hertzienne terrestre passe un jour en DVB-T2 : cette évolution est inéluctable.
La question est celle des conditions et des modalités de cette mutation, notamment de
son calendrier.
Certains s’opposent à ce que la norme DVB-T2 soit rendue obligatoire pour la diffusion des
chaînes qui seront portées par les multiplex R7 et R8. Ils invoquent les arguments suivants :
– les foyers qui sont exclusivement alimentés par la voie hertzienne terrestre – soit près de
la moitié des foyers français – ne pourraient pas recevoir les chaînes ainsi diffusées car
aucun fabricant n’est en mesure de proposer, à très brève échéance, des adaptateurs et, à
plus forte raison, des téléviseurs permettant de recevoir un signal en DVB-T2. Les
chaînes ne seraient donc reçues par ces foyers, sur au moins un poste, qu’au terme d’une
période de quinze à dix-huit mois à compter de la décision de passer à la nouvelle
norme : ce délai, qui peut sembler particulièrement long, serait consacré à la définition des
paramètres techniques (débit, robustesse, etc.), à des expérimentations, au développement
de séries de production et à la mise en place dans le commerce ;
– ce serait seulement au terme de cette période qu’une loi pourrait imposer que les
téléviseurs commercialisés par des professionnels à partir d’une date déterminée soient
équipés pour recevoir les programmes diffusés dans la nouvelle norme ;
– l’introduction immédiate de la norme DVB-T2 aurait pour conséquence de réduire les
ventes de téléviseurs prévues pour 2011 et 2012, le public hésitant à acheter des
39
récepteurs dont l’utilité ne lui paraîtrait pas durable (environ 8.000 établissements ont une
activité régulière de vente de téléviseurs) ;
– elle contraindrait les opérateurs du câble, sans perspective de ressources additionnelles, à
de nouveaux investissements, s’ajoutant à ceux qu’ils viennent de supporter pour assurer
la mise à disposition des chaînes gratuites en DVB-T ;
– il serait maladroit d’annoncer dès à présent un changement de la norme de diffusion, qui
risquerait de perturber l’achèvement du passage au tout numérique (mais, dans les trois
régions métropolitaines qui ne sont pas encore passées à une diffusion terrestre
entièrement numérique, seulement 230.000 foyers environ continuent de recevoir
exclusivement la télévision analogique par l’antenne « râteau ») ;
– beaucoup de personnes viennent de consentir un effort financier, parfois important, pour
renouveler leur téléviseur (très souvent, un récepteur à écran plat muni d’un adaptateur
TNT intégré haute définition), pour acquérir un adaptateur TNT ou pour renouveler,
réorienter ou acquérir une antenne de réception. L’obligation d’acheter un nouvel
équipement, même de coût modéré, à placer à côté du téléviseur altérerait l’image de
commodité et de gratuité qui fait la force de la TNT ;
– pour certains, il serait plus judicieux de faire coïncider l’introduction du DVB-T2 avec
l’extinction définitive du MPEG 2 et la généralisation du MPEG 4 en 2015 ou 2016, ou
même plus tard avec la mise au point de la nouvelle technique de compression HEVC,
voire d’attendre l’introduction d’une nouvelle norme de multiplexage plus performante,
déjà à l’étude, le DVB–NGH. Il s’agirait ainsi d’un basculement général et maîtrisé, avec
une information massive et un accompagnement étoffé du public. C’est en quelque sorte
la théorie du « grand soir ».
Les partisans d’une introduction immédiate de la norme DVB-T2, qui serait applicable à toutes
les chaînes de la TNT créées à l’avenir, notamment à celles des multiplex R7 et R8, développent
les considérations suivantes :
– cette norme est déjà en cours de déploiement dans plusieurs pays européens, comme la
Grande-Bretagne (un multiplex de quatre chaînes en haute définition), la Suède (deux
multiplex portant au total neuf chaînes en haute définition) ou la Finlande ;- de nombreuses expérimentations ont lieu en Europe et dans le reste du monde, par
exemple en Russie, en Afrique du Sud et en Inde ;- les industriels seront, selon toute vraisemblance, en mesure de proposer des adaptateurset des téléviseurs appropriés dans un délai inférieur à dix-huit mois à compter de ladécision de passer à la nouvelle norme : en effet, les travaux sur la définition desparamètres ont déjà commencé depuis plusieurs mois, et surtout le délai de disponibilitédes adaptateurs devrait être abrégé ;- les opérateurs techniques de diffusion seraient en mesure de mettre rapidement en
application la nouvelle norme ;- pour le téléspectateur, le passage au DVB-T2 serait beaucoup plus simple que lasubstitution de la diffusion numérique à la diffusion analogique ou même que le passage àla haute définition. Le coût d’un adaptateur, s’il était nécessaire pour un téléviseur non
équipé, ne devrait pas excéder, dans un premier temps, quarante à cinquante euros, avant
de baisser rapidement avec l’augmentation des ventes. Il est intéressant de noter que le
nombre des personnes qui ont demandé le bénéfice des aides financières accompagnant
le passage au tout numérique est beaucoup plus faible que ce qui avait été prévu par les
pouvoirs publics ; – il serait possible de lancer les chaînes autorisées en DVB-T2 sans attendre leur diffusionhertzienne puisqu’elles pourraient être reçues, sur au moins un poste, et sans nécessité d’un équipement complémentaire, dans les foyers desservis par l’ADSL et le satellite, ainsi que par les réseaux câblés qui ne sont pas alimentés par la voie hertzienne, soit environ
45% de la population ;
– le lancement des multiplex R7 et R8 en DVB-T2 permettrait d’adresser un signal fort à
l’ensemble de la filière télévisuelle et de disposer d’une offre de programmes
suffisamment attractive pour inciter rapidement une partie du public à s’équiper d’un
adaptateur ou à changer de téléviseur. En effet, étant déjà présente sur la TNT, la haute
définition ne peut pas être utilisée, contrairement à ce qui se passe dans plusieurs pays
étrangers, comme incitation à s’équiper pour recevoir le signal en DVB-T2. Ne pas saisir
l’opportunité de la mise en service de R7 et R8 handicaperait fortement le passage
ultérieur du parc de récepteurs à la nouvelle norme ;
– le surcoût éventuel lié à l’introduction du DVB-T2 serait en grande partie compensé par
la baisse permanente des coûts de fabrication des téléviseurs mis sur le marché ;
– les Français acquièrent l’habitude de renouveler leurs équipements de réception à un
rythme relativement rapide (aujourd’hui, sept à huit ans pour un téléviseur) et il n’est pas
anormal, en une période où les technologies évoluent aussi vite, que la plate-forme
hertzienne terrestre connaisse des transformations fréquentes lorsqu’elles sont
bénéfiques ;
– le lancement de chaînes diffusées en DVB-T2 amorcerait une redynamisation de l’offre
de programmes, tout en laissant suffisamment de temps aux chaînes existantes pour
s’adapter.
Les arguments exposés en faveur d’une introduction immédiate et progressive de la norme,
comme ceux qui sont invoqués en faveur d’une application différée et générale, sont structurés et
étoffés.
2. En raison des délais inévitablement longs que requiert la mise en place effective d’une
nouvelle norme de diffusion, il est très souhaitable que les pouvoirs publics, s’ils sont
convaincus du caractère inéluctable du passage au DVB-T2, en prennent dès que
possible la décision de principe. Il faut être conscient que le passage au DVB-T2 est impératif
si l’on veut lancer de nouvelles chaînes en haute définition, sans obérer la migration des chaînes
existantes vers celle-ci. Encore faut-il souligner qu’au-delà de deux nouvelles chaînes, la
disponibilité d’un neuvième multiplex serait nécessaire, sauf à ne pas envisager le passage de
certaines chaînes payantes à la haute définition. De plus, il n’est pas acquis aujourd’hui que ce
multiplex pourrait avoir une couverture supérieure à 85%.
S’agissant du calendrier et des modalités de ce processus, le choix est éminemment politique au
sens élevé du terme. Il doit être fait dans la sérénité, à l’abri de toute initiative débridée.
La décision pourrait-elle être différente pour R7 et pour R8, les chaînes de R7 étant diffusées
dans la norme actuelle, les chaînes de R8 utilisant le DVB-T2 ? Indépendamment de toute
interrogation sur sa validité au regard du principe d’égalité, une différence de traitement entre les
deux multiplex serait d’une application difficile : selon quels critères le Conseil supérieur de
l’audiovisuel pourrait-il choisir d’affecter l’un des multiplex plutôt que l’autre à une chaîne qui
aurait déposé des dossiers de candidature aussi bien pour R7 que pour R8 ? En outre,
l’équipement en adaptateurs et téléviseurs aptes à recevoir les programmes diffusés en DVB-T2
serait favorisé par une offre attractive de huit chaînes, qu’il s’agisse de chaînes nouvelles ou de
chaînes passées à la haute définition.
Pour s’en tenir à l’essentiel, imposer le DVB-T2 aux chaînes de R7 et de R8, c’est soumettre les
téléspectateurs desservis exclusivement par la TNT à de nouvelles contraintes, d’ordre matériel,
financier et psychologique, peu après le passage au tout numérique. C’est introduire, entre les
téléspectateurs, une différenciation, certes provisoire, quant au nombre des chaînes pouvant être
reçues par la TNT, service universel de la télévision. C’est limiter à environ 45% de la population
la desserte potentielle des nouvelles chaînes pendant douze à dix-huit mois.
A l’inverse, différer l’entrée en service de la norme DVB-T2, c’est obérer sérieusement la
recherche de l’optimisation de la gestion des fréquences assignées à l’audiovisuel. C’est entraver le
passage de toutes les chaînes à la haute définition, ainsi que leur diffusion sans couverture
dégradée. C’est ne pas profiter de la perspective d’un enrichissement plus marqué de l’offre à
moyen terme.
Décider l’application de la norme DVB-T2 aux multiplex R7 et R8 semble être, en l’état
actuel, une réponse plus pertinente à la satisfaction de plusieurs impératifs d’intérêt
général : garantir la pérennité de la ressource radioélectrique nécessaire à l’audiovisuel ;
permettre l’enrichissement de l’offre de programmes, avec l’extension de la haute
définition et le lancement de nouvelles chaînes ; consolider la situation économique d’un
secteur audiovisuel qui doit affronter des concurrences toujours plus vives.
3. Les deux normes de compression et de diffusion sont d’égale importance dans une démarche
volontariste d’optimisation de l’usage du spectre. Mais imposer aux téléspectateurs deux
modifications à quelques années d’intervalle peut susciter des hésitations légitimes. C’est
pourquoi il est proposé d’assurer la meilleure articulation entre, d’une part, la généralisation du
MPEG 4 et l’arrêt du MPEG 2, envisageables à compter de 2015 ou 2016, et, d’autre part, la mise
en service du DVB-T2. Mener ces deux processus de façon totalement indépendante dans le
temps sèmerait la confusion parmi le public et contraindrait les téléspectateurs à s’équiper de
deux adaptateurs différents. Cette hypothèse de travail est donc à écarter.
Il faudrait, au contraire, coupler les deux processus en imposant aux fabricants de produire, dès
que possible, des adaptateurs externes qui seraient obligatoirement compatibles à la fois avec le
MPEG 4 et avec le DVB-T2. Ainsi, la généralisation du MPEG 4 profiterait directement à la
mise en service du DVB-T2.
La même compatibilité serait imposée aux adaptateurs intégrés dans les téléviseurs, sur la base
d’un calendrier s’inspirant de la formule utilisée pour la généralisation du MPEG 4, qui
comportait plusieurs étapes en fonction de la dimension des récepteurs. Ce calendrier devrait être
établi au terme d’une concertation très étroite avec l’ensemble des professionnels. Il est important
de préciser que l’association de la comptabilité avec le MPEG 4 et de la comptabilité avec le
DVB-T2 dans un même adaptateur, externe ou intégré, n’aurait qu’une très faible influence sur le
prix de revient de cet équipement.
Outre qu’il réduirait les inconvénients pratiques et financiers pour les téléspectateurs, ce
couplage favoriserait l’adhésion de ceux-ci aux deux technologies. En quelque sorte, les
deux normes s’entraîneraient l’une l’autre au bénéfice de l’optimisation de la ressource
radioélectrique.
* * *
DERNIÈRES OBSERVATIONS
Quand l’on réfléchit à l’avenir de la télévision numérique terrestre, des mots tels
qu’« interrogation », « incertitude », « inconnue », viennent très vite à l’esprit, comme le montre la
première partie du présent rapport. Cela se justifie aisément par l’ampleur et la rapidité des
mutations qui affectent l’audiovisuel. Cela explique pourquoi les responsables peuvent éprouver
des difficultés à construire une vision et à définir des stratégies.
Il est pourtant indispensable que le Gouvernement, l’autorité de régulation et les professionnels,
chacun pour ce qui relève de sa responsabilité, aient la vision la plus claire et la plus complète
possible de ce que la TNT pourra être à l’horizon de cinq ans, ou même au-delà. Ce rapport n’a
pas la prétention d’en exposer une. Dans sa seconde partie, il énonce les hypothèses d’évolution
qui lui paraissent les plus raisonnables et les plus vraisemblables. C’est sur leur fondement qu’il
énumère certaines recommandations dans une démarche de vérité. Toutes ces préconisations ne
peuvent évidemment recueillir un consensus. Celles qui sont relatives aux normes de
compression et de diffusion ont pour seul but de garantir que l’audiovisuel disposera de toute la
ressource radioélectrique nécessaire au lancement de chaînes nouvelles et au passage de chaînes
existantes à la haute définition.
Le débat « technologique », qui a tendance à se focaliser sur la norme de diffusion DVB-T2, ne
doit pas occulter la question, bien plus immédiate, de la généralisation du MPEG 4. Une gestion
optimale du spectre implique, en effet, de jouer à la fois sur les normes de compression et de
diffusion, en choisissant systématiquement les plus performantes.
Un dialogue régulier et approfondi, libre de tout tabou, avec les professionnels sera une nécessité.
La haute qualité des échanges qui ont eu lieu lors de l’établissement du présent rapport est la
preuve que les autorités publiques auront tout à gagner de cette concertation.
La TNT est aujourd’hui un acquis trop précieux pour qu’on l’expose à des comportements
immobilistes aussi bien qu’à des décisions précipitées. Elle doit innover, s’enrichir, se
perfectionner. Mais elle doit également être préservée de tout ce qui pourrait altérer sa viabilité
économique.
Le scénario le plus pertinent sera donc celui qui combinera au mieux esprit de responsabilité et
volonté d’ambition.
Une attention toute particulière devra être portée au public. Outre la nécessité de délais de
prévenance suffisants, la justification de toute modification affectant les normes de compression
ou de diffusion devra être présentée avec doigté à des téléspectateurs qui auront besoin d’adhérer
à un changement souvent perçu comme une nouvelle contrainte. Le remarquable travail accompli
par le groupement d’intérêt public France Télé numérique est une illustration exemplaire de ce
que peut être une action massive d’information et d’accompagnement des téléspectateurs. En
raison du nombre de ses usagers, de son accès gratuit, de son universalité, de son effet structurant
sur l’offre de programmes, la plate-forme hertzienne terrestre ne peut pas évoluer dans les mêmes
conditions que les autres modes de diffusion, c’est-à-dire sans que soit prévu un
accompagnement approprié. C’est pourquoi il faut réfléchir à la pérennisation, sous une forme ou
sous une autre, de France Télé numérique, ne serait-ce que, dans l’immédiat, par la mise en place
d’une fonction de veille.
L’objet du présent rapport n’est pas la qualité des programmes, notion ô combien subjective : en
chaque Français sommeille un directeur des programmes qui sait exactement ce qu’il faudrait
diffuser sur chaque chaîne à tout instant ! Le Conseil supérieur de l’audiovisuel, chargé par la loi
de veiller à la qualité des programmes et de formuler des propositions pour leur amélioration, a
entrepris à ce sujet un travail avec les chaînes, dans le respect de leur liberté éditoriale. La crainte
de se tromper sur l’audience escomptée ne doit pas entraver la prise de risque. Notre télévision
doit résister à la pression de l’uniformisation et de la mondialisation ; elle doit préserver une
tonalité typiquement française. Si le téléspectateur ne trouve pas sur la TNT la réponse pertinente
à ses attentes, il s’en détournera peu à peu.
Beaucoup dépendra donc de l’appréciation portée par chacun sur la qualité de l’offre de
programmes, de l’adhésion de chacun aux évolutions technologiques qui pourraient être mises en
oeuvre. La seule certitude, c’est bien que l’avenir de la TNT est entre les mains du public.
0
septembre 12, 2011
TF1 a trouvé son porte parole au CSA, car la conclusion de M Boyon laisse entendre qu’il y a pénurie de fréquences pour satisfaire les nouveaux entrants.
Or dans la partie technique de ce rapport il est précisé que le nombre de multiplex national est de 8 avec une couverture de 95% du territoire dont 6 déjà utilisés pour les chaines TNT actuelles. Donc il est possible de lancer sur le multiplex R7 10 nouvelles chaines standards que la majorité des TV peuvent capter dès aujourd’hui et lancer en 2013 le multiplex R8 dans la nouvelles norme en DVB-T2 pour 4 chaines HD supplémentaires. Enfin il reste 3 autres multiplex avec un taux de couverture de 85% soit au choix 30 chaines mpeg4 disponibles immédiatement ou 12 chaines HD disponibles en DVB T2 en 2013. A vous de conclure si il y a encore de la place ou non !
septembre 13, 2011
Merci Renaud de cette étude de qualité, fruit du travail de nombreux experts. Toutefois quel dommage de n’avoir traité en aparté l’impact de l’évolution du mobile dans la consommation TV ni d’avoir posé la question de savoir si la télé pourra se passer des médias sociaux? Lorsque l’on interdit la citation de ces derniers à l’antenne (Twitter, facebook…)
Le marché mondial de la télévision est principalement affecté par la chute des recettes publicitaires de presque 10% que ne suffisent pas à compenser les revenus issus de la télévision à péage et le financement public. Il est bon de rappeler quelques chiffres pour nous situer: les États-Unis demeurent le premier marché mondial avec un CA de plus de 100 milliards d’euros en 2009. L’Europe réalise comme second marché un CA de 82 milliards d’euros pour la même période. Le poids du marché européen dans le marché mondial connaît une lente érosion. Le Royaume-Uni, l’Allemagne et la France tirent la croissance du marché et pèsent à eux seuls 44% des revenus de la zone.
Il est aussi aujourd’hui également difficile, d’ignorer la vidéo à la demande (VOD), système qui permet à ses utilisateurs d’accéder et de visionner des programmes vidéo quand ils le souhaitent. Producteurs de contenus, agences, chaînes de télévision, distributeurs, tous les acteurs de l’audiovisuel sont concernés potentiellement par la VOD car elle dessine de nouveaux marchés et offre de nouvelles opportunités de croissance.
Avec le développement du haut-débit que l’on connaît, le déploiement de l’offre gratuite et le succès des sites de réseaux sociaux comme YouTube, Dailymotion, Linkedin et facebook, la vidéo prend une dimension de grande ampleur sur Internet. Au moment où chacun s’improvise producteur, journaliste ou acteur avec son iphone, on se présentera bien demain en associant l’image et le son, les intranet d’entreprises devraient adopter le format vidéo, les réseaux sociaux adaptent leurs sites pour diffuser des vidéos et films avec des capacités de stockage de plus en plus grandes.
Au moment où le géant facebook lance la location de film en ligne, l’on peut se poser la question du financement publicitaire boycotté par nos voisins outre-Atlantique sur des espaces sociaux qu’il conviendrait d’intégrer dans nos réflexions.
Bien respectueusement
Louis-Serge Real del Sarte, Responsable de la communication Web et Community Manager de l’European Business School, Responsable de l’e-Réputation et du community management du Groupe GINGER (Grontmij France), Professeur de Marketing Digital, expert consultant en réseaux sociaux d’entreprise, fondateur d’easynetwork et auteur du livre Les Réseaux sociaux sur Internet (430 pages, éditions Alphée)