• Accueil
  • > Archives pour janvier 2011

La philosophie politique des concepteurs d’Internet

Posté par BAUDOUIN SCHOMBE le 26 janvier 2011

Par Félix Tréguer

Beaucoup de travaux ont été écrits sur l’esprit d’Internet, ou l’imaginaire d’Internet. En France, Patrice Flichy et Dominique Cardon ont eu l’occasion de se pencher sur cette question. Cardon, (qui s’appuie sur les travaux de Fred Turner), rappelle notamment qu’Internet est né de la contre-culture américaine, et en son sein d’une mouvance autonomiste cherchant à élaborer des modes de vie alternatifs au moyen d’une transformation sociale et personnelle.

 

Dans cet article, je souhaiterais revenir rapidement sur l’ethos et les pratiques des différentes communautés s’étant, à un moment donné, attelées au développement d’Internet. Qu’ils aient travaillé sur les protocoles de transport ou les applications, les dizaines de milliers de chercheurs, professeurs ou étudiants qui ont participé à la construction d’Internet sont unis par un certain nombre de valeurs qui, comme on le verra, en ont fait un réseau à part, reléguant au second plan d’autres réseaux « télématiques»1 qui pouvaient exister à l’époque2.

 

Internet, un bien commun

 

Tout d’abord, Internet fut élaboré par une communauté de chercheurs en dehors de toute pression commerciale. Alors que les modes de fonctionnement et les protocoles utilisés par les réseaux de communication existants ou en cours de développement étaient considérés comme des secrets commerciaux, Internet a été conçu dans un esprit collaboratif entre des chercheurs issus de pays et d’organisations diverses. D’ailleurs, les entreprises de télécommunication étaient à l’origine relativement sceptiques sur l’utilité d’un réseau d’un nouveau genre. En 1964, lorsque le chercheur Paul Baran de la Rand Corporation, un « think tank » affilié au Pentagone, soumet à des cadres du monopole AT&T un projet de réseau télécom fondé sur la commutation par paquets, il se voit répondre sèchement : « Tout d’abord, cela ne peut pas marcher, et même si c’était le cas, on ne va quand même pas permettre que se crée ainsi notre propre concurrent ».3 La culture scientifique de partage des connaissances dont Internet est le fruit est en contradiction avec les logiques commerciales qui voient dans le secret et la rétention d’innovations la source d’avantages compétitifs sur les concurrents potentiels.

Le modèle d’Internet est en effet fondamentalement différent, car ses fondateurs ont toujours fait en sorte que les protocoles qu’ils développaient soient publics : ces protocoles techniques n’appartiennent à personne, et donc à tout le monde. Les brevets et autres droits de propriété intellectuelle ne sont pas de mise. Chacun est libre de les tester, de les modifier, de les distribuer. Et tous ont conscience de participer à une avancée technologique majeure. Comme le résume Michel Elie, seul européen à avoir assisté à la première connexion entre les ordinateurs de UCLA et de Stanford à l’automne 1969 :

 

Les universitaires ont fourni les premiers sites, développé des spécifications en toute indépendance des constructeurs et des grands opérateurs de télécommunications, inventé les premières applications. Les contrats de l’ARPA leur assuraient l’indépendance financière nécessaire. Le partage des ressources, en matériel, logiciels, données ainsi que des ressources humaines était un objectif majeur. S’y ajoute une culture de l’échange. Le réseau devient vite aussi un moyen de soumettre à la communauté des utilisateurs des algorithmes à vérifier, des programmes à tester, des données à archiver. Il deviendra un levier pour les promoteurs du logiciel libre. Il a su galvaniser des énergies et des intelligences désintéressées, individuelles et collectives.

La décentralisation comme modèle organisationnel

 

Ce modèle de développement fondé sur le partage et la participation la plus large possible relève d’un fonctionnement décentralisé. Il n’y a pas d’organisation hiérarchique en charge de sa mise au point des standards qui s’imposent à ceux qui prennent part à cette entreprise scientifique. Certes, certaines personnalités, du fait de leur réputation due à leur contribution au projet, bénéficient d’une certaine autorité, et des structures de coordination existent. Mais le schéma organisationnel échappe à toute organisation hiérarchisée. Même l’ARPA, affiliée au Pentagone, fonctionne selon un modèle bien peu familier du monde militaire, les chercheurs y bénéficiant d’une grande liberté et n’ayant que très peu de comptes à rendre.

 

Au delà de l’ARPA, les communautés qui collaborent à la construction des codes, protocoles et différents composants de l’écosystème Internet sont fondées sur la conviction qu’une solution à un problème technique, une « bonne idée » pouvant déboucher sur une innovation majeure, peut venir de n’importe où. Aussi, la communauté doit-elle rester ouverte et fonctionner selon un modèle ouvert et méritocratique. Chacun doit être en mesure de proposer son idée. En fonction de sa pertinence, elle sera éventuellement prise en compte, débattue et, peut être, finalement mise en œuvre. C’est ce mode de fonctionnement que l’on retrouve aujourd’hui encore dans des organismes tels que l’Internet Engineering Task Force (IETF),qui est chargé de déterminer des principes communs pour l’administration des réseaux qui composent Internet. N’importe qui peut se rendre aux réunions de l’IETF et faire des propositions, s’investir dans les débats pour imposer son idée. C’est ce même schéma organisationnel qui caractérise le mouvement du logiciel libre, chacun étant libre de modifier le logiciel et de distribuer une version améliorée afin d’en faire bénéficier le reste de la communauté. Dave D. Clark, qui supervisa l’IETF de 1981 à 1989, décrit à merveille ce mode de fonctionnement lorsqu’il lance la célèbre formule :

 

« We reject kings, presidents and voting. We believe in rough consensus and running code ».

Des procédures décisionnelles basées sur le consensus

 

De l’idée qu’Internet est un bien commun et dans le choix d’un schéma organisationnel décentralisé découle une troisième conviction, censée régir les débats sur les choix techniques relatifs au développement du réseau : la recherche du consensus. Dès l’été 1968, avant même la première interconnexion entre les ordinateurs de UCLA et de l’université de Stanford, un petit groupe de travail collaborant au projet d’ArpaNet se met en place entre les quatre universités fondatrices afin de travailler à l’élaboration de protocoles de communication.

 

Après quelques mois de travaux, le groupe prend conscience qu’il serait opportun de publier des documents synthétisant le fruit de leurs réunions informelles, notamment en vue de les communiquer au reste de la communauté de scientifiques susceptibles de s’intéresser au sujet afin de les inviter à s’investir dans le projet. Steve Crocker, un étudiant à UCLA qui participe aux réunions, se propose de formaliser les avancées du groupe de travail. Toutefois, il remarque que lui et ses collègues, parmi lesquels se trouve Vint Cerf, ne sont à l’époque que de simples étudiants de deuxième cycle, et les destinataires potentiels du document sont des professeurs émérites des grandes universités de la côte Est. Ils craignent d’avoir l’air de vouloir imposer leur idées. Steve Crocker est sous pression. Une nuit d’avril 1969, il s’attèle à la rédaction d’un mémo qu’il finalise au petit matin, enfermé dans la salle de bain pour ne pas déranger ses colocataires. Il l’intitule humblement Request For Comments (RFC), littéralement « demande de commentaires ». L’e-mail n’existe pas encore et Crocker et ses collègues envoient par la poste un exemplaire à chaque université partenaire du projet, à charge pour elle d’en imprimer d’autres au besoin6

L’idée des RFC est que tout participant peut critiquer le contenu du document, ou proposer une réponse à des questions laissées sans réponse, le but étant de faire avancer la recherche et d’arriver à une définition commune. Et si le partage d’informations et le consensus sont si importants, c’est qu’Internet consiste justement à créer une harmonie technique entre des équipements et des communautés diverses. Chacun peut ainsi prendre part au débat scientifique et proposer une idée. Si suffisamment de personnes pensent qu’elle est pertinente et l’utilisent au sein du réseau qu’elles opèrent, alors cette idée devient un standard qui s’imposera pour assurer l’interopérabilité de leur propre réseau informatique avec le « réseau des réseaux ». Il y avait et il y a toujours un impératif technique au fait de parvenir à un consensus. Les désaccords devaient être surmontés.

 

Aujourd’hui, il existe plus de 5000 RFC et leur publication se fait de manière plus formelle. Les thématiques couvertes vont de questions techniques très précises à la présentation d’une vision personnelle quant au futur du réseau. Collectivement, ils retracent l’histoire d’Internet et permettent aux nouvelles générations d’ingénieurs de comprendre le processus de développement du réseau, qui peuvent alors se joindre à la conversation instruit de la richesse que renferment ces documents, qui sont tous librement accessibles en ligne. 

Du social à la technique… au social

 

Dans un article de référence, le juriste Michael Froomkin se livre à une analyse des procédures de l’IETF. Après avoir étudié la formalisation progressive de son processus décisionnel, duquel les RFC sont la composante centrale, il estime qu’il s’agit de l’institution existante qui se rapproche le plus du modèle habermassien de « situation idéale de parole », capable d’aboutir à une délibération argumentée et légitimant la prise de décision. Que l’on partage ou non son analyse, force est de constater qu’Internet est le résultat d’une « fabrique sociale » caractérisée par un esprit de collaboration et d’échange.

Même si plusieurs éléments portent à croire que les personnes qui ont pris part à cette aventure avaient l’intuition de participer à la construction d’un réseau de communication qui allait changer le monde, il importe finalement peu de savoir s’ils étaient animés d’un projet humaniste. Il suffit de se rendre compte que le but même que cette communauté scientifique s’était fixé – la construction d’un réseau de communication universel – lui a imposé de recourir à une méthodologie de travail fondée sur des valeurs d’ouverture. Or, ce mode de fonctionnement l’a conduit à faire un certain nombre de choix techniques qui, comme on le verra dans un prochain post, sont au cœur de la liberté de communication permise par Internet.

 

Notes:

 

1 Le terme « télématique », apparu pour la première fois en 1978 dans le rapport rendu par Simon Noram et Alain Minc et baptisé « L’informatisation de la Société », recouvre les applications associant les télécommunications à l’informatique.

 

2 Les développements de cette partie sur l’ethos qui préside à l’élaboration d’Internet sont fondés sur les deux sources suivantes :

 

Tim Berners-Lee , 1998, « The World Wide Web and the « Web of Life » », w3.org. Adresse : http://www.w3.org/People/Berners-Lee/UU.html

 

Lawrence Lessig, 1999, « Open Code and Open Society: Values of Internet Governance », Chicago-Kent Law Review, vol. 74, n° 102.

 

3 Cité par Lessig, 1999, op cit. p. 109.

 

4 Elie Michel, 25 décembre 2009, « Internet, retour sur les origines et la « philosophie » du Web », Le Monde.

 

5 Nous nous risquons ici à une traduction de cette célèbre phrase: « Nous rejetons les rois, les présidents, et le vote. Nous croyons dans le consensus approximatif et l’exécution de codes».

 

6 Stephen D. Crocker, 9 avril 2009, « How the Internet Got Its Rules », The New York Times.

 

7 RFC Editor est le site de référence en la matière: http://www.rfc-editor.org

 

8 Michael Froomkin. Janvier 2001 « Habermas@discourse.net: Toward a Critical Theory of Cyberspace », Harvard Law Review 116, no. 3. Adresse : http://papers.ssrn.com/sol3/papers.cfm?abstract_id=363840

 

171866568_801c0c96be.jpg
source:http://www.mediapart.fr/club/blog/felix-treguer/140111/la-philosophie-politique-des-concepteurs-d-internet
 

Publié dans INTERNET, RECHERCHE ET DEVELOPPEMENT, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TIC | 1 Commentaire »

Internet arrivera-t-il à saturation le 2 février ?

Posté par BAUDOUIN SCHOMBE le 26 janvier 2011

La société Hurricane Electric a annoncé via ses comptes Twitter et Facebook qu’Internet pourrait arriver à saturation en atteignant le nombre limite de création des adresses IP nécessaires pour chaque nouveau site.

Les comptes Tweeter et Facebook de la société Hurricane Electric ont annoncé qu’Internet ne pourrait bientôt plus supporter la création de nouveaux sites car le nombre possible d’adresses IP atteindrait son maximum. Or celle-ci est nécessaire pour chaque création sur la Toile. Le tweet évoquait même une IPcalypse.

Cette annonce se basait sur un simple calcul. Un million d’adresses IP se crée toutes les 4 heures et le protocole IPv4 ne supporte que 4 milliards d’adresses uniques. Mais si la saturation  a été prévue pour la nuit du 2 février, c’était sans compter sur une bande de génies qui ont crée le protocole IPv6, capable de gérer un plus grand nombre d’adresses IP.

Certains spécialistes craignent toutefois un problème de compatibilité entre les anciens et les nouveaux sites utilisant les protocoles IPv4 et IPv6. Ils recommandent donc à certains sites de changer d’hébergeurs pour éviter un bug lors du changement de protocole. Et devinez qu’elle est l’activité de la société Hurricane Electric ?

Source: http://www.zigonet.com/internet/internet-arrivera-t-il-a-saturation-le-2-fevrier_art19230.html

Publié dans INTERNET, RECHERCHE ET DEVELOPPEMENT, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TIC | Pas de Commentaire »

INTERNET À COURT D’ADRESSES

Posté par BAUDOUIN SCHOMBE le 26 janvier 2011

Internet est à court d’adresses, le basculement sur un nouveau standard d’adresses IP devient urgent, prévient l’Icann, l’organisme chargé de réglementer les noms de domaine sur internet pour le monde entier.

« Le grand réservoir qui distribue les adresses va être à sec dans les semaines qui viennent », explique un ingénieur de Google, Lorenzo Colitti, qui prépare le basculement du géant d’internet au nouveau standard. « En un sens, on fonce dans le mur. Il faut faire quelque chose, et (le nouveau standard) IPv6 est la seule solution réelle à long terme ».

Actuellement, internet fonctionne avec le standard IPv4, qui permet l’existence de « seulement » 4 milliards d’adresses géré par l’Icann.

l’Icann demande l’adoption du nouveau standard Ipv6 depuis plusieurs années. Ce qui qui permettra l’existence d’environ 340 sextillions d’adresses (soit 340 fois 10 suivi de 36 zéros): suffisamment pour que mille milliard de gens disposent chacun de mille millards d’adresses IP, selon le président de l’Icann Rod Beckstrom.

« J’imagine que si on trouvait une façon d’attacher une adresse IP à chaque atome on pourrait commencer à avoir des problèmes », ironise M. Beckstrom, interviewé à son bureau de Palo Alto aux USA. « Pour ce qui est du nombre d’objets que les humains possèdent et utilisent, je pense qu’on est assez tranquille », ajoute-t-il.

« L’une des raisons pour lesquelles il faut si longtemps pour changer, c’est qu’il n’y a pas d’avantage évident pour l’IPv6″, explique pour sa part M. Colitti, et que le basculement exige des investissements.

Mais avec près de sept milliards d’humains sur terre, le standard IPv4 ne permet pas à chacun d’avoir une adresse en ligne attachée à chacun de ses appareils électroniques.

Une fois que l’Icann aura fini de distribuer des adresses au standard IPv4, les ordinateurs et autres baladeurs ou téléphones portables devraient pouvoir partager des références, au lieu d’avoir des numéros identifiants uniques.

« Il va falloir commencer à partager avec les gens autour de nous, et ça pose un problème parce que les applications ne savent pas faire la différence », explique M. Colitti . « Si mon voisin figure sur une liste noire, ce sera aussi mon cas ».

« Internet n’arrêtera pas de fonctionner, il va juste se dégrader lentement », ajoute-t-il, car les systèmes finiront par avoir du mal à gérer plusieurs connexions à la fois sur des adresses partagées.

Pour l’heure, l’effort et l’investissement nécessaires pour basculer sur le standard IPv6 reposent surtout sur les fournisseurs d’accès, qui doivent faire en sorte que leurs réseaux puissent gérer ces nouvelles adresses et router le trafic.

Les consommateurs ne devraient rien remarquer: les séries de chiffres identifiant les adresses internet devraient continuer de leur apparaître sous la forme habituelle, du genre icann.org ou google.com. Certains pourraient toutefois avoir besoin de renouveler leurs routeurs ou leurs modems.

« L’important c’est que les consommateurs ne paniquent pas », assure M. Colitti, démentant tout risque d’ »IPocalypse ».

« Mais il est important que les acteurs du secteur travaillent ensemble », selon lui.

Google et Facebook, ainsi que d’autres acteurs du secteur, doivent ajouter des adresses IPv6 à leur système lors d’un essai d’une journée au printemps afin d’identifier d’éventuels problèmes: la journée mondiale de l’IPv6 commencera à 00h01 GMT le 8 juin 2011.

Un basculement total sur l’IPv6 devrait cependant prendre plusieurs années, pendant lesquelles ce qui reste d’adresses IPv4 continuera à être distribué pour faire la transition, selon M. Beckstrom.

A terme, l’IPv6 promet toujours plus d’objets « intelligents » – jusqu’aux bouteilles de vin qui pourraient prévenir à quel moment leur contenu obtient son meilleur bouquet.

Publié dans GOUVERNANCE, INTERNET, RECHERCHE ET DEVELOPPEMENT, SCIENCE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TIC | Pas de Commentaire »

Panorama de la cybercriminalité – Malveillance sur mobile : une promesse déjà ancienne

Posté par BAUDOUIN SCHOMBE le 17 janvier 2011

par Christophe Auffray, ZDNet France

Analyse – Depuis l’apparition de Cabir, premier virus pour mobiles, les éditeurs de sécurité annoncent l’émergence de la malveillance dirigée contre ces terminaux. Mais la menace peine à se concrétiser, malgré des facteurs de risque et une faisabilité technique démontrée. Les vols et l’indiscrétion des applications sont des menaces plus tangibles.

La malveillance dirigée contre les terminaux mobiles, les éditeurs de produits de sécurité laissent planer la menace depuis maintenant plusieurs années . Si des virus ont été développés, leur diffusion est demeurée relativement discrète.

Des scénarios d’attaque et des fraudes sont également évoqués. Mais globalement, la menace reste avant tout théorique et le risque potentiel. Un changement de tendance est-il à prévoir en 2011 ? Pour un certain nombre d’éditeurs d’antivirus,c’est oui . Il faut dire qu’ils ont investi pour développer des logiciels pour les principaux OS mobiles.

Le marché des mobiles très différent de celui du PC

Toutefois, ces mêmes éditeurs promettaient déjà des attaques aux alentours de 2005/2006 (et le cyber-terrorisme dès 2001 ) sans que la menace ne se confirme. A force, cette invocation deviendra sans doute réalité…

Néanmoins, si la menace ne s’est pas vérifiée en 2010, cela ne signifie pas pour autant qu’il n’existe pas de facteurs de risque et que la faisabilité technique d’attaques n’est pas établie.

« Il y a un vrai potentiel du côté du mobile puisqu’il est très connecté, beaucoup plus puissant, voit transiter de plus en plus de données personnelles » juge Eric Freyssinet, chef de la division de lutte contre la cybercriminalité à la gendarmerie nationale, qui rapportait les travaux du Clusif dans ce secteur de la sécurité.

Pour illustrer l’amplification du risque, le club français de la sécurité cite l’émergence de botnets sur mobile . « Ils n’étaient pas possibles ou n’avaient pas véritablement de sens avant que les terminaux ne deviennent assez puissants et soient connectés à Internet. En outre, on a des plates-formes ouvertes sur lesquelles il est facile de développer des applications » avance Eric Freyssinet.

Des botnets détectés sur les OS mobiles, mais peu répandus encore

Pour étayer cet argumentaire, le Clusif évoque les travaux d’un chercheur présentés en juin 2010 aux Etats-Unis et démontrant la faisabilité d’un déploiement de bots sur Android. Fin 2009, un ver permettant de transformer un iPhone en zombie était détecté. En juillet 2010, l’éditeur NetQin mettait au jour un botnet composé de smartphones sous Symbian.

Pour autant, le risque doit être relativisé, et ce pour diverses raisons. Le ver iKEE pour l’iPhone ne ciblait que les terminaux jaibreakés et dont le SSH avait été activé. De plus, par défaut, un iPhone ne permet d’installer que des applications validées par Apple sur l’App Store.

De même sur Android, le paramétrage par défaut d’un terminal bloque l’installation de logiciels ne provenant pas de l’Android Market. Par ailleurs, le PC sous Windows reste, en raison de la taille du parc, une cible privilégiée par les cybercriminels. Il est plus rentable de développer un programme malveillant compatible avec le plus grand nombre de machines.

Vols et pertes de données, des risques plus tangibles pour les entreprises

Comparativement, le marché du mobile est très fragmenté avec Android (25,5% de part de marché), iOS (16,7%), Symbian (36,6%), Bada, RIM OS (14,8%) et Windows Mobile (2,8%). Si, par exemple, l’iPhone est populaire (Apple en avait vendu plus de 50 millions en avril 2010), le parc reste faible par rapport à celui existant des PC.

Sur le seul 4e trimestre de l’année dernière,93 millions d’ordinateurs ont été vendus. Il est vrai en revanche que les ventes de terminaux mobiles explosent (plus de 1 milliard de mobiles vendus par an). Mais seuls 20% sont des smartphones, c’est-à-dire des téléphones évolués et connectés.

Le nombre de mobiles susceptibles d’intéresser des cybercriminels augmente, certes, mais n’est vraisemblablement pas encore suffisant (bien que des chercheurs aient démontré lors du CCC de Berlin la possibilité de réaliser des scénarios d’attaques par SMS , et donc de viser les téléphones classiques, c’est-à-dire hors smartphones).

Donc un risque sur les mobiles, oui, mais qu’il convient de tempérer. Les vols , et les risques en termes de pertesde données en découlant, sont des menaces en comparaison plus tangibles, en particulier pour les entreprises. Mais la réponse à ce risque n’est pas nécessairement, ou exclusivement, technologique.

Des applications pour mobile, légales, mais indiscrètes

Mais le Clusif relève une autre menace, plus concrète celle-ci, concernant les atteintes à la vie privée des utilisateurs de mobiles. Des études duWall Street Journal et de l’éditeur Lookout soulignent ainsi l’indiscrétion d’un certain nombre d’applications pour Android et iOS, qui partagent des données personnelles avec des tiers (dont des régies publicitaires) sans que les utilisateurs en soient nécessairement conscients.

Eric Freyssinet regrette par ailleurs la banalisation des outils d’espionnage et de surveillance du mobile. « Il m’est arrivé souvent cette année de m’énerver devant certains reportages sur des services commercialisés par des sociétés et permettant par exemple d’espionner sa femme, son patron, un collègue… sans avertir que l’interception de SMS ou de conversation était totalement illégale . »

Le Clusif pointe également la vulnérabilité des protocoles exploités par les opérateurs dans la téléphonie, par exemple afin d’obtenir la localisation d’un terminal ou de suivre une communication.

La complexe mise à jour des OS, un facteur de risque

« Ceux qui définissent les normes et les opérateurs vont devoir sécuriser un peu mieux nos communications » estime le chef de la division de lutte contre la cybercriminalité. Une problématique qui devra aussi être prise en compte au niveau des terminaux eux-mêmes (systèmes d’exploitation).

La correction, via des mises à jour, des vulnérabilités des OS mobiles est en effet une tâche complexe compte tenu des spécificités de ce marché – étendant potentiellement la fenêtre d’exposition.

« Il est difficile de mettre à jour un téléphone à la toute dernière version sans la coopération des opérateurs et des fabricants. Les mises à jour sont donc décalées dans le temps. Un certain de terminaux sous Android restent par exemple sur la version 1.6 ou 2.1 , et donc vulnérable à l’exploitation démontrée par la société Lookout lors de la BlackHat. Or, ces terminaux ne seront probablement jamais mis à jour car le constructeur ne fera pas l’investissement » souligne Eric Freyssinet.

« Cela pose des vrais problèmes. Je pense qu’il est nécessaire que les industriels réfléchissent, quel que soit l’OS, à la façon de gérer les mises à jour, qui n’est pas suffisamment dynamique et pas adaptée aux risques de sécurité » conclut-il.

Source:http://www.zdnet.fr/actualites/panorama-de-la-cybercriminalite-malveillance-sur-mobile-une-promesse-deja-ancienne-39757496.htm#xtor=EREC-103
 

Publié dans INTERNET, RECHERCHE ET DEVELOPPEMENT, SCIENCE, SECURITE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TELECOMMUNICATIONS, TIC | Pas de Commentaire »

L’UIT publie le « bilan 2010 » des télécoms et de l’Internet

Posté par BAUDOUIN SCHOMBE le 3 janvier 2011

Pour l’organisation internationale, « fini les taux de croissance à deux chiffres » dont ont profité les opérateurs télécoms et les équipementiers durant tout une décennie. Néanmoins, il reste encore une marge d’affaires dans les pays émergents où, « leurs parts d’abonnés mobiles […] ont connu une progression de 73% à la fin de 2010 ».

Fin d’année oblige, tout le monde y va de son « petit » bilan. Et l’Union internationale des télécommunications (UIT) vient de publier le sien sur son site Internet. Sobrement intitulé « The World in 2010 – ICT Facts & Figures », le rapport compile les principales évolutions observées tout au long de l’année 2010 dans les domaines des télécoms et de l’Internet.

D’emblée, l’organisation internationale note la croissance fulgurante de la 3G, particulièrement dans les pays développés. Elle estime qu’« à la fin de 2010, il y aura 5,3 milliards d’abonnements au téléphone mobile à travers le monde, dont 940 millions d’abonnements à des services 3G ». L’accès aux réseaux de téléphonie mobile couvre 90% de la population mondiale et 80% de la population vivant dans les zones rurales. Et d’étayer ses propos en notant que « les abonnés passent rapidement de la 2G à des plates-formes 3G dans tant dans les pays développés et que dans ceux en voie de l’être. En 2010, dans 143 pays sont commercialisés des services 3G, comparativement à 2007, où ils n’étaient que 95.

Actuellement, un certain nombre de pays ont déjà dépassé ce cap où les opérateurs télécoms ont commencé à proposer des offres à large bande passante 4G comme la Suède, la Norvège, l’Ukraine ou encore les Etats-Unis. L’autre « tendance » de taille que relève l’UIT a trait directement aux taux de croissance du marché de la téléphonie cellulaire. Fini les taux de croissance à deux chiffres qui ont fait le bonheur des opérateurs et des équipementiers télécoms pendant toute une décennie. « La croissance du marché de la téléphonie mobile se ralentit dans le monde entier. Dans les pays développés, le marché a atteint des niveaux de saturation avec en moyenne 116 abonnements pour 100 habitants à la fin de 2010 et une croissance marginale de 1,6% de 2009 à 2010 ». Néanmoins, il reste encore une marge d’affaires dans les pays émergents où, « dans le même temps, leurs parts d’abonnés mobiles […] ont connu une progression de 73% à la fin de 2010 ».

En termes de pénétration de marché du mobile, « dans les pays en développement, les taux atteindront 68% à la fin de 2010 – principalement tirés par la région Asie-Pacifique ». D’ailleurs, l’Inde et la Chine, à eux seuls, devraient « injecter » plus de 300 millions d’abonnés de plus durant cette période. Quant à l’Afrique, les taux de pénétration atteindront environ 41% seulement contre 76% au niveau mondial, laissant ainsi un « potentiel significatif » pour la croissance. Autre fait marquant pour l’UIT, les chiffres croissants des SMS qui ont pris des courbes « stupéfiantes » entre 2007 et 2010, le nombre d’envois ayant triplé durant cette période, passant de 1,8 milliard en 2007 à plus de 6,1 milliards à fin 2010, générant un chiffre d’affaires de l’ordre de 14 000 dollars par seconde, à raison d’un prix moyen du SMS arrêté par l’organisation à 0,07 dollars l’unité. Ceci dans la partie réservée aux télécoms du rapport.

Venons-en maintenant à la partie Internet. Les utilisateurs d’Internet ont doublé entre 2005 et 2010 ; où leur nombre dépassera la barre des 2 milliards, dont 1,2 milliard seront localisés dans les pays en développement. Au passage, le rapport souligne que dans « un certain nombre de pays, dont l’Estonie, la Finlande et l’Espagne, l’accès à l’Internet a été érigé en un droit pour les citoyens ». « Avec plus de 420 millions d’internautes, la Chine est le plus grand marché Internet du monde. » Aussi, « alors que 71% de la population dans les pays développés sont en ligne, seulement 21% de la population se trouvant dans les pays en voie de développement le sont. Et à la fin de 2010, le taux de pénétration d’Internet en Afrique atteindra 9,6%, loin derrière la moyenne mondiale [30%] et la moyenne des pays en développement [21%] ». Ce que l’ UIT considère dans son rapport comme « trop peu ». La suite du rapport dresse un détail sur le nombre de foyers connectés de par le monde et conclut en mettant en exergue « la fracture qu’est en train de construire l’accès à Internet haut débit », dans la mesure où si la part des pays développés dont la population dispose d’un accès à Internet fixe à large bande est en croissance constante, représentant environ 45% des émissions mondiales d’abonnements (contre 42% 5 ans plus tôt), l’Afrique reste à la traîne. « Bien que les abonnements sont en augmentation, un taux de pénétration de moins de 1% illustre les difficultés qui persistent dans l’augmentation de l’accès à haut débit dans la région ».

source:Samir Tazaïrt, mardi 28 décembre 2010

Publié dans INTERNET, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TIC | Pas de Commentaire »

 

LE CMV |
LES ANCIENS DU CHAMPS DE CL... |
Bienvenue chez moi ! |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | consensus
| presseecrite
| lesjournalistes