• Accueil


Posté par BAUDOUIN SCHOMBE le 7 septembre 2016

Le Secrétariat Exécutif du Forum National sur la Gouvernance de l’Internet a organisé la réunion inaugurale pour la présentation des acteurs membres du Groupe Consultatif Multiacteur, en sigle MAG.

Cette cérémonie s’est déroulée sous le patronage du Vice Premier Ministre des Postes, Télécommunications et NTIC le mardi 30 Août 2016 à l’Hôtel des Postes sis sur le Boulervard du 30 juin selon le programme joint à la présente invitation.

Cette séance avait pour but de sensibiliser et de mobiliser les acteurs identfiés de la République Démocratique du Congo sur la nécessité et l’importance de la plate forme nationale sur la gouvernance de l’Internet. Comme objectif principal, il s’agissait de mettre en place le Groupe Consultatif Multiacteur connu sous l’acronyme anglophone Multistakeholder Advisory Group, en sigle le MAG.
Sur 53 invités comme membres du MAG, cette séance a connu la participation de 43 personnes dont 23 membres du MAG qui ont répondu à cette invitation.

La cérémonie, présidée par le Directeur Général de la Société Congolaise des Postes et Télécommunications (SCPT), commencée à 10.20, a été clôturée par le Directeur de Cabinet du Vice Premier Ministre à 12.25.

les points forts de la journée ont été axés sur :

* La definition de la gouvernance de l’internet
* L’approche multiacteur
* Les critères de selection des membres du MAG
*  Les principes du fonctionnement du MAG
*  Les mandats du MAG
* La viabilite financière du MAG



La  1ère réunion du MAG se tiendra dans une semaine.


9 Reasons Your New TLD Will Fail

Posté par BAUDOUIN SCHOMBE le 8 août 2011

Not all TLDs will fail. But here’s why yours will.

Are you thinking about applying for a new top level domain name when the application window opens in January? Here are some things to consider — reasons your new TLD might be doomed to fail.

1. You pick a TLD that’s too broad. Here I’m thinking mostly about something like .sport. Yes, there’s a sporting community. But they tend to identify with particular sports or types of sports. .Sport is just too broad. You might be able to say the same thing about general TLDs such as .web. There’s a role for .web, but it’s something similar to what .info and .biz have now.

2. You price domains too high or too low. It’s tempting to charge a lot for domain names so you can earn more overall. But charge much more than existing TLDs and registrants (and registrars) will pass. On the flipside, pricing your domains too low could also cause problems. If your TLD is cheap it will attract spammers and other bad actors (e.g. .cn). This could lead to search engine penalties for your entire TLD or loss of confidence in users. .Free seems particularly worrisome on two fronts: its price, and it tells web visitors that the web site publisher wasn’t willing to fork over ten bucks for a “real” domain. Kind of like Geocities addresses.

3. You make your TLD too restrictive. It’s important for community top level domain names to have good restrictions to keep the community’s trust. But burdensome and un-automated verifications will doom your domains. First, registrants don’t want to spend time fulfilling your requests. Second, registrars don’t want to bother with introducing a verification system in the registration process.

4. You don’t get into bed with major registrars. In most cases you’ll need to sell your domain names through existing registrars. You have to make best friends with the major registrars. Wine and dine them for shelf space.

5. You offer products that compete with registrars’ profitable add-ons. Registrars make little money on domain sales. They make it offering products such as hosting, whois privacy, etc. If your idea of TLD innovation is to offer a package of competing solutions to the registrant, don’t count on registrars giving you shelf space. Consider .tel. It didn’t offer competing products, but it eliminated two profitable ones: web hosting (because you can’t host sites on them) and whois privacy. GoDaddy still doesn’t carry .tel.

6. You pay too much in auction. If you go up against many competing applicants for the same TLD you could end up spending a lot of money in an auction. Make sure you have money left over for marketing.

7. You think ‘if you build it, they will come’. Registrants won’t be lining up at your door. Consider the significant marketing .co undertook with its recent launch. It’s not easy, and it will be even harder when competing with hundreds of other new TLDs.

8. You attract too many domain investors and not enough end users. If domain investors snap up all of your domain names then few of them will be developed. You need developed domains in order to spread the word about your TLD. Take a look at what happened to .eu. I really like the RFP process some registries are using to allocate premium domains by requiring a solid development and marketing plan.

9. You don’t have a local sales channels for your city TLD. City TLDs will be tricky. Don’t expect GoDaddy to offer .nyc anywhere near the top of the list since it applies to so few customers. (Unless, of course, they use geolocation to pitch it to New Yorkers.) You need a door-to-door salesforce for these TLDs. Same thing goes for community TLDs — the smaller the niche, the more you need to focus on marketing directly to that niche.



Movirtu’s « cloud phone » connects Third World users

Posté par BAUDOUIN SCHOMBE le 5 août 2011

May 31, 2011 | Ciara Byrne


Why is a mobile phone number tied to a SIM card (and often a device) rather than a person? My sister lives in Brooklyn but has never owned a mobile phone (she still has an answering machine like in Sex and the City). However, she does have a habit of borrowing other people’s phones.

Something similar happens all over the developing world where the poorest people borrow phones and SIMs from friends and family as needed. Enter Movirtu‘s “cloud phone”.

Movirtu provides a user with a unique mobile number. The number is accessible on any mobile phone and can be used for mobile money and information services as well as making or receiving calls and texts. A phone owner who lends his phone to a cloud phone user receives a percentage of the transaction as an air-time top up. The cloud phone customer uses the same top-up vouchers, applications and mobile carrier care system as any other prepaid user. The system requires no special handset features, SIM cards or additional client software.

Cloud phone services are aimed at people in rural areas living on less than $2 day. 80 percent of people living below the poverty line in rural communities in Sub-Saharan Africa and South Asia do not own a phone or SIM.

The software enabling cloud phone services is called MXShare and it’s installed in the core network of the mobile carrier. Revenue is shared between Movirtu and the mobile carrier. The cost of serving each cloud phone user is about 20 cents. The company already has a deployment with Airtel in Madagasgar.

The cloud phone is a great example of a product created specifically for the developing world which also has applications in rich countries. This is a trend to look out for in the global mobile market as novel business models and tech products originate in emerging markets and spread into developed economies, rather than vice versa.

A growing number of phone users in developed markets have more than one SIM connecting, for example, an iPad, a BlackBerry for work and a personal iPhone. Over 1 billion mobile phone subscriptions in mature markets are duplicates. The problem is even worse for users who travel a lot and are therefore active on multiple networks.

Movirtu’s ManyMETM product allows subscribers to manage multiple phone numbers and accounts from a single authenticated mobile device and SIM card and make and receive voice calls and messages on all their numbers. Multi-national operators can offer the use of different numbers from each of their regional operations on a single mobile device and bill to a single home account.

A phone number used to be tied to a place. Now it’s tied to a SIM. Maybe it’s time your number finally corresponded to you.

Movirtu was founded in 2008, is based in London and raised funding of $5.5 million in 2010.

source: http://venturebeat.com/2011/05/31/movirtu-cloud-phone/



Le PNUD soutient une nouvelle technologie mobile pour combattre la pauvreté

Posté par BAUDOUIN SCHOMBE le 5 août 2011

Trois millions de personnes vivant dans la pauvreté en Afrique et en Asie du Sud, dont 75% de femmes, auront prochainement accès à un service téléphonique mobile grâce à une initiative soutenue par le Programme des Nations Unies pour le développement (PNUD).

La technologie est développée par l’entreprise britannique Movirtu dans le cadre de l’initiative globale Business Call to Action [Appel à l'action des entreprises] (BCtA) qui cherche à mobiliser le secteur privé dans le combat contre la pauvreté.

L’idée consiste à offrir un service téléphonique à très bas prix avec un type de compte basé « dans les nuages » permettant à chaque personne qui a accès à un téléphone mobile de le partager mais de garder son propre numéro. Cela permettra d’effectuer et de recevoir des appels individuels et d’avoir accès à des informations et des services bancaires, de soutien agricole ou autres.

« Nous savons que obtenir l’accès aux communications mobiles est une façon d’améliorer les vies et d’étendre les potentiels économiques des milliards de personnes qui vivent avec un à deux dollars par jour. En donnant accès à des comptes et des identifiants mobiles sécurisés, Movirtu aide à combler le fossé entre ceux qui ont facilement accès à des téléphones portables et ceux qui dépendent de téléphones communs ou qui sont obligés de payer des frais de location pour répondre à leurs besoins de communication », a expliqué le gestionnaire de programme par intérim de la BCtA, Amanda Gardiner.

Movirtu prévoit d’apporter la technologie à au moins 12 marchés en Afrique et en Asie du Sud au début de 2013, offrant l’accès à 50 millions de personnes. La cible est d’avoir trois millions d’utilisateurs réguliers.

« C’est un fait que de nombreuses personnes n’ont pas les moyens de s’offrir un téléphone portable. Avec la technologie de téléphonie « dans les nuages » de Movirtu nous offrons une identité mobile personnalisée aux usagers de téléphones partagés. Notre objectif est d’accroître le potentiel de gains de ceux qui vivent avec un à deux dollars par jour en les offrant les bénéfices économiques qui accompagnent une identité mobile complète », a indiqué la Vice-présidente exécutive du marketing, stratégie et planification de Movirtu, Ramona Liberoff.

Les femmes de communautés rurales seront les premières bénéficiaires de cet investissement. Selon l’Association globale des operateurs mobiles GSMA, les femmes à faible revenu en Afrique et en Asie du Sud ont 21% moins de chance d’avoir accès à la téléphonie mobile que les hommes. Les téléphones de Movirtu aideront environ 2,4 millions de femmes à combler ce fossé.

Les clients de Movirtu économisent en moyenne 60 dollars par an sur les dépenses des téléphones partagés. Le projet pilote de l’entreprise a lieu à Madagascar avec plus de 8.000 points de vente à travers le pays. A partir du 1er août, l’ensemble de 22 régions de Madagascar sont couvertes et des lancements dans d’autres pays seront annoncés plus tard dans l’année.





La philosophie politique des concepteurs d’Internet

Posté par BAUDOUIN SCHOMBE le 26 janvier 2011

Par Félix Tréguer

Beaucoup de travaux ont été écrits sur l’esprit d’Internet, ou l’imaginaire d’Internet. En France, Patrice Flichy et Dominique Cardon ont eu l’occasion de se pencher sur cette question. Cardon, (qui s’appuie sur les travaux de Fred Turner), rappelle notamment qu’Internet est né de la contre-culture américaine, et en son sein d’une mouvance autonomiste cherchant à élaborer des modes de vie alternatifs au moyen d’une transformation sociale et personnelle.


Dans cet article, je souhaiterais revenir rapidement sur l’ethos et les pratiques des différentes communautés s’étant, à un moment donné, attelées au développement d’Internet. Qu’ils aient travaillé sur les protocoles de transport ou les applications, les dizaines de milliers de chercheurs, professeurs ou étudiants qui ont participé à la construction d’Internet sont unis par un certain nombre de valeurs qui, comme on le verra, en ont fait un réseau à part, reléguant au second plan d’autres réseaux « télématiques»1 qui pouvaient exister à l’époque2.


Internet, un bien commun


Tout d’abord, Internet fut élaboré par une communauté de chercheurs en dehors de toute pression commerciale. Alors que les modes de fonctionnement et les protocoles utilisés par les réseaux de communication existants ou en cours de développement étaient considérés comme des secrets commerciaux, Internet a été conçu dans un esprit collaboratif entre des chercheurs issus de pays et d’organisations diverses. D’ailleurs, les entreprises de télécommunication étaient à l’origine relativement sceptiques sur l’utilité d’un réseau d’un nouveau genre. En 1964, lorsque le chercheur Paul Baran de la Rand Corporation, un « think tank » affilié au Pentagone, soumet à des cadres du monopole AT&T un projet de réseau télécom fondé sur la commutation par paquets, il se voit répondre sèchement : « Tout d’abord, cela ne peut pas marcher, et même si c’était le cas, on ne va quand même pas permettre que se crée ainsi notre propre concurrent ».3 La culture scientifique de partage des connaissances dont Internet est le fruit est en contradiction avec les logiques commerciales qui voient dans le secret et la rétention d’innovations la source d’avantages compétitifs sur les concurrents potentiels.

Le modèle d’Internet est en effet fondamentalement différent, car ses fondateurs ont toujours fait en sorte que les protocoles qu’ils développaient soient publics : ces protocoles techniques n’appartiennent à personne, et donc à tout le monde. Les brevets et autres droits de propriété intellectuelle ne sont pas de mise. Chacun est libre de les tester, de les modifier, de les distribuer. Et tous ont conscience de participer à une avancée technologique majeure. Comme le résume Michel Elie, seul européen à avoir assisté à la première connexion entre les ordinateurs de UCLA et de Stanford à l’automne 1969 :


Les universitaires ont fourni les premiers sites, développé des spécifications en toute indépendance des constructeurs et des grands opérateurs de télécommunications, inventé les premières applications. Les contrats de l’ARPA leur assuraient l’indépendance financière nécessaire. Le partage des ressources, en matériel, logiciels, données ainsi que des ressources humaines était un objectif majeur. S’y ajoute une culture de l’échange. Le réseau devient vite aussi un moyen de soumettre à la communauté des utilisateurs des algorithmes à vérifier, des programmes à tester, des données à archiver. Il deviendra un levier pour les promoteurs du logiciel libre. Il a su galvaniser des énergies et des intelligences désintéressées, individuelles et collectives.

La décentralisation comme modèle organisationnel


Ce modèle de développement fondé sur le partage et la participation la plus large possible relève d’un fonctionnement décentralisé. Il n’y a pas d’organisation hiérarchique en charge de sa mise au point des standards qui s’imposent à ceux qui prennent part à cette entreprise scientifique. Certes, certaines personnalités, du fait de leur réputation due à leur contribution au projet, bénéficient d’une certaine autorité, et des structures de coordination existent. Mais le schéma organisationnel échappe à toute organisation hiérarchisée. Même l’ARPA, affiliée au Pentagone, fonctionne selon un modèle bien peu familier du monde militaire, les chercheurs y bénéficiant d’une grande liberté et n’ayant que très peu de comptes à rendre.


Au delà de l’ARPA, les communautés qui collaborent à la construction des codes, protocoles et différents composants de l’écosystème Internet sont fondées sur la conviction qu’une solution à un problème technique, une « bonne idée » pouvant déboucher sur une innovation majeure, peut venir de n’importe où. Aussi, la communauté doit-elle rester ouverte et fonctionner selon un modèle ouvert et méritocratique. Chacun doit être en mesure de proposer son idée. En fonction de sa pertinence, elle sera éventuellement prise en compte, débattue et, peut être, finalement mise en œuvre. C’est ce mode de fonctionnement que l’on retrouve aujourd’hui encore dans des organismes tels que l’Internet Engineering Task Force (IETF),qui est chargé de déterminer des principes communs pour l’administration des réseaux qui composent Internet. N’importe qui peut se rendre aux réunions de l’IETF et faire des propositions, s’investir dans les débats pour imposer son idée. C’est ce même schéma organisationnel qui caractérise le mouvement du logiciel libre, chacun étant libre de modifier le logiciel et de distribuer une version améliorée afin d’en faire bénéficier le reste de la communauté. Dave D. Clark, qui supervisa l’IETF de 1981 à 1989, décrit à merveille ce mode de fonctionnement lorsqu’il lance la célèbre formule :


« We reject kings, presidents and voting. We believe in rough consensus and running code ».

Des procédures décisionnelles basées sur le consensus


De l’idée qu’Internet est un bien commun et dans le choix d’un schéma organisationnel décentralisé découle une troisième conviction, censée régir les débats sur les choix techniques relatifs au développement du réseau : la recherche du consensus. Dès l’été 1968, avant même la première interconnexion entre les ordinateurs de UCLA et de l’université de Stanford, un petit groupe de travail collaborant au projet d’ArpaNet se met en place entre les quatre universités fondatrices afin de travailler à l’élaboration de protocoles de communication.


Après quelques mois de travaux, le groupe prend conscience qu’il serait opportun de publier des documents synthétisant le fruit de leurs réunions informelles, notamment en vue de les communiquer au reste de la communauté de scientifiques susceptibles de s’intéresser au sujet afin de les inviter à s’investir dans le projet. Steve Crocker, un étudiant à UCLA qui participe aux réunions, se propose de formaliser les avancées du groupe de travail. Toutefois, il remarque que lui et ses collègues, parmi lesquels se trouve Vint Cerf, ne sont à l’époque que de simples étudiants de deuxième cycle, et les destinataires potentiels du document sont des professeurs émérites des grandes universités de la côte Est. Ils craignent d’avoir l’air de vouloir imposer leur idées. Steve Crocker est sous pression. Une nuit d’avril 1969, il s’attèle à la rédaction d’un mémo qu’il finalise au petit matin, enfermé dans la salle de bain pour ne pas déranger ses colocataires. Il l’intitule humblement Request For Comments (RFC), littéralement « demande de commentaires ». L’e-mail n’existe pas encore et Crocker et ses collègues envoient par la poste un exemplaire à chaque université partenaire du projet, à charge pour elle d’en imprimer d’autres au besoin6

L’idée des RFC est que tout participant peut critiquer le contenu du document, ou proposer une réponse à des questions laissées sans réponse, le but étant de faire avancer la recherche et d’arriver à une définition commune. Et si le partage d’informations et le consensus sont si importants, c’est qu’Internet consiste justement à créer une harmonie technique entre des équipements et des communautés diverses. Chacun peut ainsi prendre part au débat scientifique et proposer une idée. Si suffisamment de personnes pensent qu’elle est pertinente et l’utilisent au sein du réseau qu’elles opèrent, alors cette idée devient un standard qui s’imposera pour assurer l’interopérabilité de leur propre réseau informatique avec le « réseau des réseaux ». Il y avait et il y a toujours un impératif technique au fait de parvenir à un consensus. Les désaccords devaient être surmontés.


Aujourd’hui, il existe plus de 5000 RFC et leur publication se fait de manière plus formelle. Les thématiques couvertes vont de questions techniques très précises à la présentation d’une vision personnelle quant au futur du réseau. Collectivement, ils retracent l’histoire d’Internet et permettent aux nouvelles générations d’ingénieurs de comprendre le processus de développement du réseau, qui peuvent alors se joindre à la conversation instruit de la richesse que renferment ces documents, qui sont tous librement accessibles en ligne. 

Du social à la technique… au social


Dans un article de référence, le juriste Michael Froomkin se livre à une analyse des procédures de l’IETF. Après avoir étudié la formalisation progressive de son processus décisionnel, duquel les RFC sont la composante centrale, il estime qu’il s’agit de l’institution existante qui se rapproche le plus du modèle habermassien de « situation idéale de parole », capable d’aboutir à une délibération argumentée et légitimant la prise de décision. Que l’on partage ou non son analyse, force est de constater qu’Internet est le résultat d’une « fabrique sociale » caractérisée par un esprit de collaboration et d’échange.

Même si plusieurs éléments portent à croire que les personnes qui ont pris part à cette aventure avaient l’intuition de participer à la construction d’un réseau de communication qui allait changer le monde, il importe finalement peu de savoir s’ils étaient animés d’un projet humaniste. Il suffit de se rendre compte que le but même que cette communauté scientifique s’était fixé – la construction d’un réseau de communication universel – lui a imposé de recourir à une méthodologie de travail fondée sur des valeurs d’ouverture. Or, ce mode de fonctionnement l’a conduit à faire un certain nombre de choix techniques qui, comme on le verra dans un prochain post, sont au cœur de la liberté de communication permise par Internet.




1 Le terme « télématique », apparu pour la première fois en 1978 dans le rapport rendu par Simon Noram et Alain Minc et baptisé « L’informatisation de la Société », recouvre les applications associant les télécommunications à l’informatique.


2 Les développements de cette partie sur l’ethos qui préside à l’élaboration d’Internet sont fondés sur les deux sources suivantes :


Tim Berners-Lee , 1998, « The World Wide Web and the « Web of Life » », w3.org. Adresse : http://www.w3.org/People/Berners-Lee/UU.html


Lawrence Lessig, 1999, « Open Code and Open Society: Values of Internet Governance », Chicago-Kent Law Review, vol. 74, n° 102.


3 Cité par Lessig, 1999, op cit. p. 109.


4 Elie Michel, 25 décembre 2009, « Internet, retour sur les origines et la « philosophie » du Web », Le Monde.


5 Nous nous risquons ici à une traduction de cette célèbre phrase: « Nous rejetons les rois, les présidents, et le vote. Nous croyons dans le consensus approximatif et l’exécution de codes».


6 Stephen D. Crocker, 9 avril 2009, « How the Internet Got Its Rules », The New York Times.


7 RFC Editor est le site de référence en la matière: http://www.rfc-editor.org


8 Michael Froomkin. Janvier 2001 « Habermas@discourse.net: Toward a Critical Theory of Cyberspace », Harvard Law Review 116, no. 3. Adresse : http://papers.ssrn.com/sol3/papers.cfm?abstract_id=363840




Internet arrivera-t-il à saturation le 2 février ?

Posté par BAUDOUIN SCHOMBE le 26 janvier 2011

La société Hurricane Electric a annoncé via ses comptes Twitter et Facebook qu’Internet pourrait arriver à saturation en atteignant le nombre limite de création des adresses IP nécessaires pour chaque nouveau site.

Les comptes Tweeter et Facebook de la société Hurricane Electric ont annoncé qu’Internet ne pourrait bientôt plus supporter la création de nouveaux sites car le nombre possible d’adresses IP atteindrait son maximum. Or celle-ci est nécessaire pour chaque création sur la Toile. Le tweet évoquait même une IPcalypse.

Cette annonce se basait sur un simple calcul. Un million d’adresses IP se crée toutes les 4 heures et le protocole IPv4 ne supporte que 4 milliards d’adresses uniques. Mais si la saturation  a été prévue pour la nuit du 2 février, c’était sans compter sur une bande de génies qui ont crée le protocole IPv6, capable de gérer un plus grand nombre d’adresses IP.

Certains spécialistes craignent toutefois un problème de compatibilité entre les anciens et les nouveaux sites utilisant les protocoles IPv4 et IPv6. Ils recommandent donc à certains sites de changer d’hébergeurs pour éviter un bug lors du changement de protocole. Et devinez qu’elle est l’activité de la société Hurricane Electric ?

Source: http://www.zigonet.com/internet/internet-arrivera-t-il-a-saturation-le-2-fevrier_art19230.html



Posté par BAUDOUIN SCHOMBE le 26 janvier 2011

Internet est à court d’adresses, le basculement sur un nouveau standard d’adresses IP devient urgent, prévient l’Icann, l’organisme chargé de réglementer les noms de domaine sur internet pour le monde entier.

« Le grand réservoir qui distribue les adresses va être à sec dans les semaines qui viennent », explique un ingénieur de Google, Lorenzo Colitti, qui prépare le basculement du géant d’internet au nouveau standard. « En un sens, on fonce dans le mur. Il faut faire quelque chose, et (le nouveau standard) IPv6 est la seule solution réelle à long terme ».

Actuellement, internet fonctionne avec le standard IPv4, qui permet l’existence de « seulement » 4 milliards d’adresses géré par l’Icann.

l’Icann demande l’adoption du nouveau standard Ipv6 depuis plusieurs années. Ce qui qui permettra l’existence d’environ 340 sextillions d’adresses (soit 340 fois 10 suivi de 36 zéros): suffisamment pour que mille milliard de gens disposent chacun de mille millards d’adresses IP, selon le président de l’Icann Rod Beckstrom.

« J’imagine que si on trouvait une façon d’attacher une adresse IP à chaque atome on pourrait commencer à avoir des problèmes », ironise M. Beckstrom, interviewé à son bureau de Palo Alto aux USA. « Pour ce qui est du nombre d’objets que les humains possèdent et utilisent, je pense qu’on est assez tranquille », ajoute-t-il.

« L’une des raisons pour lesquelles il faut si longtemps pour changer, c’est qu’il n’y a pas d’avantage évident pour l’IPv6″, explique pour sa part M. Colitti, et que le basculement exige des investissements.

Mais avec près de sept milliards d’humains sur terre, le standard IPv4 ne permet pas à chacun d’avoir une adresse en ligne attachée à chacun de ses appareils électroniques.

Une fois que l’Icann aura fini de distribuer des adresses au standard IPv4, les ordinateurs et autres baladeurs ou téléphones portables devraient pouvoir partager des références, au lieu d’avoir des numéros identifiants uniques.

« Il va falloir commencer à partager avec les gens autour de nous, et ça pose un problème parce que les applications ne savent pas faire la différence », explique M. Colitti . « Si mon voisin figure sur une liste noire, ce sera aussi mon cas ».

« Internet n’arrêtera pas de fonctionner, il va juste se dégrader lentement », ajoute-t-il, car les systèmes finiront par avoir du mal à gérer plusieurs connexions à la fois sur des adresses partagées.

Pour l’heure, l’effort et l’investissement nécessaires pour basculer sur le standard IPv6 reposent surtout sur les fournisseurs d’accès, qui doivent faire en sorte que leurs réseaux puissent gérer ces nouvelles adresses et router le trafic.

Les consommateurs ne devraient rien remarquer: les séries de chiffres identifiant les adresses internet devraient continuer de leur apparaître sous la forme habituelle, du genre icann.org ou google.com. Certains pourraient toutefois avoir besoin de renouveler leurs routeurs ou leurs modems.

« L’important c’est que les consommateurs ne paniquent pas », assure M. Colitti, démentant tout risque d’ »IPocalypse ».

« Mais il est important que les acteurs du secteur travaillent ensemble », selon lui.

Google et Facebook, ainsi que d’autres acteurs du secteur, doivent ajouter des adresses IPv6 à leur système lors d’un essai d’une journée au printemps afin d’identifier d’éventuels problèmes: la journée mondiale de l’IPv6 commencera à 00h01 GMT le 8 juin 2011.

Un basculement total sur l’IPv6 devrait cependant prendre plusieurs années, pendant lesquelles ce qui reste d’adresses IPv4 continuera à être distribué pour faire la transition, selon M. Beckstrom.

A terme, l’IPv6 promet toujours plus d’objets « intelligents » – jusqu’aux bouteilles de vin qui pourraient prévenir à quel moment leur contenu obtient son meilleur bouquet.


Panorama de la cybercriminalité – Malveillance sur mobile : une promesse déjà ancienne

Posté par BAUDOUIN SCHOMBE le 17 janvier 2011

par Christophe Auffray, ZDNet France

Analyse – Depuis l’apparition de Cabir, premier virus pour mobiles, les éditeurs de sécurité annoncent l’émergence de la malveillance dirigée contre ces terminaux. Mais la menace peine à se concrétiser, malgré des facteurs de risque et une faisabilité technique démontrée. Les vols et l’indiscrétion des applications sont des menaces plus tangibles.

La malveillance dirigée contre les terminaux mobiles, les éditeurs de produits de sécurité laissent planer la menace depuis maintenant plusieurs années . Si des virus ont été développés, leur diffusion est demeurée relativement discrète.

Des scénarios d’attaque et des fraudes sont également évoqués. Mais globalement, la menace reste avant tout théorique et le risque potentiel. Un changement de tendance est-il à prévoir en 2011 ? Pour un certain nombre d’éditeurs d’antivirus,c’est oui . Il faut dire qu’ils ont investi pour développer des logiciels pour les principaux OS mobiles.

Le marché des mobiles très différent de celui du PC

Toutefois, ces mêmes éditeurs promettaient déjà des attaques aux alentours de 2005/2006 (et le cyber-terrorisme dès 2001 ) sans que la menace ne se confirme. A force, cette invocation deviendra sans doute réalité…

Néanmoins, si la menace ne s’est pas vérifiée en 2010, cela ne signifie pas pour autant qu’il n’existe pas de facteurs de risque et que la faisabilité technique d’attaques n’est pas établie.

« Il y a un vrai potentiel du côté du mobile puisqu’il est très connecté, beaucoup plus puissant, voit transiter de plus en plus de données personnelles » juge Eric Freyssinet, chef de la division de lutte contre la cybercriminalité à la gendarmerie nationale, qui rapportait les travaux du Clusif dans ce secteur de la sécurité.

Pour illustrer l’amplification du risque, le club français de la sécurité cite l’émergence de botnets sur mobile . « Ils n’étaient pas possibles ou n’avaient pas véritablement de sens avant que les terminaux ne deviennent assez puissants et soient connectés à Internet. En outre, on a des plates-formes ouvertes sur lesquelles il est facile de développer des applications » avance Eric Freyssinet.

Des botnets détectés sur les OS mobiles, mais peu répandus encore

Pour étayer cet argumentaire, le Clusif évoque les travaux d’un chercheur présentés en juin 2010 aux Etats-Unis et démontrant la faisabilité d’un déploiement de bots sur Android. Fin 2009, un ver permettant de transformer un iPhone en zombie était détecté. En juillet 2010, l’éditeur NetQin mettait au jour un botnet composé de smartphones sous Symbian.

Pour autant, le risque doit être relativisé, et ce pour diverses raisons. Le ver iKEE pour l’iPhone ne ciblait que les terminaux jaibreakés et dont le SSH avait été activé. De plus, par défaut, un iPhone ne permet d’installer que des applications validées par Apple sur l’App Store.

De même sur Android, le paramétrage par défaut d’un terminal bloque l’installation de logiciels ne provenant pas de l’Android Market. Par ailleurs, le PC sous Windows reste, en raison de la taille du parc, une cible privilégiée par les cybercriminels. Il est plus rentable de développer un programme malveillant compatible avec le plus grand nombre de machines.

Vols et pertes de données, des risques plus tangibles pour les entreprises

Comparativement, le marché du mobile est très fragmenté avec Android (25,5% de part de marché), iOS (16,7%), Symbian (36,6%), Bada, RIM OS (14,8%) et Windows Mobile (2,8%). Si, par exemple, l’iPhone est populaire (Apple en avait vendu plus de 50 millions en avril 2010), le parc reste faible par rapport à celui existant des PC.

Sur le seul 4e trimestre de l’année dernière,93 millions d’ordinateurs ont été vendus. Il est vrai en revanche que les ventes de terminaux mobiles explosent (plus de 1 milliard de mobiles vendus par an). Mais seuls 20% sont des smartphones, c’est-à-dire des téléphones évolués et connectés.

Le nombre de mobiles susceptibles d’intéresser des cybercriminels augmente, certes, mais n’est vraisemblablement pas encore suffisant (bien que des chercheurs aient démontré lors du CCC de Berlin la possibilité de réaliser des scénarios d’attaques par SMS , et donc de viser les téléphones classiques, c’est-à-dire hors smartphones).

Donc un risque sur les mobiles, oui, mais qu’il convient de tempérer. Les vols , et les risques en termes de pertesde données en découlant, sont des menaces en comparaison plus tangibles, en particulier pour les entreprises. Mais la réponse à ce risque n’est pas nécessairement, ou exclusivement, technologique.

Des applications pour mobile, légales, mais indiscrètes

Mais le Clusif relève une autre menace, plus concrète celle-ci, concernant les atteintes à la vie privée des utilisateurs de mobiles. Des études duWall Street Journal et de l’éditeur Lookout soulignent ainsi l’indiscrétion d’un certain nombre d’applications pour Android et iOS, qui partagent des données personnelles avec des tiers (dont des régies publicitaires) sans que les utilisateurs en soient nécessairement conscients.

Eric Freyssinet regrette par ailleurs la banalisation des outils d’espionnage et de surveillance du mobile. « Il m’est arrivé souvent cette année de m’énerver devant certains reportages sur des services commercialisés par des sociétés et permettant par exemple d’espionner sa femme, son patron, un collègue… sans avertir que l’interception de SMS ou de conversation était totalement illégale . »

Le Clusif pointe également la vulnérabilité des protocoles exploités par les opérateurs dans la téléphonie, par exemple afin d’obtenir la localisation d’un terminal ou de suivre une communication.

La complexe mise à jour des OS, un facteur de risque

« Ceux qui définissent les normes et les opérateurs vont devoir sécuriser un peu mieux nos communications » estime le chef de la division de lutte contre la cybercriminalité. Une problématique qui devra aussi être prise en compte au niveau des terminaux eux-mêmes (systèmes d’exploitation).

La correction, via des mises à jour, des vulnérabilités des OS mobiles est en effet une tâche complexe compte tenu des spécificités de ce marché – étendant potentiellement la fenêtre d’exposition.

« Il est difficile de mettre à jour un téléphone à la toute dernière version sans la coopération des opérateurs et des fabricants. Les mises à jour sont donc décalées dans le temps. Un certain de terminaux sous Android restent par exemple sur la version 1.6 ou 2.1 , et donc vulnérable à l’exploitation démontrée par la société Lookout lors de la BlackHat. Or, ces terminaux ne seront probablement jamais mis à jour car le constructeur ne fera pas l’investissement » souligne Eric Freyssinet.

« Cela pose des vrais problèmes. Je pense qu’il est nécessaire que les industriels réfléchissent, quel que soit l’OS, à la façon de gérer les mises à jour, qui n’est pas suffisamment dynamique et pas adaptée aux risques de sécurité » conclut-il.



Les Africains restent les moins connectés à Internet

Posté par BAUDOUIN SCHOMBE le 31 décembre 2010

Le taux de pénétration sur le continent est le tiers de la moyenne mondiale en 2010

La révolution Internet n’aura pas lieu en 2010 sur le continent africain. Le taux de pénétration y est de 9,6% contre 30% en moyenne pour la planète. Les Africains n’ont pas encore saisi les opportunités du haut débit qui aggrave la fracture numérique.

Les derniers chiffres publiés par l’Union internationale des télécommunications (UIT) démontrent encore une fois que le continent africain reste à la traîne en matière de connectivité. Le taux de pénétration d’Internet en Afrique est de 9,6% soit la moitié du taux de pénétration moyen dans les pays en voie de développement (21%) et le tiers du taux de pénétration moyen dans le monde (30%). Dans les pays développés, ce chiffre est de 71%. Le haut débit devrait aggraver la fracture numérique. Le taux de pénétration est inférieur à 1% alors qu’il est de 24,6% dans les pays développés.

77 millions d’internautes

Le Forum économique mondial a conçu un outil baptisé NRI (Networked Readiness Index) qui indique dans quelle mesure un pays est préparé à tirer profit d’Internet. En mars 2010, il classait la Tunisie en tête des pays africains (39e), suivi par Maurice, la cyber-île (53e) et l’Afrique du Sud (62e) dans son rapport 2009-2010. Sur le continent africain, les pays du Nord, exception faite de l’Algérie, sont mieux lotis que leurs voisins de l’Afrique sub-saharienne. Notamment en matière de coût, un véritable frein à la démocratisation des nouvelles technologies en Afrique.
Le nombre d’utilisateurs d’Internet dans le monde a doublé entre 2005 et 2010 pour atteindre les 2 milliards, dont la moitié se trouvera dans les pays en voie de développement. Le continent africain en comptera seulement 77 millions (estimation au 21 octobre 2010). Cependant, il y en a cinq fois plus qu’en 2005. La Chine, avec plus de 420 millions d’utilisateurs d’Internet, est le marché le plus important de la planète.



Skype : la conversation vidéo disponible aujourd’hui sur iPhone

Posté par BAUDOUIN SCHOMBE le 31 décembre 2010

Une mise à jour de l’application introduit la possibilité de passer des appels vidéo en 3G et WiFi depuis et vers un iPhone4, 3G S, un iPod touch et les versions Windows, Mac OS X et Linux de Skype.

Skype n’a finalement pas attendu le Consumer Electronic Show (CES, 6-9 janvier) pour annoncer la fonction conversation vidéo pour son application iOS.
Elle est disponible dès aujourd’hui sur l’App Store pour l’iPhone 4, l’iPhone 3G S, l’iPod touch 4 et permet de passer et recevoir des appels vidéo entre ces terminaux mais également vers Skype sur Windows (version 4.2 et suivante), Skype sur Mac (version 2.8 et suivante) Skype pour Linux ainsi que le vidéophone d’Asus.

Bientôt Android

L’iPhone de 1ère génération n’est pas pris en charge. En revanche, l’iPad et l’iPod touch 3 peuvent recevoir les appels vidéo. La communication peut s’établir via une connexion 3G ou WiFi.
De quoi concurrencer directement le service FaceTime d’Apple qui ne fonctionne qu’en WiFi ? «  »Nous permettons à nos utilisateurs d’interagir avec tous les ordinateurs. Par ailleurs, notre nouvelle application avec la vidéo est aussi disponible pour l’iPhone 3GS, l’iPad et l’iPod Touch. Même si ces derniers n’ont pas de caméra frontale, ils peuvent recevoir la vidéo de leurs contacts. Enfin, les usagers récupèrent toute leur liste de contacts Skype, et c’est important pour eux, car ils ont souvent quelqu’un à appeler dès l’installation terminée », explique Rick Osterloh, directeur des produits grand public chez Skype, cité par LePoint.fr.

Dans son communiqué, Skype indique que sur les 6 premiers mois de l’année, les appels vidéo ont représenté 40% des minutes de communications « Skype à Skype ».

Apporter cette fonctionnalité aux autres versions mobiles de Skype devrait donc être une priorité, à commencer par Android et Symbian. Il n’est d’ailleurs pas impossible que l’on en sache plus la semaine prochaine lors du CES.
Une conférence de presse aura lieu le 6 janvier à Las Vegas en présence de Tony Bates, le P-DG de la compagnie luxembourgeoise au cours de laquelle Skype promet « une série d’annonces liées à la vidéo ». À suivre donc… (Eureka Presse)




Bienvenue chez moi ! |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | consensus
| presseecrite
| lesjournalistes