LA PARTICIPATION DE LA RDC À L’ICANN 51

Posté par BAUDOUIN SCHOMBE le 22 octobre 2014

La 51e réunion internationale de l’ICANN s’est déroulée à Los Angeles aux USA du 12 au 18 octobre 2014. Avec un calendrier bien nourri, plus de 2500 participants venu du monde entier ont eu à échanger sur quatre axes principaux, notamment : l’internationalisation de l’ICANN ; la transition de l’IANA ; la surveillance sur le Net après l’affaire Snowden ; le futur de l’Internet.

ICANN a offert à plusieurs pays à travers le monde la possibilité de participer à distance. La République Démocratique du Congo a qualitativement contribué à la plénière de cette 51e réunion internationale en formulant certaines suggestions sur le processus de la mutation de l’ICANN et la transition de l’IANA. Ces suggestions se sont appesanties sur le cas de l’Afrique dans ce processus. La première question concernait deux préoccupations notamment quelle serait la priorité entre la mutation de l’ICANN vers son internalisation après le désengagement du gouvernement américain et la transition de l’IANA. La communauté technique de la RDC a , dans cet ordre d’idées, proposée que des consultations régionales soient envisagées en impliquant davantage les organisations régionales telles que la CEDEAO, la CEEAC, le COMESA et la SADC sous la supervision de l’UNION AFRICAINE.

Cette option peut optimiser la participation de tous les acteurs sans exclusion suivant l’approche des multiples parties prenantes, communément connu sous le vocable « MULTISTAKEHOLDER ». Cette approche fait déjà son expérience au sein de l’ICANN et du Forum sur la gouvernance de l’Internet. Elle a connu un grand succès lors du NetMundial en Avril 2014 à Sao Paulo au Brésil.

Monsieur Fadi Chehade, Président de l’ICANN, a soutenu la proposition de la communauté technique de la RDC en demandant à Mr Pierre Dandjinou, Vice Président chargé de la stratégie africaine pour l’ICANN, d’explorer les voies et moyens pour définir le cadre de collaboration avec les organisations régionales telles que formulées par la communauté technique de la RDC.

Cette participation à distance s’est déroulée dans la salle de formation du Campus Numérique Francophone de Kinshasa, une représentation locale de l’Agence Universitaire Francophone, en collaboration avec le CEDESURK, pôle technique et documentaire en appui aux universités, et l’UNIVERSITIC, une initiative que mènent conjointement l’ARES-CCD et le VLIR-UOS.

Chaque année, ICANN organise 3 réunions internationale de façon rotative dans les 5 continents

L’Internet Corporation for Assigned Names and Numbers (ICANN) est une organisation de droit privé à but non lucratif. Son personnel et ses participants viennent du monde entier.

La participation aux travaux de l’ ICANN est ouverte à tous ceux qui s’intéressent à la politique mondiale Internet eu égard à la mission de coordination technique de l’ICANN. Ce dernier offre de nombreux forums en ligne qui sont accessibles via son site web.

 

Publié dans ACTUALITES, CONFERENCE, GOUVERNANCE, INTERNET, SCIENCE, SECURITE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TELECOMMUNICATIONS, TIC | Pas de Commentaire »

LA FIBRE OPTIQUE EN RD CONGO, UN VÉRITABLE DILEMME.

Posté par BAUDOUIN SCHOMBE le 24 août 2011

les acteurs du secteur ont planché sur les solutions pour faire avancer le pays,une initiative de BSD-Congo.

Le 23 Août 2011, BSD-Congo a organisée une conférence à l’hôtel Memling sur l’état des lieux des TIC en République Démocratique du Congo.

Des acteurs des différents secteurs y ont participé notamment des représentants du gouvernement, de l’autorité de régulation, d’opérateurs du secteur, des scientifiques et d’étudiants dans les filières techniques.

De toutes les interventions enregistrées, les participants ont épinglés le retard effrayant accusé par la RD Congo dans l’élaboration et la mise en œuvre d’une politique et stratégie des TIC s’il faut être compté dans la société du savoir, a fait remarqué le professeur Pascal Kalenda, Coordonnateur du projet Eb@le. Selon ce dernier, c’est le milieu universitaire qui aidera la société congolaise à trouver les bonnes pistes vers cette société du savoir tant attendue.

Dodi Alphonse Mbuta Ikoko, assistant chargé d’enseignements dans les universités congolaises et Information System Specialist à l’UEPN-DDR/Banque Mondiale, a mis en garde les Congolais contre une simple attitude de consommateurs. L’appropriation des TIC suppose avoir la maîtrise de l’industrie électronique qui implique l’infrastructure technologie, a-t-il renchérit. Cette approche a été soutenue par Laurent Ntumba, Directeur technique de MocroCom.

Christian Bope, directeur adjoint d’Afrinic/Afrique Centrale et IT Network Team Leader chez IBM Congo, a interpellé les décideurs politiques qui ont l’obligation de créer un environnement propice pour l’éclosion d’une industrie congolaise dans ce secteur. Il a non seulement rappelé le rôle des élites dont la tâche est de servir de réverbère à la communauté sur les enjeux majeurs des TIC en RD Congo mais aussi ils doivent proposer des solutions pratiques aux difficultés auxquelles la communauté peut être confrontée dans l’usage de ces nouvelles technologies.

Dans le débat qui a suivi ces exposés, il a été question d’une plus grande vulgarisation des TIC, notamment grâce aux médias et d’une prise en compte plus sérieuse de ces technologies dans le système  éducatif congolais.

Cette conférence a été modérée par Serge Ilunga Kabwika, Vice-Président de BSD-Congo et Transmission Manager chez Vodacom Congo.

BSD Congo est une structure d’avant-garde qui regroupe des Congolais soucieux d’avancer la cause du pays dans le domaine de la technologie numérique.

La journée s’est clôturée par la remise des certificats EO/AFNOG aux étudiants de l’Université de Kinshasa qui venaient de suivre une formation.

Publié dans INFORMATION, INTERNET, SCIENCE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TIC | Pas de Commentaire »

Dakar abrite la 42e réunion de l’ICANN, une occasion pour l’Afrique de peser dans l’évolution du Web

Posté par BAUDOUIN SCHOMBE le 14 août 2011

La capitale sénégalaise abritera, du 19 au 28 octobre prochain, la 42e réunion de l’ICANN « Internet Corporation for Assigned Names and Numbers » (organisme chargé de la gestion de l’Internet sur le plan mondial), une occasion pour les pays africains de peser sur les grandes décisions concernant l’évolution du Web.

La rencontre va réunir plus de 1200 participants venant des cinq continents et va se dérouler sur deux phases: une réunion des experts et une table ronde ministérielle.

Selon le comité d’organisation, cet évènement offre l’occasion pour le continent africain de figurer dans les sphères de décision de l’Internet et surtout de ne plus subir les mesures et directives décidées par les opérateurs et régulateurs de haut niveau.

La présidente du comité national d’organisation de cet évènement, Maïmouna Diagne, précise qu’à travers la table ronde ministérielle, les pays africains, sous la bannière de l’Union Africaine vont, pour la première fois lors de cette 42e réunion, « faire de l’Afrique une partie prenante de ce qui se fait sur Internet dans le monde et son évolution ».

Les décisions que prend l’ICANN, à chacune de ses assemblées générales, influent sur le devenir de l’Internet et peuvent changer nos vies en très peu de temps. Même si le processus est transparent, démocratique et public, il y’a grande nécessité pour l’Afrique d’être présente et surtout de participer », a-t-elle affirmé, précisant que l’Afrique demeure jusqu’à présent absente des discussions sur la gouvernance de l’internet.

A l’occasion de cette rencontre à Dakar, les opérateurs d’Internet vont se pencher sur des mesures de grande importance. Il s’agit notamment de multiplier la capacité de connexion ou d’accès à Internet par deux ou même de la tripler.

Pour ce faire, les opérateurs vont envisager l’introduction du protocole « IPv6″ qui va remplacer l’ »IPv4″. Le nouveau protocole « IPv6″ dispose d’un espace d’adressage beaucoup plus important qu’IPv4. Cette capacité d’adressage considérable permettra une plus grande flexibilité dans l’attribution des adresses et une meilleure agrégation des routes dans la table de routage d’Internet.

Lors de ces assises de Dakar, des responsables des secteurs des télécommunications d’Afrique de l’Ouest vont plaider pour « avoir une copie de server pour faciliter les échanges au niveau de la zone économique de l’UEMOA », à l’instar de l’Afrique du Sud et de la région du Maghreb.

source:http://www.aufaitmaroc.com/monde/afrique/2011/8/12/dakar-abrite-la-42e-reunion-de-licann-une-occasion-pour-lafrique-de-peser-dans-levolution-du-web

 

Publié dans GEOPOLITIQUE, GOUVERNANCE, INFORMATIQUE, INTERNET, MEDIAS, POLITIQUE, SCIENCE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TELECOMMUNICATIONS, TIC | Pas de Commentaire »

INTERNET À COURT D’ADRESSES

Posté par BAUDOUIN SCHOMBE le 26 janvier 2011

Internet est à court d’adresses, le basculement sur un nouveau standard d’adresses IP devient urgent, prévient l’Icann, l’organisme chargé de réglementer les noms de domaine sur internet pour le monde entier.

« Le grand réservoir qui distribue les adresses va être à sec dans les semaines qui viennent », explique un ingénieur de Google, Lorenzo Colitti, qui prépare le basculement du géant d’internet au nouveau standard. « En un sens, on fonce dans le mur. Il faut faire quelque chose, et (le nouveau standard) IPv6 est la seule solution réelle à long terme ».

Actuellement, internet fonctionne avec le standard IPv4, qui permet l’existence de « seulement » 4 milliards d’adresses géré par l’Icann.

l’Icann demande l’adoption du nouveau standard Ipv6 depuis plusieurs années. Ce qui qui permettra l’existence d’environ 340 sextillions d’adresses (soit 340 fois 10 suivi de 36 zéros): suffisamment pour que mille milliard de gens disposent chacun de mille millards d’adresses IP, selon le président de l’Icann Rod Beckstrom.

« J’imagine que si on trouvait une façon d’attacher une adresse IP à chaque atome on pourrait commencer à avoir des problèmes », ironise M. Beckstrom, interviewé à son bureau de Palo Alto aux USA. « Pour ce qui est du nombre d’objets que les humains possèdent et utilisent, je pense qu’on est assez tranquille », ajoute-t-il.

« L’une des raisons pour lesquelles il faut si longtemps pour changer, c’est qu’il n’y a pas d’avantage évident pour l’IPv6″, explique pour sa part M. Colitti, et que le basculement exige des investissements.

Mais avec près de sept milliards d’humains sur terre, le standard IPv4 ne permet pas à chacun d’avoir une adresse en ligne attachée à chacun de ses appareils électroniques.

Une fois que l’Icann aura fini de distribuer des adresses au standard IPv4, les ordinateurs et autres baladeurs ou téléphones portables devraient pouvoir partager des références, au lieu d’avoir des numéros identifiants uniques.

« Il va falloir commencer à partager avec les gens autour de nous, et ça pose un problème parce que les applications ne savent pas faire la différence », explique M. Colitti . « Si mon voisin figure sur une liste noire, ce sera aussi mon cas ».

« Internet n’arrêtera pas de fonctionner, il va juste se dégrader lentement », ajoute-t-il, car les systèmes finiront par avoir du mal à gérer plusieurs connexions à la fois sur des adresses partagées.

Pour l’heure, l’effort et l’investissement nécessaires pour basculer sur le standard IPv6 reposent surtout sur les fournisseurs d’accès, qui doivent faire en sorte que leurs réseaux puissent gérer ces nouvelles adresses et router le trafic.

Les consommateurs ne devraient rien remarquer: les séries de chiffres identifiant les adresses internet devraient continuer de leur apparaître sous la forme habituelle, du genre icann.org ou google.com. Certains pourraient toutefois avoir besoin de renouveler leurs routeurs ou leurs modems.

« L’important c’est que les consommateurs ne paniquent pas », assure M. Colitti, démentant tout risque d’ »IPocalypse ».

« Mais il est important que les acteurs du secteur travaillent ensemble », selon lui.

Google et Facebook, ainsi que d’autres acteurs du secteur, doivent ajouter des adresses IPv6 à leur système lors d’un essai d’une journée au printemps afin d’identifier d’éventuels problèmes: la journée mondiale de l’IPv6 commencera à 00h01 GMT le 8 juin 2011.

Un basculement total sur l’IPv6 devrait cependant prendre plusieurs années, pendant lesquelles ce qui reste d’adresses IPv4 continuera à être distribué pour faire la transition, selon M. Beckstrom.

A terme, l’IPv6 promet toujours plus d’objets « intelligents » – jusqu’aux bouteilles de vin qui pourraient prévenir à quel moment leur contenu obtient son meilleur bouquet.

Publié dans GOUVERNANCE, INTERNET, RECHERCHE ET DEVELOPPEMENT, SCIENCE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TIC | Pas de Commentaire »

Panorama de la cybercriminalité – Malveillance sur mobile : une promesse déjà ancienne

Posté par BAUDOUIN SCHOMBE le 17 janvier 2011

par Christophe Auffray, ZDNet France

Analyse – Depuis l’apparition de Cabir, premier virus pour mobiles, les éditeurs de sécurité annoncent l’émergence de la malveillance dirigée contre ces terminaux. Mais la menace peine à se concrétiser, malgré des facteurs de risque et une faisabilité technique démontrée. Les vols et l’indiscrétion des applications sont des menaces plus tangibles.

La malveillance dirigée contre les terminaux mobiles, les éditeurs de produits de sécurité laissent planer la menace depuis maintenant plusieurs années . Si des virus ont été développés, leur diffusion est demeurée relativement discrète.

Des scénarios d’attaque et des fraudes sont également évoqués. Mais globalement, la menace reste avant tout théorique et le risque potentiel. Un changement de tendance est-il à prévoir en 2011 ? Pour un certain nombre d’éditeurs d’antivirus,c’est oui . Il faut dire qu’ils ont investi pour développer des logiciels pour les principaux OS mobiles.

Le marché des mobiles très différent de celui du PC

Toutefois, ces mêmes éditeurs promettaient déjà des attaques aux alentours de 2005/2006 (et le cyber-terrorisme dès 2001 ) sans que la menace ne se confirme. A force, cette invocation deviendra sans doute réalité…

Néanmoins, si la menace ne s’est pas vérifiée en 2010, cela ne signifie pas pour autant qu’il n’existe pas de facteurs de risque et que la faisabilité technique d’attaques n’est pas établie.

« Il y a un vrai potentiel du côté du mobile puisqu’il est très connecté, beaucoup plus puissant, voit transiter de plus en plus de données personnelles » juge Eric Freyssinet, chef de la division de lutte contre la cybercriminalité à la gendarmerie nationale, qui rapportait les travaux du Clusif dans ce secteur de la sécurité.

Pour illustrer l’amplification du risque, le club français de la sécurité cite l’émergence de botnets sur mobile . « Ils n’étaient pas possibles ou n’avaient pas véritablement de sens avant que les terminaux ne deviennent assez puissants et soient connectés à Internet. En outre, on a des plates-formes ouvertes sur lesquelles il est facile de développer des applications » avance Eric Freyssinet.

Des botnets détectés sur les OS mobiles, mais peu répandus encore

Pour étayer cet argumentaire, le Clusif évoque les travaux d’un chercheur présentés en juin 2010 aux Etats-Unis et démontrant la faisabilité d’un déploiement de bots sur Android. Fin 2009, un ver permettant de transformer un iPhone en zombie était détecté. En juillet 2010, l’éditeur NetQin mettait au jour un botnet composé de smartphones sous Symbian.

Pour autant, le risque doit être relativisé, et ce pour diverses raisons. Le ver iKEE pour l’iPhone ne ciblait que les terminaux jaibreakés et dont le SSH avait été activé. De plus, par défaut, un iPhone ne permet d’installer que des applications validées par Apple sur l’App Store.

De même sur Android, le paramétrage par défaut d’un terminal bloque l’installation de logiciels ne provenant pas de l’Android Market. Par ailleurs, le PC sous Windows reste, en raison de la taille du parc, une cible privilégiée par les cybercriminels. Il est plus rentable de développer un programme malveillant compatible avec le plus grand nombre de machines.

Vols et pertes de données, des risques plus tangibles pour les entreprises

Comparativement, le marché du mobile est très fragmenté avec Android (25,5% de part de marché), iOS (16,7%), Symbian (36,6%), Bada, RIM OS (14,8%) et Windows Mobile (2,8%). Si, par exemple, l’iPhone est populaire (Apple en avait vendu plus de 50 millions en avril 2010), le parc reste faible par rapport à celui existant des PC.

Sur le seul 4e trimestre de l’année dernière,93 millions d’ordinateurs ont été vendus. Il est vrai en revanche que les ventes de terminaux mobiles explosent (plus de 1 milliard de mobiles vendus par an). Mais seuls 20% sont des smartphones, c’est-à-dire des téléphones évolués et connectés.

Le nombre de mobiles susceptibles d’intéresser des cybercriminels augmente, certes, mais n’est vraisemblablement pas encore suffisant (bien que des chercheurs aient démontré lors du CCC de Berlin la possibilité de réaliser des scénarios d’attaques par SMS , et donc de viser les téléphones classiques, c’est-à-dire hors smartphones).

Donc un risque sur les mobiles, oui, mais qu’il convient de tempérer. Les vols , et les risques en termes de pertesde données en découlant, sont des menaces en comparaison plus tangibles, en particulier pour les entreprises. Mais la réponse à ce risque n’est pas nécessairement, ou exclusivement, technologique.

Des applications pour mobile, légales, mais indiscrètes

Mais le Clusif relève une autre menace, plus concrète celle-ci, concernant les atteintes à la vie privée des utilisateurs de mobiles. Des études duWall Street Journal et de l’éditeur Lookout soulignent ainsi l’indiscrétion d’un certain nombre d’applications pour Android et iOS, qui partagent des données personnelles avec des tiers (dont des régies publicitaires) sans que les utilisateurs en soient nécessairement conscients.

Eric Freyssinet regrette par ailleurs la banalisation des outils d’espionnage et de surveillance du mobile. « Il m’est arrivé souvent cette année de m’énerver devant certains reportages sur des services commercialisés par des sociétés et permettant par exemple d’espionner sa femme, son patron, un collègue… sans avertir que l’interception de SMS ou de conversation était totalement illégale . »

Le Clusif pointe également la vulnérabilité des protocoles exploités par les opérateurs dans la téléphonie, par exemple afin d’obtenir la localisation d’un terminal ou de suivre une communication.

La complexe mise à jour des OS, un facteur de risque

« Ceux qui définissent les normes et les opérateurs vont devoir sécuriser un peu mieux nos communications » estime le chef de la division de lutte contre la cybercriminalité. Une problématique qui devra aussi être prise en compte au niveau des terminaux eux-mêmes (systèmes d’exploitation).

La correction, via des mises à jour, des vulnérabilités des OS mobiles est en effet une tâche complexe compte tenu des spécificités de ce marché – étendant potentiellement la fenêtre d’exposition.

« Il est difficile de mettre à jour un téléphone à la toute dernière version sans la coopération des opérateurs et des fabricants. Les mises à jour sont donc décalées dans le temps. Un certain de terminaux sous Android restent par exemple sur la version 1.6 ou 2.1 , et donc vulnérable à l’exploitation démontrée par la société Lookout lors de la BlackHat. Or, ces terminaux ne seront probablement jamais mis à jour car le constructeur ne fera pas l’investissement » souligne Eric Freyssinet.

« Cela pose des vrais problèmes. Je pense qu’il est nécessaire que les industriels réfléchissent, quel que soit l’OS, à la façon de gérer les mises à jour, qui n’est pas suffisamment dynamique et pas adaptée aux risques de sécurité » conclut-il.

Source:http://www.zdnet.fr/actualites/panorama-de-la-cybercriminalite-malveillance-sur-mobile-une-promesse-deja-ancienne-39757496.htm#xtor=EREC-103
 

Publié dans INTERNET, RECHERCHE ET DEVELOPPEMENT, SCIENCE, SECURITE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TELECOMMUNICATIONS, TIC | Pas de Commentaire »

Les Africains restent les moins connectés à Internet

Posté par BAUDOUIN SCHOMBE le 31 décembre 2010

Le taux de pénétration sur le continent est le tiers de la moyenne mondiale en 2010

La révolution Internet n’aura pas lieu en 2010 sur le continent africain. Le taux de pénétration y est de 9,6% contre 30% en moyenne pour la planète. Les Africains n’ont pas encore saisi les opportunités du haut débit qui aggrave la fracture numérique.

Les derniers chiffres publiés par l’Union internationale des télécommunications (UIT) démontrent encore une fois que le continent africain reste à la traîne en matière de connectivité. Le taux de pénétration d’Internet en Afrique est de 9,6% soit la moitié du taux de pénétration moyen dans les pays en voie de développement (21%) et le tiers du taux de pénétration moyen dans le monde (30%). Dans les pays développés, ce chiffre est de 71%. Le haut débit devrait aggraver la fracture numérique. Le taux de pénétration est inférieur à 1% alors qu’il est de 24,6% dans les pays développés.

77 millions d’internautes

Le Forum économique mondial a conçu un outil baptisé NRI (Networked Readiness Index) qui indique dans quelle mesure un pays est préparé à tirer profit d’Internet. En mars 2010, il classait la Tunisie en tête des pays africains (39e), suivi par Maurice, la cyber-île (53e) et l’Afrique du Sud (62e) dans son rapport 2009-2010. Sur le continent africain, les pays du Nord, exception faite de l’Algérie, sont mieux lotis que leurs voisins de l’Afrique sub-saharienne. Notamment en matière de coût, un véritable frein à la démocratisation des nouvelles technologies en Afrique.
Le nombre d’utilisateurs d’Internet dans le monde a doublé entre 2005 et 2010 pour atteindre les 2 milliards, dont la moitié se trouvera dans les pays en voie de développement. Le continent africain en comptera seulement 77 millions (estimation au 21 octobre 2010). Cependant, il y en a cinq fois plus qu’en 2005. La Chine, avec plus de 420 millions d’utilisateurs d’Internet, est le marché le plus important de la planète.

Source:http://www.afrik.com/article21594.html

Publié dans GOUVERNANCE, INFORMATION, INTERNET, RECHERCHE ET DEVELOPPEMENT, SCIENCE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TELECOMMUNICATIONS, TIC | Pas de Commentaire »

Skype : la conversation vidéo disponible aujourd’hui sur iPhone

Posté par BAUDOUIN SCHOMBE le 31 décembre 2010

Une mise à jour de l’application introduit la possibilité de passer des appels vidéo en 3G et WiFi depuis et vers un iPhone4, 3G S, un iPod touch et les versions Windows, Mac OS X et Linux de Skype.

Skype n’a finalement pas attendu le Consumer Electronic Show (CES, 6-9 janvier) pour annoncer la fonction conversation vidéo pour son application iOS.
Elle est disponible dès aujourd’hui sur l’App Store pour l’iPhone 4, l’iPhone 3G S, l’iPod touch 4 et permet de passer et recevoir des appels vidéo entre ces terminaux mais également vers Skype sur Windows (version 4.2 et suivante), Skype sur Mac (version 2.8 et suivante) Skype pour Linux ainsi que le vidéophone d’Asus.

Bientôt Android

L’iPhone de 1ère génération n’est pas pris en charge. En revanche, l’iPad et l’iPod touch 3 peuvent recevoir les appels vidéo. La communication peut s’établir via une connexion 3G ou WiFi.
De quoi concurrencer directement le service FaceTime d’Apple qui ne fonctionne qu’en WiFi ? «  »Nous permettons à nos utilisateurs d’interagir avec tous les ordinateurs. Par ailleurs, notre nouvelle application avec la vidéo est aussi disponible pour l’iPhone 3GS, l’iPad et l’iPod Touch. Même si ces derniers n’ont pas de caméra frontale, ils peuvent recevoir la vidéo de leurs contacts. Enfin, les usagers récupèrent toute leur liste de contacts Skype, et c’est important pour eux, car ils ont souvent quelqu’un à appeler dès l’installation terminée », explique Rick Osterloh, directeur des produits grand public chez Skype, cité par LePoint.fr.

Dans son communiqué, Skype indique que sur les 6 premiers mois de l’année, les appels vidéo ont représenté 40% des minutes de communications « Skype à Skype ».

Apporter cette fonctionnalité aux autres versions mobiles de Skype devrait donc être une priorité, à commencer par Android et Symbian. Il n’est d’ailleurs pas impossible que l’on en sache plus la semaine prochaine lors du CES.
Une conférence de presse aura lieu le 6 janvier à Las Vegas en présence de Tony Bates, le P-DG de la compagnie luxembourgeoise au cours de laquelle Skype promet « une série d’annonces liées à la vidéo ». À suivre donc… (Eureka Presse)

(source:http://www.businessmobile.fr/actualites/skype-la-conversation-video-disponible-aujourd-hui-sur-iphone-39757147.htm#xtor=EPR-10010)

Publié dans GEOPOLITIQUE, GOUVERNANCE, INFORMATION, MEDIAS, RECHERCHE ET DEVELOPPEMENT, SCIENCE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TELECOMMUNICATIONS, TIC | Pas de Commentaire »

Cloud computing : les freins contractuels et juridiques

Posté par BAUDOUIN SCHOMBE le 22 décembre 2010

par Thierry Lévy-Abégnoli le 22/09/2010

Des problématiques à la fois juridiques et contractuelles entravent l’essor du cloud computing. Localisation des données, sécurité, réversibilité, auditabilité ou qualité de services doivent être formalisées.

1. La localisation physique des données personnelles

« Les aspects juridiques sont l’une des raisons majeures pour lesquelles une entreprise renonce au cloud », constate Marc Boullier, responsable de l’offre cloud computing chez Solucom. Principale problématique : la réglementation sur la protection des données personnelles. « Selon la loi Informatique et Libertés, récemment mise à jour, le prestataire gérant des données à caractère personnel doit garantir leur confidentialité et leur sécurité », précise Murielle-Isabelle Cahen, avocate à la cour d’appel de Paris. Il en résulte une interdiction de transférer ces données vers des pays n’offrant pas un niveau de protection adéquat.

Les États-Unis n’ont pas été reconnus par la Commission Européenne comme offrant ce niveau et les fournisseurs sont loin d’avoir intégré cette problématique », ajoute Murielle-Isabelle Cahen . A minima, ceux-ci doivent préciser où sont situés les serveurs. S’ils sont en Europe, l’obligation déclarative est allégée. De fait, l’infrastructure de Microsoft Azure est située aux États-Unis et en Europe (à Dublin et Amsterdam). « Nous donnons le choix du lieu d’hébergement », commente Bernard Ourghanlian, directeur technique et sécurité chez Microsoft France. Il reste que seul le client est responsable de la déclaration à la CNIL. « Les données sont en effet celles de l’entreprise et de ses clients », précise Olivia Flipo, avocate en nouvelles technologies et consultante auprès de Syntec Informatique.

2. Des types de données très contraignants

Certaines données imposent des contraintes particulières. « Pour les données de santé, il faut un agrément national qui impose en pratique un stockage en France », affirme Olivia Flipo . Cet agrément est toutefois partagé. « Le décret correspondant précise 74 exigences dont certaines concernent l’application métier donc notre client, alors que notre service est de type infrastructure, mais nous devons par exemple nous engager sur la durée de conservation », explique Dominique Vo, manager IT & sécurité, cloud computing chez Orange. De même, les factures électroniques sont soumises à un régime particulier. « Le pays d’accueil doit être lié à la France par une convention prévoyant une assistance mutuelle en matière de fiscalité », affirme Murielle-Isabelle Cahen.

3. Des contrats de service avec pénalités

Comme dans les offres d’infogérance, les clauses des contrats de services ciblent performances, disponibilité, garantie de restauration, confidentialité et sécurité. Mais leur respect est rendu plus difficile par la mutualisation, qui pose la question de l’étanchéité entre clients. « C’est un faux problème car la virtualisation gère bien cette problématique », assure Marc Boullier. Orange affiche ainsi sa confiance dans la technologie VMware mais propose aussi de dédier dynamiquement des ressources physiques puisées dans un pool. Des pénalités sont prévues par certains prestataires. « Nous garantissons 99,95 % de disponibilité pour notre bus de services et 99,9 % pour les instances Azure. En cas de non-respect, nous réduisons de 10 % la facture du mois suivant, et même de 25 % si l’on descend sous 99 % », explique Bernard Ourghanlian.

4. Réversibilité : évaluer son coût et sa complexité

En vue d’un retour en arrière ou d’un changement de prestataire, l’entreprise doit prévoir une clause de réversibilité. « Il faut en chiffrer le coût et prévoir un système fonctionnant en parallèle, le temps de convertir les données », explique Olivia Flipo. La complexité de la réversibilité doit être bien évaluée. « Par exemple, avec Google App, la récupération des e-mails ne pouvant s’effectuer que message par message, il faut réaliser un programme batch », prévient Marc Boullier. La question des formats se pose moins pour l’IaaS que pour le Saas.

Daniel Chiossi responsable services en ligne, Orange Business Services »Avec notre offre Flexible Computing, de type IaaS et basé sur l’hyperviseur de VMware, Orange garantit simplement la restitution des données dans leur format d’origine, par exemple SQL ou Web. Quant aux VM, nous les restituons dans le format de VMware », explique ainsi Daniel Chiossi, responsable marketing des services en lignes, division entreprises chez Orange.

5. Conformité réglementaire et auditabilité

L’offre de cloud doit garantir la conformité par rapport au droit. « Il y a obligation légale de ne pas entraver l’exercice de la justice, qui doit le cas échéant accéder à certaines données, ce qui peut être impossible si le service est hébergé hors de l’UE », explique Marc Boullier.
Cela revient à un problème d’auditabilité par un tiers. Certaines entreprises peuvent aussi exiger la possibilité de réaliser elles-mêmes un audit. « L’infrastructure d’Azure étant très partagée, nous essayons plutôt de nous mettre d’accord avec nos clients sur des auditeurs tiers et des normes comme ISO 27001, reconnus par les deux parties », répond Bernard Ourghanlia.

6. Des contrats trop standardisés

On constate par rapport à tous ces aspects, un rapport de pouvoir entre client et fournisseur. « Face à Google ou Microsoft, seuls les très grands comptes peuvent obtenir un contrat spécifique. En attendant une certification européenne ou un label, il faut impérativement faire auditer le contrat par un cabinet d’avocats », conclut Marc Boullier.

Publié dans INTERNET, RECHERCHE ET DEVELOPPEMENT, SCIENCE, SECURITE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TELECOMMUNICATIONS, TIC | Pas de Commentaire »

La sécurité est un frein à l’adoption du cloud computing

Posté par BAUDOUIN SCHOMBE le 22 décembre 2010

Par Antoine Robin

Les responsables informatiques craignent pour la sécurité et la confidentialité des données hébergées « dans le nuage ». Les fournisseurs ne semblent pas capables de les rassurer.

Forrester publie les résultats de deux enquêtes menées auprès de 2 200 cadres et décideurs informatiques de grandes entreprises et de PME, en Europe (France, Allemagne, Royaume-Uni) et en Amérique du Nord, sur les tendances d’équipement en matériel et infrastructures. Sur les 231 décideurs français interrogés, environ la moitié – soit 39 % des grandes entreprises et 50 % des PME – estiment que la sécurité est un frein important à l’adoption du cloud computing dans leur entreprise. Les décideurs craignent notamment la divulgation d’informations sensibles en cas d’erreur de manipulation ou de piratage.

De nombreuses questions se posent en effet au sujet de la continuité de service, de la sécurité et de la confidentialité des données, de leur récupération en fin de contrat, de leur traçabilité, etc. Quels sont par exemple les engagements contractuels du prestataire opérant le nuage en cas de découverte d’une faille de sécurité ? Le cadre légal est également un sujet sensible. Les contraintes réglementaires relatives à la traçabilité et à l’usage des informations personnelles ne sont par exemple pas les mêmes en Europe, aux Etats-Unis et en Asie. Or, le nuage peut être hébergé, par définition, n’importe où.

Cette étude confirme les résultats d’autres enquêtes menées en 2009. En avril dernier, 75 % des participants au salon InfoSecurity déclaraient qu’ils souhaitaient augmenter le budget alloué à la sécurité des applications externalisées. Une précédente étude d’IDC révélait que la sécurité est un point déterminant dans l’adoption (ou pas) du cloud computing aux Etats-Unis. Et, en juin dernier, Hugh Penri-William, membre de l’Information Security Forum (ISF) qui regroupe les RSSI des plus grosses entreprises au niveau mondial déclarait que « 91 % des membres de l’ISF estiment que le cloud computing accroît les menaces de sécurité ».

Résultat ? Selon Forrester, la proportion de grandes entreprises ayant adopté ce modèle n’a pas évolué depuis 2008, stagnant à 3 %. Et seulement 4 % des PME ont mis en œuvre cette solution, contre 2 % en 2008.

Publié dans DEVELOPPEMENT, GEOPOLITIQUE, INTERNET, RECHERCHE ET DEVELOPPEMENT, REGLEMENTATION, SCIENCE, SECURITE, SOCIETE DE L'INFORMATION, TECHNOLOGIE, TELECOMMUNICATIONS, TIC | Pas de Commentaire »

Réchauffement planétaire et tergiversation des pays du Nord.

Posté par BAUDOUIN SCHOMBE le 15 décembre 2010

 

Les pays du Nord ont été interpelllé jeudi dernier à Cauncun (Mexique) par les pays du bassin du Congo.Ces derniers, par la voix du Ministre Congolais de l’Environnement, de la Conservation de la Nature et du Tourisme(RDC),José Endundo,demandent aux pays du Nord de recompenser les efforts consentis par leurs pays dans le cadre de la lutte contre le réchauffement planétiare.

Ils ont déclaré que «  Nous avons fourni des efforts. Nous sommes disposés à les poursuivre, mais, pour cela, les efforts devraient être réciproques. Les discussions qui traînent en longueur sur la REDD + (Réduction des émissions de gaz à effet de serre dues à la déforestation et à la dégradation des forêts) notamment sur les mesures de sauvegarde et sur les engagements à long terme doivent cesser.

 

Ils se sont engagés collectivement, estiment-ils, pour développer des stratégies d’utilisation rationnelles des ressources naturelles pour en assurer la pérennité par la signature d’un plan de convergence sous-régionale sur cette question. Les pays de la Commission des Forêts d’Afrique Centrale(COMIFAC) détiennent 15 millions d’hectares de forêts gérées de façon durable,ont-ils manifesté. Cinq hectares sont déjà certifiées et près de 40 millions d’hectares de forêts sont dédiés à la conservation stricte. Leur ambition est d’atteindre 100% de forêts de production certifiée, pendant que le processus continue, et une augmentation significative de la superficie des forêts d’içi à 2020.

Les pays du bassin du Congo s’opposent à ce que la RDD+ soit incluse dans le volet NAMAS, conscients de l’importance qu’ils apportent dans le processus de stabilisation du climat et de leur rôle dans le régime climatique en perspective.

La COMIFAC est composée des pays suivants: Cameroun, Tchad, Burundi, Rwanda, Sao Tomé et Principe, la République Démocratique du Congo (RDC), République du Congo, République Centrafricaine (RCA), Gabon et Guinée Equatoriale.

 

 

Publié dans AGRICULTURE, COOPERATION INTERNATIONALE, DEVELOPPEMENT, ECONOMIE, EDUCATION, ENVIRONNEMENT et DEVELOPPEMENT DURABLE, GEOPOLITIQUE, GOUVERNANCE, POLITIQUE, RECHERCHE ET DEVELOPPEMENT, REGLEMENTATION, SCIENCE, SECURITE | Pas de Commentaire »

12345...12
 

LE CMV |
LES ANCIENS DU CHAMPS DE CL... |
Bienvenue chez moi ! |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | consensus
| presseecrite
| lesjournalistes