Les pionniers de l’informatique : 11 machines stars des années 1970

Posté par BAUDOUIN SCHOMBE le 21 juin 2008

Dotés de 64 K de RAM au maximum, de lecteurs de cassettes ou cartouches et d’écrans monochromes ou 16 couleurs, les ordinateurs des années 70 ont ouvert la voie. Retour en images sur une sélection de ces machines signées Commodore, Apple, IBM ou encore Atari.

 

Les pionniers de l'informatique : 11 machines stars des années 1970 dans SCIENCE 1970s-comp-01-540x310

IMSAI 8080 – Lancé en 1975, le IMSAI 8080 n’est pas le plus vieux PC du marché, mais c’est le premier à avoir été commercialisé tout prêt, sans nécessiter d’assemblage relativement compliqué, contrairement à ses prédécesseurs.
Conçu par IMS Associates à San Leandro, en Californie, il a été produit à 20 000 exemplaires et coûtait 930 dollars à l’époque. Il était doté d’un processeur Intel 8080A cadencé à 2 MHz, et avait 64 k de RAM. Dans sa configuration la plus basique, aucun clavier ou écran n’était nécessaire. La programmation était plutôt réservée aux amateurs très éclairés. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

image2-1970s-comp-02-550x249 dans TECHNOLOGIE

IBM 5100 : lancé en 1975, l’IBM 5100 est le premier micro-ordinateur d’IBM (ce n’est pas un mainframe) et est considéré comme le premier PC portable du monde. Avec ses 22 kg, on devrait plutôt le décrire comme étant à encombrement réduit plutôt que portable. Il disposait d’un processeur 1,9 MHZ et de 16 à 64 K au maximum de RAM. Son prix : 19000 dollars pour la version avec 64 k. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

 

image3-1970s-comp-06-550x336 dans TIC

Apple II : lancé en 1977, l’Apple II, également appelé Apple ][, fut l’un des plus gros succès planétaires de l’informatique, écoulé à 2 millions d’exemplaires au bout de 7 ans. Apportant de nettes améliorations par rapport à l’Apple I – écran couleur, 8 logements d’extension et un clavier -, il disposait néanmoins du même processeur, cadencé à 1 MHz. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

 

image4-1970s-comp-08-550x429

Commodore PET : né en 1977, le PET (Personal Electronic Transactor) est le tout premier ordinateur de Commodore. Moyennant .795 dollars, il offrait un processeur MOS 6502 à 1 MHz, avec 4 ou 8 k de RAM. Son écran intégré le rendait très convivial. Par contre, son clavier s’est avéré l’un des pires du marché, avec des touches très peu pratiques. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

image5-1970s-comp-09-550x362

TRS-80 de Tandy : né en 1977, le TRS-80, qui fut l’un des premiers ordinateurs pour particuliers, remporta un grand succès. Au-delà des espérances de Tandy, son fabricant, il s’est écoulé à 10 000 exemplaires pendant son premier mois de commercialisation. Avec ses 32 K de RAM et son processeur 1,77 MHZ, il offrait, moyennant 600 dollars, tous les éléments nécessaires, avec même la possibilité de sauvegarder et récupérer des données à l’aide d’un lecteur de cassettes, ancêtre des disquettes. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

image6-1970s-comp-11-476x321

H8 de Heathkit : commercialisé fin 1977, le H8 est le premier ordinateur de Heathkit. Avec un processeur Intel 8080A à 2 MHz, il était vendu 379 dollars, auxquels il fallait impérativement ajouter 140 dollars pour disposer de 4 K de RAM. Pour utiliser un lecteur de cassettes afin de sauvegarder des données, une carte d’E/S H8-5 était indispensable, rajoutant 110 dollars au total. Et pour installer un lecteur de disquette, 16 K de RAM étaient le minimum. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

image7-1970s-comp-17-414x274

TRS-80 II : Lancé au printemps 1979, le TRS-80 II, conçu par le texan Radio Shack, est venu prendre la relève du premier modèle TRS-80, avec des performances améliorées, notamment au niveau de la capacité et de la vitesse. Ciblant spécifiquement le marché des petites entreprises, il intégrait un écran monochrome. Doté d’un processeur 4 MHZ, il coûtait 3450 dollars avec 32 K de RAM, ou 3899 dollars avec 64 K de RAM. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

 

image8-1970s-comp-18-464x280

H89 de Heathkit : forts du succès de son ordinateur H8 lancé en 1977, Heathkit a réitéré l’expérience avec le modèle tout-en-un H89, fin1979. Comme la plupart des autres machines de son temps, il était proposé en kit pour 1595 dollars ou en version déjà assemblée, moyennant 700 dollars de plus. Il était doté de 16 à 48 k de mémoire RAM, d’un processeur 2 MHZ, et d’un écran intégré de 12 pouces monochrome. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

 

image9-1970s-comp-19-550x207

Atari 400 : commercialisé fin 1979 au prix de 550 dollars, l’Atari 400, au look de machine à écrire, ciblait avant tout un public d’enfants, avec un design étudié et un boîtier résistant aux chocs. Doté d’un processeur 1,8 mHZ, et d’un écran monochrome ou 128 couleurs, il disposait d’un port pour cartouche à l’avant. Un seul programme – bloc-notes – était intégré. Pour en lancer d’autres, il fallait utiliser une cassette ou une cartouche.
La plupart des jeux disponibles sur cartouche étaient semblables aux jeux d’arcade actuels, avec des best-sellers dans les années 1980 –pac-man, donkey kong. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

 

image92-1970s-comp-20-480x209

Atari 800 : sorti fin 1979 comme son petit frère le 400, l’Atari 800 était un système évolutif, avec deux ports pour cartouches à l’avant et un capot amovible, sous lequel se trouvaient quatre logements d’extension. Comme l’Atari 400, le 800 a été conçu par l’équipe à l’origine, ensuite, du Amiga 1000 de Commodore. Il coûtait 900 dollars avec une puce 1,8 MHZ, un écran monochrome ou 128 couleurs. Quatre lecteurs de disquette pouvaient être connectés. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

image93-1970s-comp-21-550x382

TI-99/4 de Texas Instruments : sorti en juin 1979, la console TI-99/4 fut le premier ordinateur de la firme. Mais aussi l’une des machines ayant l’un des plus grands moniteurs commercialisés – il s’agissait dans les faits d’un écran de télévision couleur Zenith 13 pouces et 16 couleurs adapté à l’usage informatique. Vendu 1 150 dollars, l’ordinateur disposait d’un processeur 3 MHZ avec 16 ou 26 K de RAM. Il disposait d’un lecteur de cassette et d’un port pour cartouches, support le plus répandu alors pour les programmes commerciaux. Son clavier n’était en revanche pas très pratique. (Crédit photo : CNet News.com et Steven Stengel, Oldcomputers.net)

 

 

 

 

 

 

 

 

 

Publié dans SCIENCE, TECHNOLOGIE, TIC | Pas de Commentaire »

Les pionniers de l’informatique : 17 ordinateurs qui ont marqué les années 80

Posté par BAUDOUIN SCHOMBE le 21 juin 2008

Technologie – Les années 80 ont vu décoller le marché de la micro-informatique, avec des modèles mythiques comme le Commodore 64, l’Apple Macintosh ou le Sinclair ZX81. Les écrans couleurs, les interfaces graphiques et les portables ont fait leur arrivée

Les pionniers de l'informatique : 17 ordinateurs qui ont marqué les années 80 dans SCIENCE 01-HP%20model%2085

1 – Hewlett-Packard Model 85 (janvier 1980)

En janvier 1980, le constructeur américain Hewlett-Packard commercialise son HP-85, un ordinateur « tout en un », incluant donc un clavier, une unité centrale, un écran (5 pouces), mais aussi une imprimante thermique à rouleau dans un même boîtier. Le design du HP-85 est très proche de l’IBM 5100, qui date de 1975 et est considéré comme l’un des premiers micro-ordinateurs. Vendu 3 250 dollars, le HP-85 intégrait une processeur HP 8 bit cadencé à 0,613 MHz, épaulé par 8 à 64 Ko de RAM. (Crédit photo : oldcomputers.net)

02-ZX80 dans TECHNOLOGIE

2 – Sinclair ZX80 (février 1980)

Le fabricant britannique Sinclair commercialise au début de l’année 1980 son ZX80, pour un peu moins de 1 000 francs. Il était animé par un processeur 8 bits cadencé à 2,5 MHz (Zilog Z80), avec 1 Ko de mémoire. Son clavier à membrane offrait une ergonomie limitée. Sinclair en vendra environ 70 000 avant de lancer une version évoluée en 1981, le ZX81 (voir ci-après). (Crédit photo : oldcomputers.net

 

03-Apple%20III dans TIC

3 – Apple III (1981)

Après le succès remporté par son Apple II, la firme de Steve Jobs lance en 1981 l’Apple III. Une machine plutôt dédiée à une utilisation professionnelle et vendue près de 3 900 dollars avec son moniteur. L’Apple III intègre un processeur Synertek 6502A grimpant à 2 MHz, et de 128 à 512 Ko de mémoire. Il s’en vendra environ 65 000 en quatre ans. (Crédit photo : oldcomputers.net)

 

04-Sinclair%20ZX81

4 – Sinclair ZX81 (mars 1981)

Évolution du ZX80 sorti un an plus tôt, le Sinclair ZX81 arrive sur le marché au printemps 1981. Son prix est encore plus bas que son prédécesseur : environ 500 francs. L’ordinateur est livré en kit. Il fonctionne avec un processeur Zilog Z80A cadencé à 3,25 MHz et toujours 1 seul Ko de mémoire vive, mais évolutif jusqu’à 64 Ko. Sinclair a gardé son clavier à membrane qui aura laissé des souvenirs impérissables à plus d’un utilisateur. La programmation se faisait en Basic en tapant les instructions imprimées sur les touches, à côté des lettres. Le fabricant britannique en a écoulé plus de 500 000 exemplaires la première année. (Crédit photo : oldcomputers.net)

 

05-osborne1

5 – Osborne 1 (Avril 1981)

Réalisé en 1981 par Osborne Computer Corporation, le Osborne 1 est considéré comme étant le premier ordinateur portable. Il disposait d’un boîtier valise pesant un peu plus de 11 Kg. L’Osborne 1 intégrait un processeur Zilog Z80 à 4 MHz et 64 Ko de RAM. L’écran offrait une diagonale de 5 pouces. Il n’intégrait pas de batterie et devait donc être branché sur secteur. Osborne proposera par la suite une batterie portable complémentaire, offrant 1 heure d’autonomie. Cet ordinateur était vendu 1 795 dollars. Quelque 125 000 exemplaires furent construits dès 1982. (Crédit photo : oldcomputers.net)

 

06-zxspectrum

6 – Sinclair ZX Spectrum (1982)

En 1982, Sinclair propose son ZX Spectrum, qui succède au ZX81 avec, comme principale différence, la sortie vidéo couleur (sept couleurs plus le noir), au lieu du noir et blanc. Il était animé par le processeur Zilog Z80 tournant à 3,5 MHz, et doté de 16 à 48 Ko de mémoire. Cette machine a surtout été vendue en Grande-Bretagne où elle fut le premier ordinateur personnel grand public, avec un prix de 125 livres sterling (1 500 francs à l’époque). Elle fonctionnait avec un lecteur de cassette (les mêmes que les K7 audio) pour stocker les données.

 

 

 

 

 

066-TO7

7 – Thomson TO7 (1982)

En 1982, la société française Thomson lance son TO7, qui rencontrera un vif succès en France du fait de sa distribution dans les écoles. Il s’est notamment distingué par l’utilisation d’un crayon optique pour pointer des éléments affichés à l’écran. Le TO7 était animé par un processeur Motorola 6809 cadencé à 1 MHz avec 8 Ko de RAM. Il était capable d’afficher 320×200 pixels en 8 couleurs.

Cette machine disposait d’une trappe pour insérer des cartouches ROM, notamment celles de jeux. Vendu 7 000 francs à sa sortie, il sera remplacé en 1984 par le TO7-70, qui intègrera notamment 48 Ko de RAM.

 

07-commodore64

8 – Commodore 64 (septembre 1982)

En septembre 1982, le Commodore 64 arrive sur le marché. Il sera l’un des premiers gros succès commerciaux de l’industrie du micro-ordinateur. Commodore Business Machines Inc. en vendra plus de 17 millions, au prix d’environ 600 dollars. Cette machine était basée sur un processeur MOS 6510 à 1 MHz, épaulé par 64 Ko de mémoire. L’affichage était en 16 couleurs avec une résolution de 320×200 pixels. Le Commodore 64 intégrait une puce sonore 3 voies. De nombreux jeux furent proposés pour cette plateforme. (Crédit photo : oldcomputers.net)

08-oric_1

9 – Oric 1 (1983)

En 1983, la société britannique Oric commercialise son Oric 1, basé sur un processeur 8 bits 6502 cadencé à 1 MHz, 16 Ko de mémoire et un clavier de 57 touches souples. Il offrait une résolution de 240×200 pixels en 8 couleurs, et intégrait une puce sonore 3 voies. Vendu 2 000 francs, il remporta un relatif succès au Royaume-Uni et en France, où il s’en vendra 50 000 unités en 1983.

 

09-Amstrad_CPC464

10 – Amstrad CPC 464 (1984)

C’est en 1984 qu’apparaît l’Amstrad CPC 464, qui remportera un franc succès avec plus de 2 millions d’exemplaires vendus, notamment en France. Conçu pour une utilisation familiale, il coûtait environ 3 500 francs. Son boîtier intégrait une unité centrale, un clavier et un lecteur de K7 pour charger les programmes. Il fonctionnait avec un processeur Z80A à 4 MHz, avec 64 Ko de RAM (extensibles à 512 Ko) et 32 Ko de mémoire morte (ROM extensible à 4 Mo). Le CPC 464 était capable d’afficher une palette de 27 couleurs, avec un résolution montant à 640×200 pixels (2 couleurs). Il intégrait la puce sonore General Instruments AY-3-8912, 3 voies stéréo.

Une version plus évoluée, intégrant notamment un lecteur de disquette et baptisée CPC 6128, verra le jour en 1985. De nombreux jeux seront proposés sur cette plate-forme, dont le mythique Barbarian

 

 

91-apple_IIc

11 – Apple IIc (1984)

En 1984, la firme à la pomme fait évoluer son Apple II, qui devient Apple IIc (c pour compact). Vendu 1 300 dollars, cette machine bénéficie d’une campagne publicitaire qui lui permettra de s’écouler à 52 000 unités le premier jour de sa mise sur le marché aux États-Unis. Au total, Apple en vendra 400 000 en un an. L’Apple IIc était animé par un processeur MOS 65C02 à 1 Mhz, disposait de 128 Ko à 1 Mo de mémoire vive, et de 32 Ko de mémoire morte.

92-Commodore%20SX-64

12 – Commodore SX-64 Executive (1984)

En 1984, Commodore propose son SX-64, qui est le premier ordinateur portable couleur. Son écran de 5 pouces affiche ainsi jusqu’à 16 couleurs, pour une résolution de 320×200. Pesant un peu plus de 10 Kg, il devait être branché sur le secteur et ne disposait pas de batterie intégrée. Le SX-64 intégrait un lecteur de disquettes, ainsi qu’un clavier à ranger dans un boîtier valise dédié. Ce portable intégrait un processeur MOS 6510 à 1MHz et 64 Ko de RAM. Il fut vendu au prix de 995 dollars. (Crédit photo : oldcomputers.net)

 

93-Apple%20Macintosh

13 – Apple Macintosh (janvier 1984)

Début 1984, Apple commercialise son Macintosh, qui deviendra une marque mythique. Cette machine est considérée comme le premier ordinateur grand public à proposer une véritable interface graphique (la Macintosh GUI – Graphical User Interface). L’utilisateur n’a désormais plus à taper du code, mais navigue via des icônes en noir et blanc. Une vraie révolution à l’époque. Il fonctionnait avec un processeur Motorola 68000 à 7,83 Mhz et avait entre 128 et 512 Ko de mémoire vive. L’Apple Macintosh était vendu 2 495 dollars. (Crédit photo : oldcomputers.net)

933-MO5

14 – Thomson MO5 (1984)

En 1984, Thomson propose son MO5, qui présente une réelle évolution par rapport à son prédécesseur, le TO7. D’ailleurs, ses programmes étaient incompatibles avec ceux du TO7 et du TO7/70. Comme ces derniers, le MO5 doit sa célébrité en France à son implantation massive dans les écoles. Il était doté d’un processeur Motorola 6809E cadencé à 1 MHz, de 48 Ko de RAM et 16 Ko de ROM. Le MO5 pouvait afficher 320×200 pixels en 16 couleurs. Vendu 2 390 Francs, il connut un succès moindre que le TO7.

 

 

94-Atari%20520ST

15 – Atari 520ST (1985)

L’Atari 520ST est commercialisé au début de l’année 1985, au prix relativement bas de 600 dollars. Il fonctionne avec une souris et une interface graphique, selon le même principe que les PC actuels. Le système d’exploitation était baptisé TOS pour The Operating System. Cette machine était dotée d’un processeur Motorola 68000 à 8 MHz et de 512 Ko de RAM. L’Atari 520ST était capable d’afficher 640 x 400 pixels en monochrome, ou notamment 640 x 200 pixels en 4 couleurs. De nombreux jeux furent proposés sur cette plate-forme. (Crédit photo : oldcomputers.net)

95-amiga-500

16 – Amiga 500 (1987)

Sorti en 1987, l’Amiga 500 ou A500 était fabriqué par Commodore. Vendu 4 500 francs, il est venu entrer en concurrence avec l’Atari 520 ST. Il utilisait le processeur Motorola 68000, cadencé à 7,14 MHz (PAL) ou 7,09 MHz (NTSC). Cette machine était livrée avec 512 Ko de mémoire. Les performances graphiques sont très élevées pour l’époque, notamment le mode 640×512 pixels en 16 couleurs parmi 4096. La qualité sonore est également élevée : 4 voix 8 bits. Le système d’exploitation est un dérivé d’Unix.

 

96-macportable

17 – Apple Macintosh Portable (1989)

En 1989, Apple lance son premier ordinateur portable : le Macintosh Portable. Vendu plus de 7 000 dollars, cette machine pesait un peu plus de 7 Kg avec une batterie offrant jusqu’à 12 heures d’autonomie. Cet ordinateur intégrait un processeur Motorola 68HC000 à 16Mhz , 1 Mo de RAM (9 Mo maximum) et 40 Mo de disque dur. L’écran noir et blanc offrait une diagonale de 10 pouces et pouvait afficher 640 x 400 pixels. L’Apple Macintosh Portable fonctionnait avec Mac OS 6.04. (Crédit photo : oldcomputers.net) 

 

 

 

 

 

 

 

Publié dans SCIENCE, TECHNOLOGIE, TIC | Pas de Commentaire »

L’OMPI se félicite de l’adhésion de l’OAPI à un important traité sur les dessins et modèles industriels

Posté par BAUDOUIN SCHOMBE le 17 juin 2008

L’OMPI se félicite de l’adhésion de l’OAPI à un important traité sur les dessins et modèles industriels dans CULTURE  dans DEMOCRATIE ET ETAT DE DROIT

Publié dans CULTURE, DEMOCRATIE ET ETAT DE DROIT, SCIENCE, TIC | Pas de Commentaire »

Le Métier de documentaliste

Posté par BAUDOUIN SCHOMBE le 16 juin 2008

 

metierdocPréface de Martine Sibertin-Blanc, présidente de l’ADBS

C’est avec un grand plaisir que je préface cette nouvelle édition, au nom de l’ADBS et de tous les professionnels qu’elle rassemble. D’abord, je tire mon chapeau à nos deux artistes, Jean-Philippe Accart et Marie-Pierre Réthy, d’avoir remis l’ouvrage en route pour la troisième fois, explorant sans réserve ni a priori de nouvelles voies et formes du métier de documentaliste.

Documentaliste ? Là est la question : peut-on toujours parler de « documentaliste » en 2008 ? Certes être documentaliste, c’est être un professionnel de l’information, mais les professionnels de l’information exercent maintenant dans les entreprises sous des appellations les plus diverses : de veilleur à architecte de l’information, de records manager à chef de projet web (ou gestionnaire de contenu). Ces différentes fonctions font-elles partie d’un seul métier, ou s’agit-il de métiers différents qui feraient appel à des compétences communes ?

Le débat est loin d’être clos, et c’est un fait que cette troisième édition -véritable refonte de l’ouvrage rendue nécessaire par l’irruption du Net – était très attendue ; elle constitue un rendez-vous important pour la profession, car il s’en est passé bien des choses depuis l’édition de 2003 !

Si je ne retenais que 2 choses…

- les évolutions technologiques ont conduit à une révolution. Et après une révolution, rien n’est plus comme avant : le monde a changé, notre place dans ce monde a changé. Cet ouvrage, associé aux « éléments de contexte » que donne au fil des jours le web de l’ADBS, nous aide à mieux comprendre et se situer dans le champ des possibles : la veille, l’intelligence économique, le knowledge management, le records management, l’information structurée, l’information non structurée, la gestion de l’information, les services, le marketing documentaire… mais aussi le volet plus technologique autour des réseaux et de l’ingénierie documentaire

- l’utilisateur n’est plus tout à fait le même. Et ce n’est que le début… N’oublions pas que dès demain les jeunes – qui passent maintenant plus de temps à produire sur Internet qu’à consommer de la télévision – seront nos utilisateurs. Ils sont nés dans la société de l’information et ne connaissent que ça. Il faut que les services que nous leur proposerons aient un sens pour eux !

Paris, janvier 2008

Publié dans CULTURE, EDUCATION, SCIENCE, TECHNOLOGIE | Pas de Commentaire »

Triple play and broadband will power the next stage of growth for Africa’s Internet

Posté par BAUDOUIN SCHOMBE le 16 juin 2008

With dial-up, the experience of Africa’s Internet has been like trying to eat a meal by sucking it through a straw. It’s been slow and expensive for the individual user so it’s hardly surprising that it has thus far only attracted a relatively small band of users compared to mobile phones. By the middle of next year, much cheaper international fibre prices will come to East Africa and their impact will spread out across the continent starting in South Africa. Cheaper International prices will mean downward pressure on national backbone prices. All this lays the foundation for much faster retail broadband services and the possibility of delivering genuine Triple Play bundles in Africa.


Except in the larger markets, the potential for the Internet in Africa is in the hundred of thousands or the tens of thousands depending on the size of a country but this is a great deal larger than the current size of Internet subscribers which tend in the main to be in the thousands. One of the key shifts will be that an increasing number of ISPs and telcos will devise broadband and Triple Play offers that are targeted at Africa’s middle classes in their homes.

This week sees the publication of the second edition of African Broadband, Triple Play and Converged Markets (the first edition was in 2005), a comprehensive 155+ page report that contains both consumer and industry data covering the key issues that will emerge as broadband growth takes off. The consumer data covers key questions from national and urban samples in 24 countries from both the high and low-growth markets.

African Broadband, Triple Play and Convergence Markets covers:

• Triple play and converged players: No one operator has all the skills required to create a successful African Triple Play offer but the report examines the likely players including: the vertically integrated telcos, the cable operators, the larger incumbent telcos, the Pay TV operators and alternative insurgent challengers. It also identifies those who have chosen to sit out this particular dance and the strategic alliances the players will have to make to succeed. For six key markets it provides numbers of cable, IP-TV and satellite subscribers and projects the likely potential for Triple Play operators by looking at levels of home PC ownership.

• Price survey and pricing strategy: Based on a survey of broadband offers in 38 African countries, the report provides comparisons between different capacities and download caps and between fixed and mobile Internet prices. In the relatively small number of countries where broadband pricing has allowed consumer use to develop, the report looks at the relationship between price and subscriber numbers.

Although some operators are offering laughably slow speeds and calling them broadband, the amount of capacity users are getting is increasing and the amount they are paying for it will continue to fall. Many African operators do not really believe that the Internet is a consumer service and price broadband services as a sort of leased line substitute for the low-end of the corporate market. But as the consumer survey data in the report shows, this is a very short-sighted commercial strategy in all but a handful of Africa’s poorest countries. By the end of 2007, there were nearly 3 million African broadband subscribers and this number is set to treble over the next 3 years.

• Speed of roll-out: When the first edition of this report was published in 2005, slightly less than half of the countries in Africa had some form of broadband offer. Now nearly all countries have some form of broadband services and those services are increasingly widely distributed on a geographic basis. The report updates operator implementation by delivery type and looks at which types of operators are using the different types of delivery technology available, providing one of the most complete and detailed overviews of broadband implementation.

• The question of content – the Internet as media and who’s using what content?: Broadband use in Africa, as elsewhere, thrives on the services and applications that are available to users. Increasingly the Internet is becoming a media in its own right: a tiny 1% of advertising revenues in South Africa goes to the Internet but this will increase rapidly over the next three years. African newspapers will be particularly vulnerable as those with smaller circulations are expensive to produce and have disproportionately high advertising rates.

Drawing on a wide range of country consumer surveys, the report looks at who is using the Internet on a daily basis, what they use it for and how its use compares to other competitor media like newspapers, radio, TV and SMS. It divides Internet markets into three categories – top, mid and low-tier – and provides a set of comparable data for each. The more detailed information from the top-tier markets offers intriguing clues as to what will happen in the mid tier markets as consumer broadband use becomes more widely distributed.

• Converged market bundles like mobile TV and other offers: The continent is the site of one of the most extensive set of roll-out plans for mobile TV. The report has a section that covers how it is being done, the initial numbers using the services and the technologies involved. It looks at how Triple Play offers might become Quad Play offers with mobile voice and mobile TV added in. France Telecom-owned Telkom Kenya has already announced that it will include these kinds of services when it launches its mobile service in September.

Balancing Act’s Broadband, Triple Play and Converged Markets, is over 155 pages long and has 42 charts, 38 tables of statistical data and 1 graphic map. In addition there are is a spreadsheet workbook with 10 worksheets providing actuals and forecasts of broadband numbers and a spreadsheet of broadband pricing and offers from 38 countries.

For details, go to: http://www.balancingact-africa.com/publications.html

 

Eric M.K Osiakwan

Executive Secretary

AfrISPA (www.afrispa.org)

Tel: + 233.21.258800 ext 2031

Fax: + 233.21.258811

Cell: + 233.244.386792

Handle: eosiakwan

Snail Mail: Pmb 208, Accra-North

Office: BusyInternet – 42 Ring Road Central, Accra-North

Blog: http://blogs.law.harvard.edu/eric/

Slang: « Tomorrow Now »

Publié dans SCIENCE, TECHNOLOGIE, TIC | Pas de Commentaire »

Mi-Fone lance un mobile pour moins de 17 dollars ciblé vers les populations rurales

Posté par BAUDOUIN SCHOMBE le 13 juin 2008

Le fabricant de combinés portables Mi-Fone est décidé à produire des combinés peu chers qui permettront aux opérateurs mobiles d’étendre leur offre à une plus large catégorie d’utilisateurs à bas revenu. L’éventail de son offre  va d’un combiné sans écran pour moins de 17$ US à un mobile pour 35$ US comprenant une caméra, une radio FM et un écran en couleur. Mi-Fone est pour l’instant qu’un nouvel équipementier avec beaucoup de prétentions mais sans vrai marque mais son fondateur, Alpesh Patel, qui était un responsable en chef dans le service de vente de Motorola, connaît bien le terrain. Dans un entretien avec Russell Southwood, Alpesh Patel explique comment il envisage de pénétrer le marché.

Mi-Fone a reçu des commandes d’essais de plusieurs opérateurs incluant Celtel Nigeria, Tigo Ghana, Cellcom et Orange Madagascar. Celtel Nigeria a approuvé le combiné pour la vente. Pour Alpesh Patel, il s’agit bien d’une opportunité de distribution à grande échelle. « 30% des opérateurs que nous avons contacté ont répondu positivement et vont ajouter nos combinés à leur liste de mobiles recommandés. Si cela marche bien, nous pensons pouvoir frapper aux portes des opérateurs dans les autres pays ».

Durant le premier mois de commercialisation en avril 2008, Mi-Fone a reçu des commandes pour 15,000 unités et s’emploie à développer un réseau de distribution dans les pays clés. La société compte parmi ses distributeurs : l’Uganda (Cell to Cell), l’Ile Maurice (Mauritel qui est aussi une société qui a investi dans Mi-Fone), le Kenya (Phones Express), le Ghana (Melcom Group) et l’Afrique du Sud (XP).

Le portable sans écran à moins de 17$ US sera disponible en juillet. Ce combiné est le résultat de la demande des opérateurs mobiles pour des portables à bas prix. C’est bien étrange de ne pas avoir un écran et difficile de se rappeler que la téléphonie mobile avait démarré avec de tels combinés. L’activation du téléphone se fait via un serveur vocal et il n’a pas d’option SMS. Le combiné cible la population très jeune et la population agée en milieu rural qui manquent d’argent et souffrent d’illétrisme pour manipuler un combiné offrant plus de fonctionnalités. Le portable est aussi destiné à la population agée malvoyante. Mi-Fone estime que leurs portables seront attractifs dans les nouvelles zones de couverture ou les gens ne sont pas encore très familiers avec des portables.

Patel admet  « que les gens sont étonnés par ce téléphone. Il leur est difficile de croire en l’idée d’un portable sans écran. Nous ne comptons pas vendre des millions d’unités mais les opérateurs demandaient des combinés peu chers donc nous avons réduit les fonctionnalités au maximum ». Si le coût de ce portable est partiellement financé par les opérateurs, les combinés peuvent être vendus à 4-5$ US à l’unité.

Les autres combinés portables qui sont fabriqués en Chine, affichent des prix entre 20 et 40$ US. La réduction du nombre de fonctionnalités a aussi permis d’allonger la durée de vie de la batterie. Le modèle Mi 220F a une caméra VGA, une radio  FM et un écran couleur et ne coute que 35$ US.

La société entend aussi consacrer une partie de sa stratégie à cibler les jeunes avec des combinés présentant assez de fonctionnalités à un prix qui retiendra leur attention. Patel estime que les étudiants seront particulièrement intéressés  par des mobiles à bas prix. Il croit avec passion que la téléphonie mobile est le futur de l’Afrique et il compte produire un portable à bas prix qui permettra d’accéder à l’Internet.

La ligne démarquant les portables de marque des portables génériques est très mince. Les portables de marque avec entre autre Nokia, Motorola, Samsung, Apple ont dépensé des millions à créer un rêve évanessant. Les visages blancs et heureux sur les pancartes publicitaires de Nokia en Afrique aspirent à quelque chose de meilleur. Vous ne disposez peut-être pas de la richesse ou du style mais votre portable est une publicité bien visible pour montrer qui vous êtes comme africain.

Malgré leurs efforts marketing, les grands fabricants de portable sont plus vulnérables dans des pays en voie de développement  comme en Afrique. Les investissements réalisés dans la recherche et le développement et les coûts plus élevés dans les pays développés font qu’il est plus difficile d’opérer avec de faibles marges au bas de l’échelle des prix.  Cette  maigre marge de manoeuvre sera peut-être juste suffisante (et seulement juste suffisante) pour permettre l’entrée d’un fabricant de portables génériques.

Entre temps et à l’opposé dans l’éventail des prix des mobiles, Orange a annoncé un accord avec Apple pour la distribution de l’iPhones dans les pays africains. Cela inclut la Guinée, la Guinée-Bissau, la Guinée Equatoriale, le Sénégal, la Côte d’Ivoire, le Niger, le Mali, le Kenya, le Cameroun, Madagascar, le Botswana et la République Centrafrique. A signaler que l’iPhone est déjà en circulation en petites quantités dans un certain nombre de pays africains.

Il est difficile de pronostiquer le niveau de vente des iPhones en Afriques mais l’interface de l’écran devrait encourager la réflexion sur comment fabriquer un combiné portable qui peut revendiquer d’être facile à utiliser pour accéder l’Internet. Le nombre de consommateurs « data » est entrain d’augmenter en Afrique et ces utilisateurs vont certainement vouloir un mobile qui ne suppose pas d’avoir des doigts très fins.

Publié dans SCIENCE, TECHNOLOGIE, TIC | Pas de Commentaire »

LE 5EME FORUM DES LEADERS DES TELECENTRES DE L’AFRIQUE DE L’EST

Posté par BAUDOUIN SCHOMBE le 13 juin 2008

Le 5ème forum des leaders des telecentres de l’afrique de l’Est  s’est
déroulé à Khartoum, du 09 au 11 Juin 2008
La participation a pris un caractère tout  a fait original. En effet, en
plus des participants habituels de l’Afrique de l’Est ( Burundi, Rwanda,
Tanzanie, Kenya, Ouganda), des participants provenant d’autres régions du
monde étaient là. Un participant venu du Brésil, 3 participants venus de
l’Inde, un participant venu de Syrie, un participant venu du Mozambique,
un participant venu de la Zambie, des participants du Soudan, de la
Somalie, un participant venu d’Egypte et bien évidement un participant
venu de IDRC ( Canada). Durant ce forum, nous avons vu l’implication
directe des autorités gouvernementales du Soudan et même du secteur privé
( les opérateurs des télécoms comme la compangie nationale)
De la diversité des régions représentées, il en a résulté une richesse en
expériences de la part des praticiens et leaders des télecentres présents.
Un des principaux thèmes abordés en plus de l’échange habituel
d’expérience était la mise en place d’une académie des télécentres de la
région. Dans cette optique, Monsieur Souza Sales Jose Avando, venu du
Brésil a partagé l’expérience du Brésil. Tout le monde s’accorde sur
l’importance de cette institution de formation pour les praticiens des
télécentres.  La formation devrait se dérouler en ligne surtout, mais avec
une composante présentielle. Le Gouvernement du Soudan s’est vite
intéressé à cette idée. Il a pris un engagement de mettre en place une
académie nationale des Télecentres et de soutenir l’académie régionale.
Cette promesse a été donné de la bouche de Monsieur Abdul Gadir Mohammed
Ali, Ministre d’Etat des Affaires Sociales et du Bien Etre de l’Etat de
Gedaref. Cette volonté a été manifestée aussi par l Dr. Eisa Bashari,
Ministre des Technologies de l’Information et de la Communication du
Soudan. Sur ce, un comité de suivi a été mis en place. L’engagement est
donc ferme pour mettre en place cette académie.

Au cours de ce forum, d’autres thèmes ont été abordés. Il s’agit de :
L’instauration d’un programme d’échange d’expérience entre les différents
réseaux nationaux. Par ce programme, des praticiens appartenants à un
réseau national donné, vont effectuer des visites d’échange d’expérience
dans des télecentres localisés dans d’autres pays et vice versa.
Lancement aussi du prix BYTES FOR DEVELOPMENRT AWARD. C’est un prix qui
annuellement va récompenser les personnes de la région qui manifestent une
volonté d’échange d’expérience sur la vie des télecentres, en écrivant des
blogs pertinents pour la vie de ces télecentres. Le jury est déjà en place
pour cela.


NKURUNZIZA Jean Paul
Président du Réseau des Télécentres Communautaires  du Burundi
Secrétaire Général de BYTC
B.P 7031 BUJUMBURA BURUNDI
Tél: 00257 22 21 96 45
Tél Mob : 00257 76 60 49 46/00257 79 981 459
Fax : 00257 212485 ou 00257 222147
E.Mail : nkurunziza@bytc.bi ou
jnkurunz@hotmail.com

Publié dans INTERNET, SCIENCE, TECHNOLOGIE, TIC | Pas de Commentaire »

En quête d’eau de vie, Phoenix a posé le pied sur Mars

Posté par BAUDOUIN SCHOMBE le 10 juin 2008

Ce lundi 25 mai à 0h53 GMT, le vaisseau spatial automatique Phœnix s’est posé au pôle Nord de la planète Mars. Son but est d’y détecter la présence d’eau c’est-à-dire d’un milieu favorable au développement d’une forme même rudimentaire de vie. En vue d’une future mission habitée Phœnix doit aussi vérifier l’hospitalité de cette région grâce notamment à cette eau mais aussi en en connaissant mieux le climat.

De longue date, la question de savoir si nous avions des voisins sur la planète Mars a passionné l’humanité. La qualité des images observées au moyen des anciens télescopes était assez médiocre, au point que certains ont pensé apercevoir des canaux sur Mars. Les plus enthousiastes ont même cru que ces canaux étaient l’œuvre de créatures intelligentes.

L’amélioration des optiques a malheureusement démenti cet espoir. Plus décevant encore, les sondes spatiales, notamment le Viking qui s’est posé sur Mars en 1976, n’ont révélé qu’un désert rocailleux, froid et surtout absolument sec, c’est-à-dire un milieu hostile à toute forme de vie même élémentaire.

Des étendues de glace d’eau « sousmartienne » de la taille de la France

Plusieurs événements ont néanmoins redonné espoir quant à l’existence d’une vie possible sur Mars dans un passé encore difficile à évaluer. D’abord, fin 1984, des chercheurs de météorites découvrent dans l’Antarctique ALH84001, un objet d’origine martienne vieux de quatre milliards d’années, qui contient des structures microscopiques en forme de tubes. Avec raison ou non, certain paléobiologistes y voient les restes fossilisés d’une vie bactérienne.

Ensuite, en 2004, les deux robots d’exploration martienne Spirit et Opportunity découvrent dans le sol de Mars de l’hématite, un minerai de fer dont la formation peut supposer la présence d’eau liquide dans le passé. Au cours de ces deux dernières années, la sonde Mars Odyssey, en orbite autour de la Planète rouge, repère par analyse spectrométrique des dépôts salins de chlorures qui ne peuvent s’être formés qu’en présence d’eau liquide.

Enfin, récemment, la sonde MRO, aussi en orbite autour de Mars, vient encore d’apporter un argument en faveur de cette présence d’eau dans les profondeurs du sol martien: en profondeur, ce sol est plus froid que calculé et un examen au radar laisse supposer sous les calottes polaires martiennes des étendues de glace d’eau « sousmartienne » de la taille de la France.

Ce sont ces arguments et bien d’autres qu’il serait trop long de développer dans cet article qui ont amené les chercheurs de la Nasa et de différents instituts à mettre sur pied le programme Phœnix. C’est la région du pôle Nord martien qui a été choisie comme lieu d’exploration pour deux raisons. D’abord, à cause de cette présence avérée d’eau mais aussi parce que, grâce à cette eau, on peut espérer y trouver les traces d’une vie actuelle ou passée.

Le sol de Mars photographié par Phoenix (NASA/JPL-Caltech/University of Arizona)

Jusqu’il y a peu, beaucoup estimaient que la vie ne pouvait ni exister ni se maintenir dans ce qu’on appelle des milieux extrêmes, c’est-à-dire des endroits où la température est très basse ou très élevée ou encore dans des lieux où l’eau n’est présente que sporadiquement.

Mais, sur notre Terre, on a trouvé des organismes capables de supporter sans problème apparent de telles conditions extrêmes. Baptisés extrêmophiles, ces organismes sont évidemment particulièrement résistants à toutes sortes d’agressions de la part du milieu. C’est aussi une des raisons du choix du pôle Nord martien comme destination.

Certains chercheurs pensent en effet que, comme sous ces latitudes, les conditions climatiques ont toujours été plus agressives que dans les autres régions de la planète, les organismes qui auraient pu s’y développer un jour auraient dû être particulièrement résistants et que donc, ils auraient encore des chances d’y survivre aujourd’hui, éventuellement sous une forme dormante. Sur Terre nous connaissons bien des bactéries qui sont restées dormantes pendant deux millions d’années et qu’un retour à un environnement favorable a réactivées.

Certains ajoutent que, même si ces organismes sont morts, le froid intense a pu maintenir leurs matériaux dans un état de conservation suffisant pour qu’ils puissent être analysés. Si Phœnix en découvre, nous pourrons donc peut-être savoir si leurs protéines sont formées des mêmes acides aminés que les nôtres et si ces acides aminés sont, comme les nôtres, lévogyres ou si, au contraire, ils sont l’image des nôtres dans un miroir. Savoir aussi si, à ces protéines est associé un code génétique et, dans l’affirmative, si leur blue print utilise le même langage que notre ADN.

La présence de cette eau sous les calottes polaires martiennes est également intéressante en cas de mission habitée vers Mars. En effet, même si elle est recyclée en permanence dans les vaisseaux spatiaux habités, l’eau n’en constitue pas moins une charge importante à déplacer et donc du carburant à consommer. En trouver sur Mars pour pouvoir l’utiliser sur place et pendant le voyage de retour représente donc un avantage considérable. En cas de mission de longue durée, cette eau permettrait même de développer localement une agriculture limitée sous verre.

295 jours de la Terre à la planète Mars

Conçu et réalisé par le JPL et Lockheed Martin, Phœnix avait été lancé de Cap Canaveral le 4 août au moyen d’une fusée Delta II. Le vaisseau a mis 295 jours pour effectuer de voyage de la Terre à Mars à une vitesse de l’ordre de 21000 km/h. Ce dimanche, alors que sur Terre se déroulaient les 500 miles d’Indianapolis, Phœnix parcourait encore cette distance en seulement 2 minutes et 22 secondes.

Sitôt les contrôles de routine effectués, Phœnix se mettra au travail pour une durée estimée à trois mois terrestres. Pour rappel, en 2004, la mission du Spirit et de Opportunity avait été estimée à quatre mois. La fiabilité de ces deux machines est telle que, malgré des conditions climatiques parfois catastrophiques, notamment une tempête de sable qui a duré près de quarante jours, ils sont encore au travail actuellement et fonctionnent encore presque parfaitement, suffisamment en tout cas pour effectuer à la perfection les travaux commandés par la Terre.

Au moyen d’un bras robot terminé par une pelle mécanique, Phœnix creusera le sol martien jusqu’au permafrost, à une profondeur estimée à 50 cm et y prélèvera des échantillons qui seront alors examinés par un laboratoire miniature super équipé. Parmi les instruments de ce laboratoire, nous trouvons un four, un pHmètre, un potentiomètre équipé d’un large éventail d’électrodes spécifiques, un analyseur de gaz, un spectromètre de masse, un microscope optique classique et un microscope à force atomique.

Grâce à cet équipement, les chercheurs espèrent savoir si de l’eau a existé sous forme liquide dans un passé géologique proche (de l’ordre de 100 000 ans) et si des organismes y ont vécu et y vivent encore. En plus de ce minilabo, Phœnix est également équipé de caméra de prises de vues stéréoscopiques et d’une station météo qui permettra de mieux connaître la dynamique de formation des calottes polaires martiennes.

Tout au long de la mission, prolongée ou non, la Nasa, le JPL et l’Université d’Etat de l’Arizona informeront quotidiennement les internautes intéressés par le projet Phœnix. De plus, Wikipédia continuera à être mis à jour régulièrement à ce sujet.

Publié dans SCIENCE, TECHNOLOGIE | Pas de Commentaire »

Dans votre réservoir, un détonant cocktail d’hydrocarbures

Posté par BAUDOUIN SCHOMBE le 10 juin 2008

Devant une raffinerie de pétrole, au Venezuela (Claudia Daut/Reuters).

Comment transforme-t-on du pétrole gluant en essence ou en gazole tellement limpides qu’on en boirait presque, si en plus ça sentait la bière? De quoi se composent ces liquides vitaux de notre humanité énergivore? Le petit chimiste qui se planque en chacun de nous attend impatiemment sa réponse. Tentons le défi de le satisfaire.

Le pétrole est issu de la décomposition de très, très vieilles matières végétales. Il est une sorte de fossile de plantes, formé au terme d’un processus de plusieurs dizaines de millions d’années. Avec le temps, le pétrole s’enrichit de millions de composés appartenant à plusieurs familles chimiques.

Nous ne nous intéresserons ici qu’à celle des hydrocarbures, majoritaire dans le pétrole et les carburants. Mais ne perdez pas de vue (au besoin, prenez des jumelles) que le pétrole est un mélange bien plus complexe que ma description forcément incomplète.

L’atome de carbone a quatre bras, ce qui lui permet de serrer pas mal de mains

Les hydrocarbures sont des molécules ne contenant que deux sortes d’atomes: de l’hydrogène (le H de « hydro ») et du carbone (le C de « carbure »). La nature aux lois imperturbables ayant donné quatre mains au carbone, ce dernier ne peut serrer la louche à d’autres atomes que quatre fois, pas une de plus (sauf cas particulier).

Par exemple, il peut attraper quatre atomes d’hydrogène pour former l’hydrocarbure le plus simple: le méthane, gaz célèbre puisqu’il nous fait régulièrement péter de rire.

Des molécules d'hydrocarbures (DR).Le carbone peut aussi s’acoquiner avec un autre carbone, formant alors un début de chaîne (C – C). Il reste à chacun trois mains libres, avec lesquelles il happe trois H et une nouvelle molécule apparaît: le gaz éthane (voir schéma). Et ainsi de suite: on peut allonger la chaîne en bout-à-boutant des C à tire-larigot, chacun se liant alors à trois H ou bien à un nouveau C qui lui-même, etc.

L’enchaînement des carbones peut se faire en ligne mais aussi présenter des ramifications ou même former une jolie ronde pour donner des molécules dites « cycliques ». Finalement, ce jeu de Lego moléculaire conduit à des milliers de molécules différentes, toutes composées de C enchaînés et complétés par des H.

La distillation permet de séparer les hydrocarbures par leur taille

L’étape fondamentale de la purification du pétrole s’appelle la distillation, qui permet de séparer les hydrocarbures selon leur taille. Le principe de l’opération est de chauffer le pétrole dans un grand chaudron au-dessus duquel on installe une tour de plusieurs dizaines de mètres de hauteur.

En chauffant le liquide, on provoque l’évaporation de ses molécules, comme en chauffant l’eau des nouilles vous formez de la vapeur d’eau. Le gaz monte alors dans la tour, et -c’est le point central du bazar- plus un gaz est léger, plus il monte haut!

On récupère donc au sommet de la tour les hydrocarbures les plus petits, ceux qui contiennent entre un et quatre atomes de carbone: méthane, éthane, propane et butane, consommés par vous et moi sous forme gazeuse.

Plus bas dans la tour, on récolte les hydrocarbures contenant cinq à dix carbones (abréviés C5 à C10): c’est le « naphta », dont on fera de l’essence. Plus bas encore, les molécules de C10 à C13 seront à l’origine du kérosène des avions. Puis on rencontre les produits de C13 à C20, qui formeront le gazole et le fuel domestique.

Enfin, tout en bas, les molécules lourdes nommés « résidus atmosphériques » (plus de 20 carbones) sont utilisées comme fuel dans les bateaux, bitume sur les routes, etc.

Le carburant a une composition variable, avec quelques constantes

Ceux qui attendent ici une liste complète des composants de l’essence et du gazole perdront moins de temps en essayant de se lécher le coude gauche. Les deux carburants renferment plusieurs milliers de molécules, leur composition varie même selon l’origine du pétrole, les techniques de purification et les produits ajoutés en post-distillation.

Je ne peux guère vous dire mieux que l’essence contient entre 20 et 30% d’hydrocarbures comme le méthane ou l’isooctane (voir schéma), 30 à 45% de molécules comme le benzène, etc.

En revanche, certaines règles doivent être absolument respectées pour que les carburants soient autorisés à envahir nos réservoirs. Le benzène justement, aussi toxique pour l’homme qu’un face-à-face avec une horde de gnous en colère, ne doit jamais dépasser la limite de 1%. D’autres paramètres encore plus techniques sont également soumis à des règles inébranlables: densité, viscosité, température d’évaporation…

Un autre critère bien connu est nommé « indice d’octane », qui chez nous vaut 95 ou 98. Cela veut-il dire que l’essence contient 95 ou 98% d’octane? Presque. Avec l’indice d’octane, on caractérise en fait la capacité du carburant à s’enflammer tout seul. Dans un moteur à essence, le carburant ne doit exploser que grâce à l’étincelle produite par une bougie, et surtout pas avant. Si le carburant explose quand ça lui chante, le moteur fonctionne moins bien.

L’auto-allumage doit donc être contrôlé. Les chimistes ont bossé sur le sujet, et leur verdict est tombé: pour que le moteur tourne au poil, l’essence doit se comporter comme un mélange qui ne contiendrait que deux molécules: l’isooctane et l’heptane (hydrocarbure à sept carbones). Le SP95 doit ainsi exploser comme un mélange 95% isooctane-5% heptane, et le SP98 doit ressembler à un mélange 98%-2%.

Pour connaître la qualité d’un gazole, on calcule son indice de cétane

Voilà pour l’indice d’octane. Mais connaissez-vous l’indice de cétane, qui caractérise le gazole? Le cétane est encore un hydrocarbure, de formule C16H34 (16 carbones, 34 hydrogènes). Il entre dans la composition du gazole, et son indice mesure là aussi la capacité d’auto-allumage du carburant. Sauf que dans le gazole, c’est une qualité recherchée!

En effet, un moteur diesel ne marche pas comme un bête moteur à essence. Pour la simple raison que le gazole, formé de molécules plus grosses (vous vous souvenez?), est incapable de réagir à la piqûre d’une bougie. Trop lourd pour exploser sous étincelle, seule une forte pression peut le réveiller. Lorsque celle-ci est suffisamment élevée dans le piston du moteur, le gazole explose spontanément, comme un grand garçon.

Contrairement à l’essence, l’auto-allumage du gazole est donc une excellente chose! L’indice de cétane mesure cette aptitude. En France, le gazole a un indice de 51, c’est-à-dire qu’il nous déclare sa flamme aussi bien qu’un produit contenant 51% de cétane.

On vous déconseille tout de même de l’utiliser pour déclarer la vôtre. Quoique, d’ici quelques mois, il deviendra peut-être un produit de luxe, qu’on sera ravis de s’offrir en petits flacons enveloppés de coton soyeux. Avec « cétane 51″ rondement calligraphié sur le flacon, ça aurait de la gueule, non?

Publié dans ENERGIE, SANTE, SCIENCE | Pas de Commentaire »

Téléchargement: comment les distributeurs se sucrent sur notre dos Par monsieur trajan

Posté par BAUDOUIN SCHOMBE le 10 juin 2008

Devant la montée en puissance du piratage des œuvres musicales et la baisse continue des ventes des CD, les distributeurs, avec le soutien de l’industrie musicale, ont développé les plateformes de téléchargement légal comme réponse. N’étant pas un adepte du téléchargement pirate, du gravage de CD, j’achète encore des CD car j’aime aussi l’objet et je considère que les artistes doivent être rémunérés. De plus en plus de personnes téléchargent les albums comme alternative au prix exorbitant des CD.

Etant par ailleurs passionné par ce qui se passe au Québec, écoutant de temps en temps des radios de ce pays via le net, lisant la presse de ce pays par le même moyen, je connaissais l’existence d’Audiogram. Ce label propose à son catalogue des artistes comme Isabelle Boulay, Ariane Moffat, Jean Leloup, Marie Jo Thério, Mara Tremblay, Zachary Richard, Pierre Lapointe, Pink Martini, Lhasa, l’épouse de notre Président, Carla Bruni, et bien d’autres encore. Des artistes purement locaux en côtoient d’autres à la renommée internationale.

L’autre soir, en surfant sur l’un de mes sites favoris d’achat de produits culturels, « agitateur d’idées depuis 1954″ (la FNAC pour ne pas la citer), je tombe par hasard sur une pub pour le téléchargement d’un album X. Je n’y prête pas forcément attention, lorsque je me rends compte que le prix du téléchargement semble le même quelque soit l’album. La chanson est proposée généralement à 0,99€ et l’album à 9,99€.

On peut tout de suite remarquer que le prix est super étudié: moins de 1 euros la chanson, moins de 10 euros l’album, c’est l’effet psychologique bien connu des professionnels de la grande distribution.

Trois québécois pour deux français

La déformation professionnelle aidant, je me mets en quête de vérifier immédiatement ce que je pressens et je décide de rechercher le prix du téléchargement d’un album de Lhasa intitulé « The living Road ». Comme les autres albums ce dernier est proposé au prix de 9,99€.

Aussitôt, je me rends sur le site Audiogram et je recherche l’album de Lhasa, artiste de ce producteur. Ce dernier est proposé au prix de 9.99$ canadien. On remarque, quelque soit le côté de l’atlantique, les études de prix sont les mêmes et les barrières psychologiques de prix également. Je continue ma quête, sur que je suis entrain de flairer une bonne piste et je me rends sur un site de convertisseur de devise afin de procéder à un comparatif minutieux. J’entre le prix de 9,99$ canadien et je demande la conversion en euro. Instantanément, le site me propose la somme de 6,44€.

Afin d’être tout à fait objectif dans ma démarche de comparaison, je m’interroge sur les frais de transaction qui pourraient en résulter afin de connaître le prix réel de l’album. Pour se faire, je fouille dans mes documents et je sors ma convention bancaire qui résume toute la tarification que m’applique ma banque sur toutes les opérations que je peux effectuer. Je cherche frénétiquement et je trouve la partie consacrée au paiement à l’aide de carte bancaire de type visa et les tarifs associés. Je découvre que pour un paiement effectué hors zone euro, la transaction est de 2,9% du montant avec un maximum de 7,75€. J’applique le taux en question et j’obtiens le tarif de 6,62€, soit une différence 3,3€.

Au final, avec la même somme, je peux acheter trois disques par téléchargement sur ce site québécois, deux seulement sur celui de la FNAC ou de Virgin.

Au-delà de l’aspect anecdotique de la démonstration, nous pouvons légitimement nous interroger sur les raisons objectives qui font que le prix en France est un tiers plus élevé qu’au Québec. Le consommateur se doit donc d’être vigilant, de comparer les prix, de faire pression sur l’industrie musicale et les grands groupes de distribution afin de faire baisser les tarifs, sans que les artistes ne soient lésés bien évidemment, car tel n’est pas l’objectif.

Publié dans SCIENCE, TECHNOLOGIE, TIC | Pas de Commentaire »

1...89101112
 

LE CMV |
LES ANCIENS DU CHAMPS DE CL... |
Bienvenue chez moi ! |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | consensus
| presseecrite
| lesjournalistes