MFI – Histoire du clavier

L’invention du clavier informatique
Les premiers claviers d’ordinateurs ont été mis au point au début des années 1960, sur le modèle des claviers de machines à écrire dont les utilisateurs avaient l’habitude.
A la fin des années 1970, les claviers ont été systématiquement personnalisés en fonction des pays.
Aujourd’hui encore, un clavier d’ordinateur peut présenter différentes dispositions de touches selon le pays et la langue.


Configuration des claviers
La configuration de la plupart des claviers informatiques est régie par la norme ISO 9995.
Cette norme a été définie en 1985 au sein de l’organisation internationale de normalisation par une équipe de spécialistes sous la direction d’Yves NEUVILLE.
Bien que le nombre de touches et leur disposition dépendent du pays ou de la langue utilisée, les claviers comportent généralement 105 touches (avec l’adjonction des trois touches Microsoft depuis Windows 95).
Les chiffres de 1 à 0 se trouvent toujours sur la rangée supérieure.
Par ailleurs, le clavier a fait l’objet d’ajouts successifs tels que le pavé numérique, les touches de fonctions et les touches multimédias.


Les différents types de claviers
Les différents types de claviers se distinguent les uns des autres par des particularités nationales (caractères nationaux) et des particularités techniques (touches muettes ^ et ¨).
Il existe de nombreuses dispositions de touches différentes, qui sont principalement dues à la diversité des langues dans le monde. Chaque utilisateur peut ainsi travailler avec un clavier adapté à sa langue pour plus d’aisance et de rapidité. Ces dispositions de touches sont :

  • le clavier AZERTY, utilisé dans certains pays francophones (France et Belgique)
  • le clavier QWERTY, conçu pour l’anglais, une langue s’écrivant sans accent
  • le clavier QWERTZ.

Ces différents claviers tirent leur nom de la disposition des six premières lettres de la première rangée de touches alphabétiques.
Pour chacune de ces dispositions, il existe également des variantes nationales : l’AZERTY français n’est pas le même que l’AZERTY belge, et le QWERTZ allemand n’est pas le même que le QWERTZ suisse.


Origines des dispositions QWERTY et AZERTY
Le clavier QWERTY a été inventé en 1868 par Christopher Latham Sholes et a équipé la première machine à écrire produite massivement par l’entreprise Remington à partir de 1873.
A l’origine, la disposition des touches a été conçue afin d’empêcher les tiges des machines à écrire de l’époque de se croiser et de se coincer. Les paires de lettres les plus utilisées dans la langue anglaise sont ainsi réparties de manière à être les plus éloignées possibles.
La légende veut également que la disposition de la Première ligne « Qwerty » ait été choisie afin que toutes les touches nécessaires à l’écriture du mot « typewriter » (« machine à écrire » en anglais) s’y trouvent.
Le clavier AZERTY, dont l’invention remonte aussi au XIXème siècle, est une adaptation pour la langue française de la disposition QWERTY.


Le symbole : @
Ce symbole est parfois appelé arrobe en français. Mais le terme d’arobase est le plus employé dans le langage courant. Ce signe porte des surnoms imagés dans de nombreuses langues : « escargot » en français, « strudel » en hébreu, « queue de singe » et même « petit canard » en grec.
D’après le linguiste Berthold Louis Ullman, l’arobase est la fusion de deux caractères consécutifs : les lettres « a » et « d » du mot latin signifiant « à », « vers », « chez ». Sa première apparition remonterait au VIe siècle. Les moines copistes auraient été les premiers à utiliser ce signe au Moyen-Age pour gagner de la place sur les manuscrits en enroulant le « d  » de « ad » autour du « a ». Au XIIe siècle, on retrouve ce symbole dans les comptes des marchands florentins pour symboliser une unité de poids et de mesure : l’amphore.
C’est aux Etats-Unis que l’usage de l’arobase s’est vraiment répandu au XIXe siècle pour noter le prix unitaire des marchandises. Par exemple, « deux chaises à 20 dollars pièces » se notait « 2 chairs @ $ 20 » et se lisait « two chairs at twenty dollars ». Les Américains disent toujours « at ».
L’usage comptable est resté et a naturellement été intégré sur les claviers des machines à écrire américaines dès 1885. Ce symbole s’est ensuite retrouvé sur le clavier des ordinateurs, bien qu’il ait perdu de son sens. Mais c’est précisément grâce à cette absence de signification dans le langage courant qu’il fut utilisé par les informaticiens comme marqueur logique et inséré dans les caractères informatiques standard. En 1971, Ray Tomlinson, l’inventeur du courrier électronique, a eu l’idée d’utiliser ce signe signifiant « at » et servant à localiser les choses. Employé comme séparateur dans les adresses électroniques, le @ permet d’indiquer la localisation des serveurs (ou boîtes aux lettres) de courrier électronique.
Depuis, l’arobase est devenu le symbole d’Internet.


Le symbole : _
Ce tiret spécial est connu sous le nom de tiret bas, sous-tiret, souligné, caractère de soulignement ou encore underscore en anglais. Il est apparu sur les machines à écrire et servait à souligner un mot. Il fallait cependant bien manipuler sa machine : repartir en arrière jusqu’au mot désiré puis taper le signe en question. Ses noms de « souligné » ou « caractère de soulignement » viennent ainsi de son passé mécanique.
Aujourd’hui plus connu sous le terme de tiret bas, il ne doit pourtant pas être confondu avec le tiret habituel qui est un signe de ponctuation. Ce symbole ne joue aucun rôle dans une phrase. Il serait ainsi plus juste de parler de « souligné ».
Le souligné est surtout utilisé pour créer un espace ou séparer. Par exemple, il peut servir à créer un champ à compléter dans un formulaire (exemple : __). L’espace étant la plupart du temps interdit par les contraintes techniques, il peut servir à le remplacer (comme dans les noms de fichiers par exemple).
Apprécié sous le nom d’underscore pour ses sonorités anglophones, ce symbole est incontournable sur Internet où il est utilisé pour séparer. Par exemple, dans les adresses mails pour dissocier nom et prénom. Enfin, il est aussi très pratique pour certains smileys, comme ceux-ci : ^^ –-‘.


Le symbole : #
Le croisillon ou hashtag est souvent confondu avec le dièse ♯ utilisé en musique. Le croisillon a les deux barres transversales horizontales, alors que celles du dièse sont montantes. Pour des raisons pratiques, le dièse et le croisillon se retrouvent sous la même forme sur un clavier, ce qui explique la confusion.
Les noms attribués au croisillon sont nombreux dans les pays anglo-saxons, qui ont probablement été les premiers à utiliser massivement ce caractère. Les Anglais l’appellent hash (d’où le terme hashtag) et les Américains l’appellent pound car ce symbole représente l’unité de poids.
Les Américains utilisent souvent le croisillon pour numéroter. Au lieu d’utiliser No comme le font les Anglais, les Américains préfèrent le #. On trouve souvent cet emploi dans le domaine du cinéma et de la télévision pour désigner un épisode. Par exemple, dans les séries télévisées, on écrira « Episode No. 12 » au Royaume-Uni et « Episode #12 » aux Etats-Unis.
En France, l’usage du croisillon est cantonné aux mathématiques. Mais ce symbole a connu une nouvelle vie grâce à l’apparition des hashtags, ces mots-clés utilisés sur les réseaux sociaux. L’appellation « mot-dièse » est d’ailleurs erronée puisqu’il s’agit en réalité d’un croisillon.


Le symbole : &
L’esperluette, également appelée perluette ou « et commercial », résulte de la ligature des lettres de la conjonction de coordination « et », et possède la même signification. On en attribue l’invention à Tiron, secrétaire de Cicéron et auteur d’une méthode de sténographie (les « Notes Tironiennes ») utilisée jusqu’à la fin du XVe siècle. Comme pour l’arobase, ce sont les moines copistes médiévaux qui, pour gagner de la place, l’ont utilisé de manière intensive, lui donnant au fur et à mesure la forme que nous lui connaissons.
L’origine du mot « esperluette » daterait du XIXe siècle. Ce caractère considéré comme la 27e lettre de l’alphabet se lisait « ète » et était placé à la fin de l’alphabet, de sorte que les enfants récitaient l’alphabet comme ceci : « z et puis le ète », ce qui aurait donné ensuite « éperluette » puis « esperluette ». Une autre théorie lui donne l’origine suivante : esperluette viendrait de « espère lue et » (on espère qu’elle soit lue « et »).
L’esperluette est l’un des rares caractères à avoir le même sens dans de nombreuses langues. Elle est d’un usage courant en anglais, sous le nom d’ampersand. En français, elle est moins utilisée, et même rejetée dans la langue littéraire. Son utilisation en français est essentiellement circonscrite à un usage commercial et publicitaire. Elle est aussi classiquement utilisée dans l’abréviation « M. & Mme ».


Le symbole : ¤
Si ce drôle de symbole est placé sur la même touche que le dollar et la livre sterling, ce n’est pas un hasard. Ce caractère a pour nom « symbole monétaire » et est utilisé lorsqu’il n’existe pas de caractère attribué à une devise, comme $ pour le dollar ou £ pour la livre sterling par exemple. Difficile à imaginer mais sa forme est censée représenter une pièce de monnaie scintillante.
En 1972, ce signe a été intégré dans le codage des caractères informatiques pour remplacer le signe du dollar. Les experts de plusieurs pays chargés des questions de standardisation ne souhaitaient pas que le dollar symbolise la monnaie. Ce caractère neutre a donc été choisi pour symboliser la monnaie au sens large. Le signe dollar a été rajouté plus tard et le ¤ est resté.
En pratique, le symbole monétaire est rarement employé. Il prend de la place inutilement sur le clavier, peut-être pour la réserver à des futurs symboles. On peut parfois le rencontrer lorsqu’un programme informatique ne reconnait pas le codage. Il affiche ¤ pour remplacer le symbole choisi à l’origine.

MFI – D’où vient le mot « SPAM » ?

Ils envahissent chaque jour nos boites mail, pourtant peu de gens savent ce que veut réellement dire le mot SPAM. Voici la réponse.

Communément utilisé par tout le monde aujourd’hui, le SPAM, également appelé spamming ou pourriel (contraction de « poubelle  » et « courriel « ), est un mot emprunté à l’anglais qui désigne l’envoi massif automatisé de courriers électroniques non désirés.

Mais ce que l’on sait moins, c’est que ce mot fait en réalité référence à une merveilleuse autant que mystérieuse viande industrielle imitant vaguement le porc et le jambon avec des assaisonnements étranges, laquelle se vendait en conserve qu’on ouvrait à l’époque avec une clé comme les sardines.

Ce délice de la nouvelle cuisine industrielle a d’abord été commercialisé sous le nom de Spiced Ham par la compagnie Hormel Foods. La Food and Drug Administration, organisme américain de santé publique, a vite interdit au fabricant d’utiliser le mot jambon pour définir son produit.

Celui-ci a alors décidé de ne conserver que les deux premières et les deux dernières lettres pour créer son nom actuel de Spam® en 1937 … et ça existe toujours !.

Lorsque les militaires américains ont occupé le sud du Pacifique pendant la guerre 39-45, il était extrêmement compliqué d’approvisionner les troupes en viande fraîche. Plus de 45 millions de kilos de Spam® leur ont été expédiés en ravitaillement pendant la durée de la guerre. Les militaires en mangeaient pour déjeuner, pour dîner et pour souper. Les soldats appelaient le Spam® du jambon qui n’a pas passé ses examens physiques ou encore du pain de viande qui n’a pas eu son entraînement de base.

Encore aujourd’hui, il se consomme 3.8 boîtes de Spam® chaque seconde en Amérique du Nord. Il s’en vend dans 41 pays répartis sur 6 continents et son nom est protégé par des brevets dans plus de 100 pays.

Toujours populaire dans le sud-Pacifique, sur l’île de Saipan les restaurants McDonald’s y sont les seuls au monde qui l’offrent au menu comme viande à burger. A Hawaï où il est toujours apprécié, on l’appelle le steak hawaïen.

Quel rapport, me direz-vous, entre le nom que l’on donne à nos agaçants courriels indésirés et cette préparation de simili-viande indésirable ? Il y a pourtant une filiation directe. Cette filiation tire son origine d’un numéro de comédie qui date de 1970.

Une émission de télévision britannique bien connue, Monty Python’s Flying Circus, a créé un sketch devenu célèbre où on utilisait ad nauseam la marque de commerce.

Dans celui-ci, les rois de l’humour britannique avaient imaginé que la serveuse d’un restaurant proposait à ses clients le menu de l’établissement littéralement envahi de SPAM :  » Egg and spam, egg bacon and spam, egg bacon sausage and spam, spam bacon sausage and spam, spam egg spam spam bacon and spam, spam sausage spam spam bacon spam tomato and spam… « , annonçait la serveuse, tandis qu’un groupe de Vikings qui se trouvait également là reprenait ses propos en chantant  » SPAM ! SPAM ! SPAM ! « 

Le sketch Spam étant populaire, un message apparut dans un newsgroup contenant uniquement le mot « spam  » répété des centaines de fois à la manière du sketch. Ce message fut régulièrement repris et finit par atterrir dans d’autres newsgroups où il continua à être diffusé. C’est ainsi que le fait de poster des messages sans référence au thème d’un newsgroup finit par être appelé  » spamming « .

Des SPAM dès les années 1970 :
Si les SPAM peuvent aujourd’hui revêtir bien des formes, le premier aurait été envoyé en 1978 par un certain Gary Thuerk, qui envoya un message à la quasi totalité de ses contacts, soit près de 600 personnes pour les inviter à une démonstration de sa société.

Il suffit de jeter un œil dans votre boite de courriers indésirables pour s’apercevoir que les SPAM se sont depuis largement popularisés.

Il y a près de 10 ans, les SPAM représentaient plus de 90% des messages échangés selon la société Symantec spécialisée dans les logiciels informatiques.

MFI – Un « BUG »

Le mot bug signifie  » insecte  » en américain. Mais quel rapport avec le dysfonctionnement d’un programme ?

Il faut pour cela remonter aux temps préhistoriques de l’informatique, à une époque où le prototype dernier cri des ordinateurs s’appelait Mark 1, énorme machine de 5 tonnes mesurant 15 mètres de long et 2 mètres 50 de hauteur.

Dans un cliquetis digne des  » Temps Modernes « , le monstre vorace ingurgitait des kilomètres de bandes préalablement perforées par les programmeurs suant sur des téléscripteurs.

En récompense, la bête additionnait deux nombres de 23 chiffres en 3 dixièmes de secondes : les plus grands mathématiciens de l’époque qui l’entouraient étaient heureux, les experts en balistique aussi…

Lorsqu’une soirée de l’été 1945, le tintamarre des rouages s’arrêta net.
La crème des savants se précipita au chevet du dinosaure aphasique, scrutant les entrailles de câbles du géant.

Au cours des longues heures d’auscultation infructueuse qui suivirent, le Mark 1 toujours muet refroidissait lentement lorsque soudain, Grace Murray Hopper, brillante mathématicienne et pionnière de la programmation, dégaina promptement la pince à épiler qui ne la quittait jamais pour extraire délicatement d’un relais électromécanique une mite aux ailes à moitié grillées… le bug informatique était né !

Nos académiciens ont depuis francisé le terme bug qui est devenu  » bogue « … mais a-t-on jamais vu une châtaigne bloquer un ordinateur ?

La recherche approfondie sur l’origine du mot  » bug  » nous emmène au XIXe siècle. Il semble que l’origine du mot remonte aux débuts du télégraphe électrique.

L’inventeur et fabricant Horace G. Martin, connu pour son invention du  » Vibroplex bug « , un télégraphe amélioré qui comporte une clef semi-automatique, révolutionne en 1903 la manière dont le code Morse est transmis.

Ses inventions ont affecté les carrières de milliers de télégraphes. Un des appareils d’émission en morse le Vibroplex bug avait un scarabée dessiné dessus et était d’un maniement délicat. Les débutants utilisant  » l’insecte  » avaient tendance à introduire des perturbations sur la ligne.

On peut lire dans le Hawkin’s New Catéchism of Electricity de 1896 la définition suivante :  » le terme bug est utilisé pour désigner tout problème ou erreur dans le fonctionnement d’un appareil électrique.

« L’utilisation du mot « bug » daterait d’au moins avant les années 1870. Thomas Edison lui-même utilisait ce mot dans ses notes.

MFI – l’histoire informatique

1964 : Naissance de Marco FERRI 😉

1973 : André TRUONG invente le premier micro-ordinateur : le Micral

1975 : Création de Microsoft par Bill GATES et Paul ALLEN

1976 : Steve JOBS et Steve WOZNIAK baptisent leur ordinateur Apple Computer et fondent la société Apple le 1er avril 1976.

1977 : Avec le 8086, Intel présente son premier microprocesseur 16 bits

1978 : Création de Transpac, permettant aux entreprises de transférer des données via les lignes téléphoniques

1981 : Naissance du PC, avec le processeur 8086 Intel. Le système d’exploitation MS-DOS est développé par Microsoft

1983 : Le PC prend le nom de PC-XT, avec jusqu’à 640 Ko de RAM sur la carte mère. Le disque dur fait son apparition

1984 : Apple et Hewlett-Packard lancent leurs premières imprimantes à laser personnelles : Laser Writer et LaserJet

1985 : Apparition du processeur 80386 cadencé à 16 MHz. Début du multitâche

1986 : Naissance de l’interface SCSI (Small Computer System Interface)

1987 : Apparition du mode graphique VGA et de la disquette 3.5 pouces

1989 : Microsoft lance Word 1.0 pour Windows, le premier traitement de texte exploitant l’interface graphique

1990 : Microsoft lance sa première interface graphique, inspirée de Macintosh : Windows 3.0

1991 : Le Centre Européen de Recherche Nucléaire présente le premier site Web, et ainsi nait le World Wide Web

1992 : Lotus et Microsoft lancent leurs premières suites bureautiques et NEC présente le lecteur CD-Rom double vitesse

1993 : Intel lance le Pentium et le bus d’extension PCI remplace le bus ISA. Microsoft présente Windows NT

1994 : Apple sort une gamme d’ordinateurs baptisée Power Macintosh, Ioméga lance le Zip et la France découvre le WWW (World Wide Web) avec l’apparition des premiers modems à la norme V34 (28.8 Kbits/s)

1995 : Lancement de Windows 95 et apparition de la norme DVD (7 fois plus d’informations que sur un CD)

1996 : Apparition des processeurs Intel MMX destinés à accélérer les applications multimédias

1997 : IBM lance ViaVoice, le premier logiciel de dictée et Apple sort le premier Power Macintosh G3

1998 : L’iMac relance Apple et Microsoft sort Windows 98 intégrant Internet Explorer 4.0

1999 : Sortie du Pentium III d’Intel et d’une nouvelle version du Celeron. Linux, système d’exploitation libre, commence à faire concurrence à Windows NT sur les serveurs d’entreprise

2000 : Sortie de Windows Millenium Edition (Windows Me) évolution de Windows 95 et 98.

2002 : Apparition de Windows XP (Edition Familiale pour les particuliers et Professionnelle pour les entreprises)

2003 : Les processeurs atteignent une cadence de 3.2 GHz

2004 : Mise en place d’une nouvelle norme réseau, le CPL (Courant Porteur en Ligne) pour faire circuler des données informatiques sur le réseau électrique

2005 : Sortie de la norme 64 Bits et de la norme Wimax permettant de faire circuler la voix sur l’internet

2006 : Apple passe aux puces Intel, lequel lance le processeur double-cœur, le Pentium Centrino

2007 : Apparition du système d’exploitation de Microsoft : Windows Vista. Apple présente le MacBook

2008 : Les Eeee-Pc font une percée grand public : il s’agit d’ultra-portables à bas prix. Les opérateurs de téléphonie mobile en proposent avec une clé 3G+ et des forfaits.

2009 : Apparition des normes USB 3.0 et wi-fi 802.1 avec les cartes compatibles. Microsoft sort son nouveau système d’exploitation : Windows 7 (Seven) plus rapide, ergonomique et efficace que Vista

2010 : Sortie de la première tablette PC chez Macintosh : l’iPad.

2011 : Décès de Steve JOBS, co-fondateur d’Apple

2012 : Microsoft sort Windows 8 plus adapté aux écrans tactiles de tablettes. Apparition des disques durs SSD

2013 : Finalisation de la norme USB 3.1 (débits de 10 Gbits/s). Explosion du marché des tablettes et smartphones qu’ils soient d’Apple, Microsoft ou Android

2014 : Multiplication des objets connectés : montres, voitures, lunettes, …

2015 : Microsoft sort Windows 10 corrigeant les dysfonctionnements de Windows 8 et uniformise les versions (mobile, Pc, consoles de jeux) et Macintosh propose dorénavant OS X intégré à ses équipements