Accueil
Mozéclic
Inter-Activités
Sites en stock
Funstuff
Aperoller
Blablas
What's up Doc
Zone de téléchargement
Sur tes pas

Spécial Thèse


Première partie:

Les médiations interactives

1Médias et technologies des communications interactives
2 Dimensions des médiations interactives
3 Interactivité et processus énonciatifs

 

Recherche dans la these
Contact
Site Info
     
<<précédent

 

1.1.2 L’armée américaine, le détonateur de l’aventure numérique

Ce n’est donc pas un hasard si c’est autour de la téléphonie que ce sont développés les principes de gestion technique de l’interactivité. C’est bien d’une problématique de l’interactivité médiatée que naît la théorie mathématique de la communication de Claude SHANNON [10]. Dans l’histoire de l’informatique, Philippe BRETON [44] indique aussi qu’entre les deux guerres, les premiers calculateurs fonctionnaient à base de relais téléphoniques.

En 1940, la société BELL fera des démonstrations de calcul à distance sous la conduite de Norbert WIENER à l’aide de systèmes mis au point par George STIBITZ.

L’importance de l’orientation mathématique du traitement téléphonique de l’information aura des conséquences qui vont largement dépasser le cadre du terrain d’origine. La logique de Claude SHANNON permet d’envisager un codage binaire des messages à partir de l’algèbre de Georges BOOLE. Il formalise ainsi des approches antérieures du télégraphe et, dans un tout autre domaine, celle de Joseph Marie JACQUARD (qui perfectionne le métier à tisser de Jacques De VAUCANSON). La théorie de SHANNON permet le rapprochement entre deux champs, celui du message et celui de l’automatisme. Approche rendue possible par le concept d’information qui sépare la matérialité du message de sa signification. Sur ces bases naît le principe d’une machine universelle telle que l’avait rêvée Charles BABBAGE, mais qui sera réalisée aux Etats Unis sous la direction de John VON NEUMANN et l’inspiration d’Alan TURING.

Si autour de l’histoire du téléphone se développent les concepts de base des technologies numériques, le domaine militaire va être le catalyseur de l’expérimentation et de l’exploitation des premières technologies numériques.

Loin de nous, l’idée de faire ici preuve d’un pan-militarisme pro-américain. Pourtant de fait, il nous faut considérer que l’armée américaine a permis de réaliser les liens entre différents secteurs de recherche et que c’est de cet effet catalyseur que sont nées les premières applications technologiques et numériques dédiées à des médiations interactives. Il faut aussi reconnaître à l’armée américaine d’avoir eu l’intelligence de déléguer une partie de ses compétences à des chercheurs de tous horizons. On sait aujourd’hui qu’à la même époque, l’état major allemand n’a pas eu confiance dans la prospective scientifique, elle l’a mis au service de ses théories. La capacité de remise en question de l’armée américaine (certainement héritée d’une réelle tradition démocratique), les moyens donnés à l’université comme espace d’innovation et un pragmatisme empirique à la conquête de nouveaux espaces d’application, ont fourni le terreau fécond de la révolution numérique. Il faut ajouter que même au niveau militaire, les Américains raisonnent en terme de concurrence. Plutôt que d’investir tout leurs efforts sur une approche qui leur semble la meilleure, ils laissent chaque piste se développer en concurrence. Le principe est que la meilleure s’imposera. Sur le plan des résultats obtenus ce n’est pas toujours la meilleure théorie qui s’impose mais celle qui fait valoir son applicabilité. La compétition ne repose alors pas sur la confrontation directe entre protagonistes de projets concurrents, mais au travers du jugement d’un tiers externe usager. Le lien entre recherche fondamentale et recherche appliquée est donc très fort. Les crédits ne sont pas obtenus au prestige, mais à l’efficacité.

L’armée n’a bien sûr pas soutenu cet effort par pure philanthropie. Elle a des besoins multiples et vitaux dans différents domaines, et peu de corps dans la société réunissent autant à l’époque des nécessités multidimensionnelles et des moyens d’investissements aussi colossaux. De plus l’histoire de la Première Guerre mondiale a donné à la guerre une dimension sans précédent. La guerre est devenue un enjeu massif. Il ne s’agit plus d’un combat singulier entre hommes, mais c’est la société tout entière qui se trouve fragilisée dans un conflit. Un échec militaire va au-delà d’un dysfonctionnement social, c’est la souveraineté de la société qui est remise en question.

Les problématiques modernes de l’armée sont de plusieurs ordres : multiplication des besoins de calculs de précision (accroissement de potentiel), prévisions stratégiques(simulation et capacité de réaction), simulation de situations (formation), protection des communications et de leurs confidentialité (communication), action à distance (téléguidage) et problèmes d’intendance (gestion).

Les armes modernes pour être précises donc efficaces, exigent une somme de calculs phénoménale. Pour la réalisation d’une table numérique " avec simplement deux facteurs (portée du projectile et altitude de la cible), il fallait calculer entre 2000 et 4000 trajectoires possibles pour chaque couple projectile-canon, chaque trajectoire exigeant 750 multiplications de 10 chiffres "(Philippe BRETON) [44 p.117].

En 1945, le laboratoire chargé de ces calculs produisait 15 tables par semaine lorsque il aurait fallu en réaliser 40. Tout ce qui pouvait concourir à l’automatisation des calculs avait une valeur primordiale. Un certains nombre des futurs pionniers de l’informatique ont travaillé à développer des calculateurs de plus en plus sophistiqués. Sur ces bases John VON NEUMANN va pousser la réflexion. Son objectif est d’aller au-delà d’une machine à calculer dont le déroulement des opérations est contrôlé par un opérateur. Il veut doter la machine d’une capacité opératoire propre à l’image d’un mini-cerveau. A partir de 1945, inspiré des travaux d’Alan TURING et en collaboration avec Presper ECKERT et John MAUCHLY, il va définir les principes de l’architecture de base d’une machine universelle dont une unité de commande (UC) permettrait de traiter des données en interprétant un programme d’algorithmes. L’ordinateur était né pour traiter tout problème mathématisable. Il devenait un amplificateur de certaines compétences logique du cerveau (opérations arithmétiques et tris) en les traitant plus rapidement et avec plus de fiabilité.

Un autre des problèmes militaires, que nous avons évoqué, est celui de la simulation. Et les problématiques développées dans ce cadre, compte parmi celles qui ont le plus d’incidence sur la liaison entre interactivité et Représentation.

La place de l’aviation au cours de la première guerre mondiale était au début du conflit anecdotique. A partir de 1917, le rôle militaire de l’aviation devient décisif. Outre des fonctions d’observation, l’utilisation stratégique et offensive de l’aviation inaugure une ère nouvelle des dimensions des champs de batailles. L’avion permet de frapper l’ennemi à l’arrière, au-delà des lignes de front. A partir de là, l’avion quitte l’approche artisanale et passionnée de ses promoteurs pour constituer une arme à part entière. Mais cette arme est coûteuse et son utilisation à risque. La formation des pilotes demande de lourds investissements. D’où l’idée de créer des simulateurs de vol permettant de s’entraîner au sol. Le principe du simulateur est comme son nom l’indique, de recréer l’illusion d’un fonctionnement réel.

Philippe BRETON [44 p.106] rappelle qu’à partir de 1944, Jay FORRESTER avait en charge de diriger un de ces projets. La difficulté d’une simulation de vol est de gérer plusieurs mécanismes simultanément. D’une part de traiter les actions du pilote et d’autre part de restituer en temps réel les conséquences de ces actions. Il fallait donc un système suffisamment rapide pour réguler et coordonner les différents mécanismes. Jay FORRESTER découvrit dans les travaux menés par John VON NEUMANN, Presper ECKERT et John MAUCHLY, un outil capable de gérer rapidement l’ensemble des données nécessaires à chaque mécanisme. Les plans de cette machine furent réalisés en 1947, et elle fût construite et optimisée entre 1948 et 1953 sous le nom de " Whirlwind ". Ce système est le premier qui allie traitement numérique et représentation selon des procédures interactives. Howard RHEINGOLD [45] indique que c’est avec les simulateurs de vols que les technologies numériques rejoignent les arts de la Représentation et du spectacle, avec notamment de nombreux efforts sur l’implication de l’image cinématographique.

Mais la destinée du système " Whirlwind " va au-delà d’un outil de gestion de simulateur de vol. Il permet d’envisager d’autres interactions pour peu que l’on change les systèmes périphériques auxquels il est raccordé.

Il sera donc adapté au système de défense SAGE qui, à partir de 1951, a pour tâche de créer un outil d’observation et de contrôle du ciel américain contre d’éventuelles intrusions de bombardiers soviétiques.

Développé au MIT, il permet de synthétiser sur un écran le suivi de position d’avions repérés par des radars. Cette information croisée avec la position des avions connus permet d’identifier les avions inconnus donc ennemis, toujours sur le même écran. Il est alors possible d’organiser une éventuelle interception.

Les tests de fonctionnalité de situations réelles sont concluants, mais le plus intéressant, pour nous, est que ce système permet aussi de simuler une situation virtuelle. Ce système va aussi être à la base d’une organisation en réseau particulière abordant du coup les problématiques de la télécommunication.

En définitive, ce système permet d’envisager par l’intermédiaire de ses interfaces, de ses mémoires, d’utiliser la puissance de calcul et la logique de traitement de l’information de l’ordinateur pour amplifier le raisonnement humain et lui simuler le comportement de système réel et virtuel. Il devient le lieu d’une mise en application des concepts de la cybernétique instituant une interaction intelligente entre l’homme et la machine.

Les avancées de l’électronique et de l’informatique vont permettre à partir des années soixante d’utiliser l’ordinateur non comme un outil, mais comme un média.

Si de son coté, l’armée n’abandonne pas totalement son implication dans les programmes de recherche scientifique, elle a, à cette époque, suffisamment porté l’émergence de l’informatique pour que désormais elle débouche sur des applications civiles concrètes, donc sur de nouveaux investisseurs qui vont prendre le relais.

<<précédent

 

©Vincent Mabillot 1999-2003