mercredi 3 janvier 2018

CC# 21, 22, 23, 24 & 25

Ce qui motive la compression de données en informatique
est bien compréhensible: le désir de faire des économies, soit
en bande passante ou en espace-support. Mais il y aura deux
régimes de compression assez différents: lossless (sans perte) et
lossy (avec perte). La première approche touchera principalement
les données passives:par exemple, on évite la redondance d'information
dans des pixels de la même couleur; ou on crée des dictionnaires
d'information répétée en donnant à ce qui apparaît le plus souvent le code
le plus court.

Le lossy est basé sur les limites dela perception humaine. On fait disparaître
le niveau de détail que l'humain perçoit mal; ou, pour la musique, les sons
trop aigus pour être entendus.


Noodles, le caniche; bien difficile de faire la différence!!

Cela peut aller trop loin, comme dans la qualité vidéo, quand on projette une
veille image que l'on a pas mis à jour (elle paraîtra gelé). Mais on n'a pas toujours
besoin de retransmettre une partie de l'image qui ne change pas, comme un fond de
scène...

                                                    *     *     *

 CC# 22

Cet exposé nous propose comment l'interaction avec l'ordinateur a pu se
développer.

Après les cartes et le clavier, on a su introduire une interaction sur écran.
Hélas, initialement sans graphisme. C'était l'ère du Command Line Interface,
que les puristes (et adminisrateurs) utilisent toujours. Run: Cmd pour Windows.

Ci-bas, un des premiers jeux Zork(1979); produit par un groupe au MIT.C'est une
aventure mais complètement conceptuelle. On peut jouer sur ifiction.org.
Assez simple, mais éventuellement on commença ainsi à pouvoir exploiter l'internet
pour un parcours multijoueurs!!


https://www.thebalance.com/play-zork-online-for-free-1357975

http://www.ifiction.org/games/playz.php

                                     *     *     *

 Le tournant vers le graphisme sur ordinateur n'aura pas
été facile: le grand problème? Les besoins en mémoire que
cela occasionne. CC# 23 nous laisse entrevoir l'évolution
qui s'est opérée à partir des années 60 aux ÉU.

On se servit d'abod des écrans pour défiler des valeurs temporaires
de régistre ( ce qui évitait de gaspiler du papier). C'était l'aire des
écrans cathodiques des premières télévisions. On pouvait présenter soit
des formes (vectorielles) ou des matrices de points (raster) mais sans la
puissance des pixels actuels. Un crayon faisait scintiller des plans sur un écran.

Plus tard, on s'aventura à présenter des caractères pré-définis - dont
80 lettres et 25 autres - dans une partie de la mémoire ROM (read only).
Et les plus hardis s'amusaient à faire des bonhommes avec des lettres(ASCI Art).
Dos jouissait même des couleurs blue et blanc. Ensuite, un petit
programme laissait apparaître des formes, dans ce qui fût
l'ancêtre de la carte graphique. On faisait ainsi les premières animations
et jeux et avec Sketchpad en 1962, les premiers usages professionnels(CAD).




Et il y a maintenant un VRAM( rapide) sur la carte graphique, et des bibliothèques
de code. Mais même en 1971, tout ceci était réservé à seulement quelques
1000 usagers.

                                    *     *     *

 J'ai entamé le CC# 24 - Guerre froide et consommation - avec
l'idée que je n'y apprendrais pas grand chose. Tout au contraire, l'épisode
fournit une vue d'ensemble très pertinente sur l'évolution de l'informatique
depuis la Seconde Guerre Mondiale.

À la sortie de la guerre, l'opposition entre les ÉU et l'Union Soviétique a motivé
d'énormes dépenses de la part du gouvernment américains. Les ordi devenaient
plus puissants - et plus lourds - mais les besoins pour la défense et éventuellement
ont forcé le passage vers les circuits intégrés. Et pendant ce temps, le Japon a
vu sa chance avec des produits électroniques personnels pour le consommateur.




Dans les années 70, Intel s'est réorienté vers les processeurs, et a commencé à fournir
le Japon.

                                       *     *     *
CC# 25 nous ramène aux débuts de l'informatique personnelle.




En 1976, Bill Gates et Paul Allen, 19 et 22 ans, ont eu l'audace
d'offir un interpreteur Basic, ce qui évitait aux bricoleurs des premiers
ordis (Altair 8800) la pénible tâche de programmer en language de bas
niveau.Les premiers ordis perso étaient des outils pour texte, jusqu'à la
venue du Apple II en 1977, avec un écran couleur
et son; mais quand même rudimentaire. Avec Radioshak et Commodore, on
avait des produits tous sous Basic pour lesquels les progammeurs pouvaient
offrir des produits: jeux, calculatrices, éditeurs textes...

En 1980, IBM aura  la sagesse de créer un ordi perso avec des composantes
autres que celles de leur compagnie: ce qu'il y avait de mieux, au meilleur prix:
processeurs Intel, MS Dos et ainsi de suite. Ils ont ainsi établit un standard
de performance, et une architecture ouverte qui permettait à divers groupes la
possibilité d'ajouter leurs composantes: mémoire,  carte graphique, joystick et
ainsi de suite. Compaq, et Dell ont pu, à leur tour, créer des ordis de cette moulure
(IBM compatible) avec des ajouts compatibles. C'est donc ici le début de la compétition
avec Apple, qui - pour maintenir la qualité - décida pour une architecture fermée,
et seuls eux pouvaient offir des produits annexes, comme les imprimantes
pour leurs ordis.

En 1984, Apple présente le Macintosh avec GUI: graphical user interface...

Aucun commentaire: