dimanche 18 février 2018

Full Day

Chez les Anglophones adeptes du Web, on présente parfois le
full day of eating: ce que la personne mange dans une journée.
Bon, c'est souvent le cas des adeptes de la fitness,  tout de même
intéressant. Voilà donc ce que j'ai consommé jourd'hui, un dimanche
que j'ai largement passé à l'intérieur, sauf pour des sorties au
Super C et à la pharmacie.

10am petit déj: fromage cottage, moitié de petit avocat, ananas.



Repas principal 4 pm: macédoine de légume, petite salade verte. Fèves au lard et
pizza maison. Petit verre de lait. Suivi de yaourt et garniture fouettée.



Repas du soir, 8pm: macédoine de fruits frais;possiblement une roti plus tard.

Voilà: c'est varié et santé - je colle au guide alimentaire - mais les portions sont moindres
que celles d'avant soixante ans.

La minceur n'est pas dangereuse mais le culte de la minceur peut l'être, pour
les femmes de tous poids.Je pense avant tout à me nourrir. Pas de faux dieux!!

mercredi 7 février 2018

CC# 36, 37,38, 39 & 40

On en a tous l'intuition: le language naturel doit certainement
poser des difficultés en informatique, tant sur l'aspect de la compréhension,
que sa production en interactivité avec l'humain. Mais nous en sommes
actuellement - pour l'anglais- à une avancée près de systèmes très
puissants. CC# 36 nous propose de reviser les étapes parcourues.

Le Natural Language Processing couvre une discipline qui relie l'informatique et la
linguistique. On sait très bien fournir une analyse de grammaire, syntaxe, et repérer
l'ambiguité s'il y a lieu dans un texte. On construira donc des algorithmes pour aller
checher les différents aspects du sens. Eliza, dans les années 60, offrait des services
d'une psychothérapie bluffante, et même parfois amusante. C'était un chatterbox.
En 1971, Harpy avait un vocabulaire de 1000 mots. Bien dépassé tout ça aujourd'hui
grâce au Deep Learning sur modèle neuronal, allié au Data Mining, donc la possibilité de
parcourir de grandes quantité de textes et apprende par soi-même. Et la production de
language s'organise autour de points de repère. Siri sur iphone sait reconnaître que 'nearest
pizza restaurant' est une demande de pizza, avec 'nearest' comme clé. On verra donc
apparaître une liste de pizzérias.

Du point de vue de l'ingénierie, la parole captée passe par une fonction Fourier transformée
rapide. On identifie des éléments de parole pour en faire ressortir l'orchesre d'unités, chacune
avec son amplitude particulière. C'est ainsi qu'un ordi 'entend'. Et l'aspect musical de la réponse
perd peu à peu son aspect purement robotique, et sait faire faire du sens avec l'emphase.
Plutôt épatant, non?







                                   *     *     *

Data mining is the process of discovering patterns in large data sets involving methods at the intersection of machine learningstatistics, and database systems ...

The term is a misnomer, because the goal is the extraction of patterns and knowledge from large amounts of data, not the extraction (mining) of data itself.

source: Wikipedia

 Cette blogeuse Américaine conduit un vlog YouTube
exceptionnel. J'ai bien envie de faire un peu de data
mining (forage de données) pour dénicher les sites de
vêtements en ligne auxquels elle accède.




                                   *    *    *

CC# 37 nous présente allègrement la robotique, ou plutôt les robots.
Car cette dernière notion - d'une machine autonome  et resemblante aux humains -
a cetainement monnaie courante dans notre imaginaire. Pourtant les automates
industriels sont très utiles,et datent des années1940. il en existe aujourd'hui des millions,
dans tous les domaines. Et on connaît bien les bots ( par exemple, en informatique), machines
intelligents mais sans forme proto-humaine...

Les bras mécaniques et autes fonctionnent sur le principe du PID: proportion,
intégrale, différentielle. On établit des balises de base, on mesure continuellement
les écarts - en fait l'historique des écarts récents - pour étalir pour l'avenir des lignes
de conduite de vitesse et d'approche. Cette boucle de rétroaction est à la base
du fonctionnement de tous les robots.

Petit bémol sur les robots de l'avenir: toute machine robotique peine encore à marcher sur deux
jambes, ou ramasser un objet. Nos bébés ont la cote...


                                               *     *     *

L'épisode #38CrashCourse ComputerScience nous offre une fenêtre
sur le fascinant domaine de la psychologie de nos interactions avec 
l'ordinateur. Il aura bien fallu prendre en ligne de compte quelques
balises psychologiques: de comportement, et de percetion visuelle, dès les
premiers efforts de design des interaces-utilisateur. Par exemple, que nous
percevons facilement des intensités de couleur mais moins bien des différences
de tonalité, que l'information est plus compréhensible en morceaux de 5 items,
et non en déroulé, et que nous reconnaissons la fonctionalité rapidement par le biais
des icônes, comme le panier à rebus.

Tout cela explique que les GUI puisse remplacer la ligne de commande. Mais l'ordi
reste aujourd'hui accessible également au novice, et à l'expert, ce dernier ayant
sans doute mémorisé les commandes sur clavier. (Ctrl + C pour un copier rapide)!

La recherche universitaire se développe aussi. Une étude bien connue sur Facebook 
a démontré que l'utilisateur sera positif dans ses messages si on lui présente de l'information
positive en continu ( et l'inverse). On sait par ailleurs que l'utilisateur sera plus porté à dire
des vérités sur ordi que dans une situation interpersonnelle, et qu'il se sentira en confiance 
si on lui présente un interlocuteur qui semble le fixer directement!

Plus en aval, la recherche sur le robots a augmenté la similarité entre la machine 
et la personne humaine, pour finalement buter sur une trop grande ressemblance 
qui fait un peu peur. On cherche actuellement à dépasser ce stade...

                                     *     *     *

CC#39 porte sur l'utilisation de l'informatique en éducation. Nous
n'avons toujours pas délaissé les livres, mais l'enseignement sur vidéo
comporte quand même des avantages car l'étudiant peut travailler à
un rythme qui lui convient, revoir les choses mal comprises, faire ses exercices.
On a bien essayé des cours à distance pour grand nombre de personnes, mais
cela reste difficile pour répondre aux questions, et la correction des exercices.
Ce qui nous mème aux 'Intelligent Tutoring Systems" (Environnements informatiques
pour l'apprentissage humain).

Un tuteur intelligent se servira d'un modèle-domaine sertit de règle de production, et
mécanismes de rétroaction. Il y aura donc une définition des tâches à maîtriser.
Pour toute évaluation par la machine, on se servira de probabilités pour: action comprise,
guess(on a deviné la bonne réponse), slip(on a donné une mauvaise réponse par erreur),
transit( on apprit par l'exécution de l'exercice). Ceci pour un individu.

Sur des millions d'étudiants, on vient à reconnaître les plages d'apprentissage,
et les difficultés particulières. On fait même du data mining à partir des moments
d'hésitation et des retours. L'auteur Neal Stephenson a fait un roman Diamond Age,
qui donne une idée de quoi il s'agit, en particulier de la création d'agents virtuels
pour guider la jeune personne. Ceci serait en voie de devenir réalité.

On s'est même penché sur la recherche sur le cerveau, histoire d'identifier les
ones actives durant l'apprentissage. Peut-on rêver d'une transmission de savoir
directement au cerveau; cela impliquerait que la conscience pourrait faire l'objet
d'un téléchargement... 



                                   *     *     *

 Dans le CC#40, il est question de l'avenir de l'informatique, qui
se confond  pour certains avec l'avenir de l'humanité tout court. Si aujourd'hui,
nos machines les plus puissantes possèdent la capacité de computation d'une souris
bien vivante, on devrait atteindre la capacité de tous le cerveaux humains réunis
vers 2050. Cette notion - la singularité informatique (John von Neuman) - 

en effraie plusieurs.

Dans les faits, deux pôles de possibilité. D'une part la machine extraordinaire qui
demande toute notre attention( le mobile actuel). De l'autre, des avancées 

technologiques invisibles, qui changent la vie profondément, comme l'a fait la 
venue de l'électricité. Nous vivons actuellement l'informatique ubiquitaire 
(Mark Weiser, Xerox).

A  terme, on s'attend à voir disparaître 60% des emplois actuels ( ce qui a déjà 

commencé) par des robots et systèmes informatiques, ne laissant que les emplois 
les plus exigeants et créateurs. Ce qui pourrait ébanler la vie de tous les jours 
énormément.

En termes futuristes, on hésite entre la venue de cyborgs: des amalgames 

humain-machine et la possibilité d'intégrer une conscience dans un ordi après la 
mort physique, pour une forme d'immortalité. Car bien évidemment, les machines 
seront plus adaptées que nous à l'exploration de l'univers.

Voilà de bien graves questions. En attendant, à chacun de trouver sa petite place dans cette
nouvelle façon de vivre qui se forge...