jeudi 28 février 2019

Scandale

Pour comprendre l'affaire SNC- Lavalin, qui fait actuellement
scandale à la Chambre des Communes, il convient de faire un
petit effort dans l'imaginaire sur plusieurs domaines.

1. Comment se fait-il que SNCL - une société d'ingénierie Québecoise -
se voit accusée de corruption en Lybie par la GRC et des procureurs
du Canada. Bizarre, non? Ce serait les lois de la Libye que l'on a enfreintes
et, en conséquence, à ce pays d'agir.

Et bien non, les pays de l'OCDE ont accepté de légiférer sur le comportement
de leurs compagnies multinationales en pays émergents. (2005) Il y a donc
bel et bien une loi Canadienne qui demande à la GRC d'agir. Il y a aussi une
entente plus large de l'ONU sur la question.

2. Et la loi qui permet au gouvernement d'offrir une pénalité en lieu de
procédures?

Au Canada, c'est une nouvelle loi qu'on appliquerait pour la première fois.
Là aussi c'est 'spécial', car on semble avoir le choix de l'appliquer ou non.
Une loi similaire existe déjà aux États-Unis. C'est conçu comme une mesure pour
ne pas nuire à une firme qui crée plusieurs emplois; mais c'est aussi critiqué
car on donnerait ainsi carte blanche pour offrir des pots de vin à l'étranger.
Ce type de loi n'est pas dissuasif.

3. Le scandale à la Chambre en est au point où Andrew Sheer exige la démission
de Justin Trudeau pour ingérence, car Mme Jody Wilson-Raybould aurait refusé
de prendre la route de la nouvelle loi. M. Sheer semble en pré-campagne électorale
sur la question.

https://en.wikipedia.org/wiki/OECD_Anti-Bribery_Convention

https://en.wikipedia.org/wiki/United_Nations_Convention_against_Corruption

https://en.wikipedia.org/wiki/Corruption_of_Foreign_Public_Officials_Act

https://www.ctvnews.ca/canada/what-is-a-remediation-agreement-meet-the-legal-tool-sought-by-snc-lavalin-1.4303978

lundi 25 février 2019

Watson (IBM)

IBM offre actuellement des services d'Intelligence Artificielle
aux entreprises avec ses applications Watson, mais il convient de
réfléchir au cadre juridique - et moral - de l'utilisation de tels
systèmes.



https://www.ibm.com/watson

                                                 *     *     *

https://www.wired.com/story/will-ai-achieve-consciousness-wrong-question/

source: Wired
auteur: Daniel C. Dennet
traduction: GrosseFille

VERRONS-NOUS LA CONSCIENCE CHEZ L’IA? FAUSSE PISTE

Quand Norbert Wiener, père de la cybernétique, rédigeait son livre The Human Use of Human Beings en 1950,  les tubes à vide formaient la base de l’électronique, et il n’y avait que quelques véritables ordinateurs en opération.

Mais il entrevoyait l’avenir que nous vivons avec grand détail et peu d’erreurs flagrantes. 
Plus que tout autre philosophe penché sur l’intelligence artificielle, il se rendit compte que 
l’IA ne ferait pas qu’imiter - et remplacer - les humains dans diverses activités intelligentes 
mais changerait les êtres humains eux-mêmes en cours de route.
‘Nous ne sommes que des tourbillons dans une rivière courant à jamais,‘ écrivait-il.
‘Nous ne formons pas ce qui persiste, mais bien des motifs qui se perpétuent.’

Placés devant une pléthore de possibilités attractives, en fait, nous tendrons à payer un
 peu et accepter quelque minimes coûts inhérents à accéder à de nouveaux pouvoirs.
Et voilà que nous nous retrouvons bientôt accros à nos nouveaux outils au point de ne pouvoir 
nous en passer pour prospérer. Ce qui était optionnel devient obligatoire.

C’est une très vieille histoire, comprenant des chapitres assez connus de l’historique de 
l’évolution. La plupart des mammifères savent synthétiser leur propre vitamine C, mais
les primates, en optant pour un régime à base de fruits, ont perdu cette capacité. Les motifs 
auto-répliquants que nous nommons humains se retrouvent donc dépendants du vêtement, 
de la nourriture cuite, des vitamines, des vaccinations, des cartes de crédit, des téléphones 
intelligents et de l’internet. Ainsi que - demain si ce n’est déjà fait - de l’IA.

Wiener pressentait plusieurs problèmes dans cette situation en développement que
Alan Turing et autres optimistes de l’IA à venir ont largement ignoré. Le véritable
danger, d’après lui, vient que

de telles machines, en soi sans moyens, puissent servir à un humain ou à un bloc d’humains à amplifier leur contrôle sur leurs populations non pas par le biais des machines en elles-mêmes 
mais par des techniques politiques aussi étroites et indifférentes au devenir humain que si elles avaient été, de fait, conçues mécaniquement.

Et bien évidemment, ces dangers nous entourent.

Coté média, par exemple, des aspects novateurs des audio et vidéo digitaux
nous permettent, en payant un prix modeste (aux yeux des amateurs d’audio et de films) 
à l’abandon des formats analogues, d’accéder à des faciles - peut-être trop faciles - copies d’enregistrement avec fidélité presque totale.

Mais il y a un immense coût caché. Le ministère de la Vérité décrite par Orwell
devient une possibilité au niveau pratique. Toutes les techniques pour créer des quasi-
parfaits enregistrements  de fausses rencontres deviennent disponibles, ce qui rend obsolète les 
outils d’enquête fiables des dernières 150 années.

Devons-nous simplement abandonner le court règne de la Preuve par Photographie et
simplement revenir à un système plus ancien quand la mémoire et la confiance
formaient la base, ou verrons-nous de nouvelles techniques de défense et d’attaque
dans le jeu de la vérité? (Possiblement, nous imaginons un retour au film analogue exposé-à-la-lumière, gardé dans des systèmes sécurisés avant d’être montré aux jurés, etc, mais combien 
de temps pourraient -on s’en servir avant que l’on trouve moyen d’y introduire le doute?)

Une des terribles leçons de notre expérience récente revient au au fait qu’il en coûte moins 
cher de détruire une réputation de crédibilité que de la protéger. Wiener
entrevoyait ce phénomène à son plus général: ‘Dans le long terme, il ne fait aucune 
différence entre s’armer soi-même et armer ses ennemis.’ L’âge de l’information est aussi 
celui de la désinformation.

Que peut-on envisager? Une phrase centrale, d’après moi, serait l’observation presque
légère chez Wiener, que ‘ces machines’ seraient ‘impuissantes en elles-mêmes’. Ce que je 
répète ces temps-ci, nous créons des outils, pas des collègues, et le grand danger en revient 
à ne pas voir la différence, que nous devrions tenter d’accentuer, la démarquant et défendant 
par des innovations aux niveaux politique et légal.

La manifestation actuelle de l’IA oeuvre en parasite l’intelligence humaine. Elle s’empiffre sans discrimination de tout ce que peut produire le créateur humain et en fait ressortir les motifs - y compris certaines de nos pires habitudes. Ces machines ne possèdent (pas encore) les objectifs, stratégies ou capacités pour la critique de soi et l’innovation qui leur permettraient d’aller plus loin que leurs bases de données en réfléchissant
sur leurs raisonnements et buts.

Elles restent, au sens de Wiener, impuissantes, pas dans le sens d’être des agents
entravés ou désamorcés mais plutôt en n’étant pas des agents du tout - ne possédant 
pas la capacité d’être ‘régis par la raison’ (d’après Kant) devant ce l’on leur présente.
Il serait important de s’en tenir à ça, et cela ne sera pas facile.

Pour le long terme, ‘l’IA fort’, ou l’intelligence artificielle générale, reste possible en 
principe mais non désirable (voir plus bas). L’IA beaucoup plus restreinte possible
dès aujourd’hui n’est pas nécessairement mauvaise. Mais il y a là aussi des dangers -
en particulier d’être méprise pour lIA forte.

L’écart entre les systèmes d’aujourd’hui et ceux tirés de la science-fiction qui dominent 
actuellement l’imagination populaire reste bien large, même si plusieurs, experts ou non, 
s'entendent pour le sous-estimer. Prenons le WATSON proposé par IBM comme exemple, 
bien placé pour ancrer notre imagination pour l'instant.

Ce dernier représente un très gros effort dans le R&D (Research and Developement)
englobant plusieurs siècles-personnes de design intelligent, et faisant appel a des
milliers de fois  l’énergie d’un cerveau humain. Qu’il ait pu gagner (au quizz télévisé) 
Jeopardy! revient à un véritable triomphe, rendu possible par une formulation restrictive 
des règles de Jeopardy!, mais afin qu’il puisse entrer dans la compétition, même les 
règles ont du être revues ( un de ces échanges: on cède un peu de versatilité, un peu 
d’humanité, et l’on obtient une émission grand-public).

Watson reste un piètre interlocuteur, malgré la publicité mensongère d’IBM lui créditant
des talents pour la conversation, et  transformer Watson en un agent multi-dimensionnel 
plausible reviendrait à transformer une calculette en Watson. Watson pourrait servir de faculté centrale à l’effort vers un tel agent, mais dans le sens d’un cervelet ou d’une amygdale et non 
d’un mental - au mieux, un sous-système spécialisé qui pourrait jouer un grand rôle de soutien, 
mais pas du tout capable de formuler des objectifs ou des projets et construire avec perspicacité 
sur ses expériences en conversation.

Pourquoi vouloir créer un agent pensant, doté de créativité à partir de Watson. Peut-être la 
brilliante idée de Turing d’un test pratique - le renommé test de Turing - nous
a-t-il dirigé vers un piège: la démarche pour créer tout au moins l’illusion d’une personne 
derrière l’écran, sautant ainsi ‘le troublant abîme’.

Le danger ici revient au fait que depuis le défi posé par Turing - en fait, un défi pour
duper les juges - les créateurs de l’IA ont tenté d’ombrer l’abîme avec des petites touches humanoïdes, de la Disney pour enchanter et désarmer le non-initié. ELIZA, un des premiers 
chatbox que l’on doit à Joseph Weizenbaum, serait le premier exemple de ce type de création d’illusion, et ceci vient de son trouble en se rendant compte de comment un petit programme si simple et superficiel pouvait donner au gens l’illusion d’un conversation coeur-à-coeur qu’il 
entama sa mission.

Il avait raison de s’inquiéter. S’il y a une chose que nous avons apprise à partir de la compétition 
sur Turing restreint pour le prix annuel Loebner, c’est que des gens très intelligents non initiés 
aux possibilités et raccourcis de la programmation informatique se font prendre allègrement 
par des trucs assez simples.

L’attitude rencontrée par les gens de l’IA sur ces méthodes de passe-passe à
‘l’interface utilisateur’ vont du mépris à la célébration, avec une appréciation générale 
que ces trucs ne sont pas profonds mais peuvent être puissants. Un changement d’attitude 
qui ferait un grand bien serait un reconnaissance honnête que ces fioritures humanoïdes sont une forme de publicité mensongère - donc, qui mérite d’être condamnée et non applaudie.

Comment faire? Dès que nous nous rendons compte que des gens commencent à prendre des décisions graves largement sur la base de ‘conseils’ prodigués par des systèmes d’IA dont les 
rouages internes restent inconnus en pratique, nous avons là une bonne raison d’avancer que 
toute personne qui encourage cette pratique de quelque façon de faire encore plus confiance 
en ces systèmes devrait être tenue moralement et légalement responsable.

Les systèmes d’IA se présentent en outils très puissants - tellement puissants que même les 
experts auront bonne raison de ne pas faire confiance leur des ‘jugements’ livrés par ces 
outils. Mais si ces parrains d’outils tirent un avantage, financier ou autre, à  tirer ces outils 
en terres inconnues, ils doivent s’assurer qu’ils savent ce faire de façon responsable, avec un maximum, de contrôle et de justification.

Des procédure pour obtention de licenses et dépôt de caution pour les opérateurs de tels systèmes, tout comme des licenses de pharmacien, opérateurs de grue, et autres spécialistes dont les erreurs et fautes de jugement peuvent entraîner d’horribles conséquences, pourraient, avec l’incitation des assureurs et autres courtiers, obliger les créateurs de systèmes d’IA à des mesures extrêmes pour trouver et rendre publique les faiblesses et lacunes de leurs produits, ainsi qu’entraîner ceux qui ont le droit de s’en servir à la surveillance.

On imagine ici un Turing test inverse dans lequel le juge sera juger; tant qu’il n’aura pas
trouver la faille, la frontière outre-passée, les lacunes du système, aucune licence d’opérateur 
ne sera autorisée. L’acuité mentale requise au travail de juge deviendra 
de haut niveau. La tentation d’attribuer des pouvoirs humains à un objet, notre approche quand nous percevons de ce qui pourrait s’avérer un agent intelligent, a figure de force quasi irrésistible.

D’autant plus, la capacité à résister à l’allure de traiter une personne apparente en tant que 
réelle personne serait un méchant talent, rapelant le racisme ou l’espèce-isme.
Plusieurs trouveraient la cultivation d’une telle approche hyper-vigilante moralement 
répugnante, et nous anticipons déjà que même les utilisateurs du système les plus avertis succomberaient ici et là à la tentation d’être ‘ami’ de leurs outils, assurément pour soulager l
eur inconfort dans l’exécution de leurs tâches.

Peu importe du niveau d’attention de la part des concepteurs d’IA pour enlever les fausses touches humaines de leurs offrandes, nous devons nous attendre à une fleuraison de raccourcis, solutions de contournement et distorsions tolérées de la véritable ‘compréhension’ et du système et de ses opérateurs. Les longues listes parfois comiques d’effets secondaires connus des médicaments proposés à la télévision ne sont rien pour les révélations obligatoires du type de questions que des systèmes particuliers ne peuvent résoudre de façon responsable, avec amendes
requises pour les fabricants qui ignorent les ‘failles’ de leurs produits. (On reconnaît qu’une part considérable de l’inégalité économique du monde d’aujourd’hui provient des richesses engrangées par les entrepreneurs digitaux; nous devrions passer des lois mettant leurs coffrets sous séquestre au service du bien commun.)

Nous n’avons nullement besoin d’agent artificiels dotés de conscience. Il y a 
un surnombre d’agents conscients naturels, bien assez pour mener les tâches qui exigent de tels entites spéciales et privilégiées. Nous avons grand besoin d’outils intelligents. Les outils n’ont aucuns droits et ne devraient avoir de sentiments aptes à être blessés ou savoir répondre avec ressentiments aux ‘abus’ dont ils seraient victimes aux mains d’utilisateurs ineptes.

Une des raisons à l’encontre de la fabrication d’agents conscients artificiels revient au fait que, 
même autonomes ( et en principe ils pourraient être tout aussi autonomes, appelés au perfectionnement ou à la reproduction, comme toute personne), ils ne pourraient pas - sans démarches spéciales, que l’on pourrait abroger - partager avec nous les agents conscients 
naturels notre vulnérabilité ou notre mortalité.

Il m’est arrivé de proposer à des étudiants dans un séminaire à l’université Tufts sur les agents artificiels et l’autonomie: Donnez-moi  les spécifications techniques pour un robot pouvant signer un contrat d’engagement envers vous - pas en remplacement d’un
propriétaire humain mais en tant que sujet. il n,est pas question ici de lui faire comprendre certaines clauses ou savoir manipuler un crayon et morceau de papier mais jouissant et méritant du statut légal d’agent moralement responsable. Les jeunes enfants ne peuvent signer de tels contrats, ni les personnes infirmes dont le statut légal entraîne d’être sous les soins et responsabilité de gardiens quelconques.

Le problèmes pour des robots qui voudraient atteindre un tel niveau revient au fait que tel 
Superman, ils sont trop invulnérables pour savoir faire de telles promesses. Si
jamais il y avait bris de contrat, que se passerait-il? Quelle pourrait être la pénalité
pour bris de promesse? Se voir emprisonner dans une cellule ou, plus efficace, 
mis en pièces? Se retrouver sous clé ne dérange en rien un IA a moins d’y avoir installé 
un goût du voyage artificiel que l’IA ne peut désactiver par lui-même ( et on voit déjà les 
difficultés d’y trouver une solution certaine, à partir de la ruse et la connaissance de soi de l’IA); 
et le démembrement d’un IA( soit un robot ou un alité comme Watson) ne revient pas à la mort 
si l’information sur son design et  ses logiciels perdure.

La grande facilité à faire des enregistrements digitaux - la percée qui veut dire que les logiciels et données sont maintenant immortelles - soustrait les robots du monde vulnérable ( tout au moins les robots habituels, avec des logiciels digitaux et de la mémoire). Si ceci n’est pas évident, imaginons comment la mortalité humaine changerait si nous pouvions faire des ‘copies conformes’ de gens toutes le semaines, disons. Plonger en bas d’un pont tête première le vendredi sans appareil bungee aurait figure d’une expérience extrême vite oublié quand votre remplacement du vendredi soir se ferait mettre en ligne le dimanche matin, mais vous seriez libre de tout revoir en vidéo
à partir de là.

Alors ce que nous créons ne sont pas - ne devraient pas être - de conscients, humanoïdes 
agents mais des entités d’une toute autre espèce, un peu des oracles, sans conscience, peur 
de la mort, pas de distrayants amours ou haines, pas de personnalité (mais bien des petits manquements et comportements bizarres que l’on verraient comme la ‘personnalité’ du 
système): des boîtes de vérités, certainement contaminées par des poussières de mensonges.

Il y aura assez de difficultés à nous adapter à leur présence sans se faire des peurs avec la 
Singularité dans laquelle ces IAs pourraient nous emprisonner, dans les faits. 

L’usage humain de l’être humain changera - encore une fois - à tout jamais, mais nous 
pouvons guider l’avenir en évitant les dangers et devenant responsables de la trajectoire.


From "What Can We Do?" by Daniel C. Dennett. Adapted from Possible Minds: Twenty-Five Ways of Looking at AI, edited by John Brockman, published by Penguin Press, an imprint of Penguin Publishing Group, a division of Penguin Random House LLC. Copyright © 2019 by John Brockman.

                                              *     *     *


vendredi 15 février 2019

Sérotonine

                                               source: The Times, UK

Dans la citation ci-dessus, on remarque un appel
à la notion d'impuissance acquise (learned helplessness),
un concept tiré de la psychologie assez récent. De quoi
s'agit-il; car de prime abord cela peut sembler assez
simpliste. Après plusieurs expériences de manquer la cible
dans une situation donnée, on reconnaît son impuissance.

Mais voilà que la psychologie s'y intéresse car le sujet
arrive à ne plus apercevoir de solution quand il y en a.
Ce serait un des mécanisme impliqué dans l'échec scolaire
à répétition, par exemple.

Comment comprendre le phénomène? Du point de vue physiologique,
la sérotonine serait en jeu. Il s'agit d'un neurotransmetteur d'inhibition,
donc qui empêche un signal nerveux de se propager. Mais il contribue
aussi au sentiment de bonheur, ou tout au moins d'apaisement. On
lâche le régime ou le gym, on met le boyfriend à la porte, on achète
un quatorzième gilet en solde et on se sent bien. Qui n'en a pas fait
l'expérience.

Mais à long terme, ces comportements sont associés à une
expérience de dépression. Le psychologue y voit une base
à la théorie du désespoir.

source: Wikipedia

mardi 12 février 2019

Bateman

C'est notoire: la vie politique aux îles Britanniques n'a
pas de centre, parce que s'affrontent au Parlement les
Conservateurs et les Travaillistes. (Les pauvres
Lib-Dems n'ont que piètre influence). Et ce sont les
Conservateurs qui ont emmené l'union Européenne
avec le gouvernement Heath(1973) pour passer au Brexit avec
Mme May aujourd'hui.

Mais une femme cherche bien à se faire entendre en
offrant des prestances ...nues. Victoria Bateman économiste
de l'université Cambridge demande à débattre Jacob Rees-Mogg,
ancien de Oxford, sur le Brexit qui n'est -à ses yeux...rien.

source: the Guardian

Only in England!

lundi 11 février 2019

Cheveux

On voit le soleil ces jours-ci et même si cela demeure
glacial, j'ai coupé mes cheveux.😉







                               *     *     *

Ce n'est pas donné à toutes les femmes de pouvoir
s'offrir de très longs cheveux. Cela dépendra de la
durée de la phase active de croissance d'un cheveux.
Ce qui se passe: un nouveau cheveux se forme et pousse
sur un autre en dormance, qui tombera. Largement une
question de génétique, même si l'alimentation peut
y jouer.

On a le nombre de cheveux que l'on aura à la naissance,
et la tête - donc le cuir chevelu - s'élargit!!

https://www.webmd.com/skin-problems-and-treatments/hair-loss/science-hair#2

vendredi 8 février 2019

dimanche 3 février 2019

Auto

Qui sont les casseurs? Tout le monde s'en plaint,
y compris certains gilets jaunes qui y voient parfois -
en toute petite crise psychotique - des infiltrateurs
de la police venus 'discréditer' le mouvement.

Quand aux historiens - qui datent les black blocs du début
des années 1980, avec les Scwartzer Block allemands - je serais
plutôt d'avis qu'ils ont la mémoire courte. J'étais à Paris en 1975,
et des casseurs dans les manifs, il y en avait. On les nommait
les autonomes et le mot d'ordre passé entre étudiants était de ne jamais
s'y opposer, ou même chercher à les rencontrer.

NOUS SOMMES INGOUVERNABLES, dit la pancarte. De fait, toutes
les manifestations l'affirment. Les dirigeants se rencontrent et se
coalescent toute la journée, en institutions politiques, rencontrent sociales,
shopping, au niveau local, national, international. Les dirigés, pour ainsi
dire, ont aussi besoin de contact pour digérer toute cette réglementation.
Et casser quelques trottoires (c'est eux qui les mettent en place, de
toute façon). Un mouvement qui s'impose dans la durée aura besoin
de ses blacks, qui ont une expérience de la police et qui eux, ne se font pas mal.

Ma petite idée daruber.