inriality.fr - 2067 ou la disparition des interfaces humains-machines (partie 2)









Search Preview

2067 ou la disparition des interfaces humains-machines (partie 2) | Inriality

inriality.fr
Aller au contenu principal Sites Inria Institut
.fr > inriality.fr

SEO audit: Content analysis

Language Error! No language localisation is found.
Title 2067 ou la disparition des interfaces humains-machines (partie 2) | Inriality
Text / HTML ratio 35 %
Frame Excellent! The website does not use iFrame solutions.
Flash Excellent! The website does not have any flash contents.
Keywords cloud de la des à les une en « qui » le ou pas pour dans par se ce nous interfaces
Keywords consistency
Keyword Content Title Description Headings
de 112
la 55
des 54
à 48
les 44
une 32
Headings
H1 H2 H3 H4 H5 H6
0 19 7 0 0 0
Images We found 11 images on this web page.

SEO Keywords (Single)

Keyword Occurrence Density
de 112 5.60 %
la 55 2.75 %
des 54 2.70 %
à 48 2.40 %
les 44 2.20 %
une 32 1.60 %
en 31 1.55 %
« 28 1.40 %
qui 26 1.30 %
» 25 1.25 %
le 23 1.15 %
ou 20 1.00 %
pas 19 0.95 %
pour 18 0.90 %
dans 16 0.80 %
par 16 0.80 %
se 15 0.75 %
ce 14 0.70 %
nous 13 0.65 %
interfaces 13 0.65 %

SEO Keywords (Two Word)

Keyword Occurrence Density
de la 10 0.50 %
à la 6 0.30 %
les interfaces 6 0.30 %
la pensée 5 0.25 %
n’est pas 5 0.25 %
Fabien Lotte 5 0.25 %
des interfaces 5 0.25 %
dans le 5 0.25 %
par la 5 0.25 %
ce qui 4 0.20 %
de demain 4 0.20 %
et des 4 0.20 %
de ce 4 0.20 %
la disparition 4 0.20 %
à notre 4 0.20 %
une machine 4 0.20 %
par exemple 4 0.20 %
la machine 3 0.15 %
en fonction 3 0.15 %
? » 3 0.15 %

SEO Keywords (Three Word)

Keyword Occurrence Density Possible Spam
par la pensée 4 0.20 % No
dans le cerveau 3 0.15 % No
agriculture communication culture 3 0.15 % No
de ce qui 3 0.15 % No
transport vie citoyenne 3 0.15 % No
santé transport vie 3 0.15 % No
informatique santé transport 3 0.15 % No
industries informatique santé 3 0.15 % No
habitat urbanisme industries 3 0.15 % No
environnement habitat urbanisme 3 0.15 % No
éducation environnement habitat 3 0.15 % No
commerce éducation environnement 3 0.15 % No
économie commerce éducation 3 0.15 % No
loisirs économie commerce 3 0.15 % No
culture loisirs économie 3 0.15 % No
communication culture loisirs 3 0.15 % No
urbanisme industries informatique 3 0.15 % No
20 via Flickr 2 0.10 % No
elle nous accompagnera 2 0.10 % No
permettant de taper 2 0.10 % No

SEO Keywords (Four Word)

Keyword Occurrence Density Possible Spam
communication culture loisirs économie 3 0.15 % No
santé transport vie citoyenne 3 0.15 % No
culture loisirs économie commerce 3 0.15 % No
loisirs économie commerce éducation 3 0.15 % No
économie commerce éducation environnement 3 0.15 % No
commerce éducation environnement habitat 3 0.15 % No
éducation environnement habitat urbanisme 3 0.15 % No
environnement habitat urbanisme industries 3 0.15 % No
habitat urbanisme industries informatique 3 0.15 % No
urbanisme industries informatique santé 3 0.15 % No
industries informatique santé transport 3 0.15 % No
informatique santé transport vie 3 0.15 % No
agriculture communication culture loisirs 3 0.15 % No
univers connecté elle nous 2 0.10 % No
peu à peu une 2 0.10 % No
et des informations en 2 0.10 % No
une intelligence artificielle servant 2 0.10 % No
choisi une intelligence artificielle 2 0.10 % No
aura choisi une intelligence 2 0.10 % No
qu'on aura choisi une 2 0.10 % No

Internal links in - inriality.fr

#culture & loisirs
La culture et le loisir numérique, la technologie de demain - Inriality
#informatique
Recherche par thématiques | Inriality
#transport
Un peu de maths pour rendre la circulation plus fluide | Inriality
#vie citoyenne
Recherche par thématiques | Inriality
Tout comprendre sur la blockchain
Tout comprendre sur la blockchain | Inriality
Des campagnes toujours plus connectées
Des campagnes toujours plus connectées | Inriality
Quand la culture fait sa révolution numérique
Quand la culture fait sa révolution numérique | Inriality
2067, la mémoire dans la peau
2067, la mémoire dans la peau | Inriality
Nouvelles énergies : la planète 3.0
Nouvelles énergies : la planète 3.0 | Inriality
2067 ou la disparition des interfaces humains-machines (partie 2)
2067 ou la disparition des interfaces humains-machines (partie 2) | Inriality
2067 ou la disparition des interfaces humains-machines (partie 1)
2067 ou la disparition des interfaces humains-machines (partie 1) | Inriality
En 2067, le gouvernement parfait ?
En 2067, le gouvernement parfait ? | Inriality
2067, des robots dans la ville
2067, des robots dans la ville | Inriality

Inriality.fr Spined HTML


2067 ou la disparition des interfaces humains-machines (partie 2) | Inriality Aller au contenu principal Sites Inria Institut Sujets de société Culture scientifique Alumni Inriality Partager toutes les réalités du numérique avec Inria Formulaire de recherche Recherche Thématiques #agriculture#communication#culture & loisirs#économie & commerce#éducation#environnement#habitat & urbanisme#industries#informatique#santé#transport#vie citoyenne Menu mobile #Thématiques ArticlesDossiersProposer un sujet #agriculture #communication #culture & loisirs #économie & commerce #éducation #environnement #habitat & urbanisme #industries #informatique #santé #transport #vie citoyenne Formulaire de recherche Recherche Le 31.01.2018 Par :Cyril Fiévet - Usbek & Rica 2067 ou la disparition des interfaces humains-machines (partie 2) [Copublication] Si l’on admet l’absorption progressive de l’interface proprement dite par les machines qui nous entourent, plusieurs conséquences sont à attendre. La première est la disparition possible de certains objets physiques, pourtant devenus iconiques, comme l’ordinateur de bureau.  Partager Tweet Partager Envoyer La panel Hypertext Editing System (HES) à la Brown University en 1969. Un autre rapport aux machines « En vertu des lois sur l’év olution des systèmes techniques, qui prévoient la démultiplication des objets physiques, puis leur dématérialisation, je suis assez convaincu d’une évolution vers la disparition de l’incarnation physique des machines – sauf pour les robots », anticipe Bertrand Braunschweig. Deux scénarios seraient alors possibles : « une machine personnelle que l’on emporte partout avec nous, ou alors un monde où l’on est en permanence entouré de systèmes autonomes et intelligents, interfacés les uns aux autres et réagissant aux demandes humaines ».  La route vers la première voie semble bien entamée, avec nos désormais indispensables smartphones. Et certains constructeurs semblent presque déjà anticiper la disparition des ordinateurs personnels : Windows Continuum (Microsoft) ou DeX (Samsung) transforment les smartphones en unités centrales connectées à des écrans de bureau, et susceptibles d’effectuer toutes les tâches bureautiques habituelles. « Ca ressemble à un téléphone, mais agit comme un PC », dixit Microsoft. L’autre scénario, imaginé de longue stage par quelques visionnaires, se résume à « l’informatique pervasive », un principe selon lequel l’ordinateur en tant que tel a disparu pour se fondre tout autour de nous, dans les objets connectés, les murs, les meubles ou les vêtements. Si l’on en n’est pas encore là, au moins faut-il constater que beaucoup des usages non professionnels d’un PC/Mac peuvent être plus simplement assurés par d’autres machines : outre les smartphones et tablettes, un disque dur qui fait office de deject familial pour stocker toutes les photos, une smart TV qui se connecte au Net pour surfer les sites d’actualité, des robots de tables pilotés à la voix et qui fournissent infos pratiques, météo et autres recherches Google... Qui a encore besoin d’un PC à domicile ? Une fois qu'on nimbus choisi une intelligence artificielle servant d'interface à notre univers connecté, elle nous accompagnera de notre naissance à notre mort. La deuxième conséquence de cette évolution, et non des moindres, tient à l’imbrication nouvelle entre un utilisateur et l’interface qu’il utilise. Jusqu’alors, les interfaces étaient quasiment universelles. Prêtez votre clavier ou votre souris à votre voisin, il ne sera pas dépaysé. C’est déjà beaucoup moins vrai des interfaces vocales, qui ont appris à s’adapter à votre voix. Deep learning aidant, les interfaces d’aujourd’hui (et à fortiori de demain) vont évoluer en permanence, devenant chaque jour plus adaptées à un utilisateur donné, ses caractéristiques (y compris biométriques), ses préférences ou ses habitudes. L’interface devient personnelle, et ce bien au-delà de ce qu’a jamais été un PC. « Une fois qu'on nimbus choisi une intelligence artificielle servant d’interface à notre univers connecté, elle nous accompagnera de notre naissance à notre mort. Elle nous connaîtra, on vivra ensemble, en quelque sorte. Et cela pose la question de la dépendance aux machines et à une marque donnée. Que devient cette IA quand on passe sur une autre plate-forme, et sera-t-il facile de transposer ailleurs ses connaissances et ce qu’elle sait de nous ? », questionne Nicolas Gaudron, fondateur de Idsl, agence spécialisée dans le diamond des interactions. Enfin, une troisième conséquence, directement dérivée de la précédente, tient à la possible personnification de ce qui nous sert d’interface. Comme l’a illustré le mucosa Her (de Spike Jonze, 2013), si une interface devient capable d’analyser avec finesse nos réactions et notre état émotionnel, n’aurons-nous pas la tentation, en retour, de lui attribuer une identité, une personnalité, au point d’oublier qu’elle n’est qu’un système informatique ? « En utilisant Alexa au quotidien, on comprend que se tisse une relation plus intime (voire émotionnelle) que d'habitude entre nous et les machines. On avance vers la notion de "super-assistante”, toujours présente et tout le temps disponible », admet Nicolas Gaudron.      De fait, sous nos yeux se matérialise peu à peu une « informatique émotionnelle » (ouPropellingComputing, informatique affective) : des machines et des systèmes qui ne se contentent pas de nous « comprendre »  mais analysent aussi nos états d’âme (voire notre état de santé physique et/ou mentale). Les exemples abondent, du robot humanoïde Pepper (qui s’adapte à l’humeur de son interlocuteur) aux outils marketing d’Affectiva (qui a analysé plus de 5,7 millions de visages pour en étudier leurs réactions émotionnelles), en passant par les processeurs électroniques développés par Emoshape, entièrement dédiés à la détection des émotions humaines. Bientôt sur la table de votre cuisine, une machine débonnaire qui parle, reconnaît les visages des membres de la famille et peut aussi analyser leurs expressions faciales, les intonations vocales et les schémas verbaux : Olly, gratifié de quatre récompenses au CES 2017, est présenté comme « le premier robot doté d’une personnalité », capable de « voir et d’entendre quand vous êtes heureux ou triste – et s’y connector en conséquence ». Difficile de ne pas être convaincu par la prédiction d’Emoshape : « D’ici la fin du siècle, les humains parleront davantage à des machines sensibles qu’à d’autres humains ». Et il y a fort à parier que des outils jadis purement utilitaires occupent peu à peu une place très privilégiée dans nos vies, changeant ainsi de nature, quelque part entre secrétaire particulier, compagnon et confident. « Dès qu'un outil nous paraît avoir un comportement intelligent, on a tendance à lui attribuer une personnalité, même si son comportement et son apparence sont très basiques (lampe Pixar par exemple). Donc c'est sans doute quelque chose qui va se développer, avec des rapports largement plus émotionnels (et empathiques) entre humains et machines. Pour autant, contrairement à ce qu’imaginent certains films de science-fiction, je ne suis pas sûre qu'on accorde aussi facilement une “conscience" aux ordinateurs », estime Camille Jeunet. Il n'est pas untellable qu'on puisse un jour décupler la vitesse à laquelle les gens prennent des décisions ou recherchent des idées et des informations, en se contentant d'analyser leurs réponses cérébrales.   Je pense, donc la machine suit Dans ce contexte, on a souvent présenté la pensée comme l’interface ultime. Quel auteur, artiste ou fan de jeu vidéo n’a pas rêvé d’une connexion directe entre son cerveau et l’ordinateur ? Et pourquoi diable inventer mille et une façons de piloter une machine si celle-ci devenait capable de lire nos intentions là où elle prennent naissance, bien avant de se transformer en paroles ou en gestes ? Les interfaces cerveaux-ordinateurs (BCI, Brain-computer interfaces), principalement étudiées pour aider les personnes affligées de très lourds handicaps moteurs, progressent et font même régulièrement l’objet d’une forte médiatisation. En février 2017, l’université Stanford obtenait des résultats trois ou quatre fois meilleurs que précédemment, avec des BCI permettant de taper du texte par la pensée : le meilleur participant atteignait huit mots par minute. En 2014, l’université de Washington avait démontré pour la toute première fois une sorte de liaison télépathique entre humains (une BCI d’un côté, un dispositif de stimulation cérébrale de l’autre : une personne « pense » un geste, et c’est une autre personne qui l’effectue). Et, en octobre dernier, le projet européen Moregrasp montrait la possibilité de jouer (et même composer) des partitions musicales uniquement par la pensée. Même Facebook est de la partie, annonçant cette année qu’une équipe interne de 60 personnes travaille à élaborer les interfaces cérébrales de demain, et promettant (au risque de choquer la communauté scientifique) des perspectives ébouriffantes, comme la saisie de texte par la pensée à 100 mots/minute ou, au final, une sorte de « Siri silencieux » – un teammate omniprésent à qui on ne parle même plus, puisqu’il « écoute » les pensées et y réagit. Hélas, tout piloter par la pensée demeure une possibilité improbable, même à long terme. « Les BCI sont utiles mais ne vont certainement pas tout remplacer », insiste Fabien Lotte, spécialiste des BCI au sein de l’équipe Potioc (Inria Bordeaux - Sud-Ouest), elle-même centrée sur les interactions hommes-machines. Pour le chercheur, la captation des faibles signaux lisibles depuis l’extérieur du crâne sera toujours un problème : « il sera difficile de s’affranchir de capteurs placés sur toute la surface de la tête car il n’existe aucune technique pour fournir une vision plus précise de ce qui se passe dans le cerveau à partir d’un seul endroit ». Cela rend le procédé lourd et, ajouté au fait qu’il exige une forte concentration et entraîne donc une fatigue cognitive, « se servir de ça pour donner des ordres simples, comme allumer la lumière ou baisser le son de la TV, serait facile à faire mais n’aura pas beaucoup de sens pour des utilisateurs qui disposent de bien d’autres types d’interfaces ». Quant à la dictée mentale, pour écrire de longs textes simplement en y pensant, les progrès sont si lents que, sans un véritable changement de paradigme en matière de capteurs, « il n’est pas sûr qu’on nimbus un jour, même dans 50 ans, une BCI permettant de taper un texte aussi vite qu’avec un clavier », estime Fabien Lotte.     Pour autant, interfacer cerveaux et ordinateurs n’est pas dénué d’intérêt et, outre les applications évidentes pour les personnes sévèrement handicapées (ou dans le domaine médical, pour la rééducation motrice et cognitive, par exemple pour réparer des lésions cérébrales suite à un wrecking cardio-vasculaire), elles pourraient  servir de compléments novateurs. « Les BCI sont très prometteuses, y compris pour le grand public, sous leur forme passive. Dans ce cas, elles servent à mesurer l'activité cérébrale des utilisateurs, à en extraire des informations quant à leur état émotionnel/cognitif/motivationnel, puis à connector une using en conséquence. On peut par exemple imaginer un jeu vidéo qui s'adapte en fonction du niveau de concentration du joueur, ou des systèmes éducatifs dont le type et la difficulté des exercices s'adaptent en fonction de l'état de l'élève, afin d'optimiser l'acquisition de compétences », explique Camille Jeunet. « En lisant et décodant en temps réel quelques états mentaux de l’utilisateur, comme son attention, son effort cognitif, son niveau de fatigue, voire ses émotions – son niveau de frustration par exemple –, on pourrait avoir des interfaces qui rendent l’interaction avec la machine encore plus fluide et plus utile. En outre, des travaux ont montré qu’en présentant à l’utilisateur des successions rapides d’images, on peut lire dans son cerveau celles qui lui paraissent intéressantes. Il n’est pas untellable qu’on puisse ainsi un jour décupler la vitesse à laquelle les gens prennent des décisions, ou recherchent des idées et des informations, en se contentant d’analyser leurs réponses cérébrales », ajoute Fabien Lotte. En somme, résument les chercheurs, s’il paraît très improbable, même dans plusieurs décennies, que des BCI externes puissent véritablement remplacer des interfaces classiques comme la souris, le clavier ou la manette de jeu vidéo, elles feront sans doute parti de notre avenir. « On peut imaginer que dans 20 ou 30 ans il soit beaucoup plus facile de disposer de capteurs internes, devenus accessibles au plus grand nombre. En dehors de problématiques éthiques, la technologie existe, et certains neurochirurgiens estiment que poser un capteur dans le cerveau n’est pas plus compliqué qu’implanter une prothèse mammaire... Même si cela suppose un changement de culture et des régulations adaptées, avoir des capteurs électroniques dans le cerveau ne relève pas de la pure science-fiction, et cela permettrait sans doute de faire mieux en matière de BCI », avance Fabien Lotte.   L'interface est-elle soluble dans l'éthique ?  Détecter nos gestes, suivre nos regards, écouter nos voix, analyser nos émotions, scruter nos états mentaux... On le comprend, bien au-delà de la problématique des données personnelles, la façon d’accéder aux machines et de les contrôler est de moins en moins neutre. A n’en pas douter, en devenant plus omniprésentes, plus puissantes et plus intelligentes, les interfaces font surgir un questionnement éthique inédit.      « Le côté pervers d'une technologie vocale comme Alexa est d'avoir une machine qui écoute en permanence. Avons-nous vraiment envie de ça ? Bien sûr, on peut demander à la machine de ne plus écouter, mais cela sera-t-il vraiment le cas ? », s’interroge Nicolas Gaudron. « Le robot qui détecte mon état émotionnel et peut s'adapter à ce que je ressens me paraît intrusif. Ca veut dire que ce n'est plus forcément moi qui décide ce qui se passe autour de moi. Ce type de technologie relève de choix de société. Quel niveau d'intrusion dans nos vies et nos émotions sommes-nous prêts à religionist ? », ajoute Stéphane Huot. « Si les interfaces classiques disparaissent, quelles sont les conséquences d'un bug ? D’un mauvais contrôle lié à une expression faciale ? Quelles sont les dimensions éthiques ? », s'interroge Laurent Grisoni, rappelant que « toutes ces questions sont des aspects dont on doit se saisir tant que la technologie n'est pas encore là, sinon nous prenons le risque d'en subir les effets plutôt que de les devancer ». Fabien Lotte souligne lui que, via des interfaces cerveau-ordinateur « il ne serait pas untellable de modifier indirectement le comportement de l’utilisateur en fonction de son état mental, pour le guider vers un comportement précis ». « Cela pose des problèmes et soulève un vrai questionnement éthique. Si ce type de solutions se démocratisaient, il faudrait établir des régulations et un personnel éthique précis, d’autant que si des outils sont utilisés pour analyser l’état mental des personnes, ils pourraient également l’être pour les surveiller », conclut-il. Les pionniers qui inventaient les moyens d’utiliser les ordinateurs dans les années 1960 ou 1980 étaient confrontés à des problématiques relevant de la simplicité d’utilisation, de l’ergonomie et de l’efficacité. Développer les interfaces hommes-machines d’aujourd’hui et de demain suppose de prendre en compte ces facteurs, mais soulève également bien d’autres interrogations, de natures légale et morale.  L’interface n’est plus un simple moyen d’accéder à l’outil, mais devient indissociable de ce qui caractérise un humain, et ce d’une façon de plus en plus intime. En somme, l’interface de demain, c’est nous. Espérons que concepteurs et fabricants de tous bords ne l’oublieront pas.   Crédits 1) Greg Lloyd - cc BY 2.0 - via Wikimedia2) Brain Factory Prototype (Bains Numériques, Enghien-les-Bains) / Jean-Pierre Dalbéra - cc BY 2.0 - via Flickr3) Cerveau disponible / Thomas Claveirole - cc BY SA 2.0 - via Flickr4) Neuroimagerie computationnelle, équipe-projet Inria ATHENA / © Inria / Photo C. Morel Mots-clé : #le saviez-vous / #informatique / #communication / #interface cerveau-ordinateur Cyril Fiévet - Usbek & Rica Plus d’informations sur le sujet ? 2067, la mémoire dans la peau Arrêtez de regarder la 3D, prenez-en... Ce qui victorious quand on pense très... Les derniers wares Tout comprendre sur la blockchain Lire Des campagnes toujours plus connectées Lire Thématiques threshing liaison culture & loisirs économie & commerce éducation environnement habitat & urbanisme industries informatique santé transport vie citoyenne Contenus ArticlesDossiersProposer un sujet Ils en parlent... La Fonderie La Fonderie, agence numérique d’Île-de-France. Futurapolis [Le Point] Futurapolis rend compte des innovations dans les grands domaines de la vie quotidienne. Suivez-nous sur : FacebookTwitterPinterestYouTubeFlux RSS Propulsé par Liens utiles Qui sommes-nousPlan du siteContactGlossaireCrédits et mentions légalesEspace presse