ZARKANZAR: Les robots parlent aux humains
Blogger Tips And Tricks|Latest Tips For BloggersFree BacklinksBlogger Tips And Tricks
English French German Spain Italian Dutch Russian Portuguese Japanese Korean Arabic Chinese Simplified

R E C H E R C H E

articles et commentaires...

lundi 1 novembre 2010

Les robots parlent aux humains

On n’a pas attendu George Lucas et son sentencieux androïde C-3PO pour savoir que les robots pouvaient parler aux humains. Le vieil Homère l’avait déjà imaginé lorsque,
dans l’Iliade, il décrivait les deux curieuses assistantes qui aidaient Héphaïstos à forger une nouvelle armure pour le bouillant Achille : “Elles sont en or mais elles ont l’aspect de vierges vivantes. Dans leur cœur est une raison ; elles ont aussi voix et force ; par la grâce des Immortels, elles savent travailler.” On ignore cependant de quoi causent ces dames de métal lorsqu’elles n’attisent pas le feu de la forge…
De nombreuses machines se sont mises à discuter avec les humains au cours des dernières années, notamment par le biais d’Internet. Il y a beaucoup de charmantes jeunes femmes qui vous aident à faire vos démarches en ligne, que ce soit Léa sur le site de la SNCF, Anna chez Ikea, Clara à la FNAC (qui ne manque pas d’humour puisqu’à la question “Tu veux boire un verre après le boulot ?” elle répond du tac au tac “J’évite de boire, ça me fait rouiller…”), etc. Tous ces “chatbots” (mot-valise anglais que l’on pourrait traduire par “robavards”) ont cependant du mal à soutenir une véritable conversation. Depuis plusieurs lustres des programmes de discussion ont vu le jour et les plus performants d’entre eux tentent de réussir le test de Turing. Dans un célèbre article publié en 1950 dans la revue Mind, le mathématicien britannique Alan Turing, père de l’informatique, proposa un test baptisé “Jeu de l’imitation”, censé déterminer si une machine pouvait être considérée comme “intelligente” (ou “consciente”, sachant que beaucoup de définitions différentes peuvent se cacher derrière ces deux mots).
Le principe du jeu, tel que le décrivit Turing, est le suivant. Un humain et un programme de conversation sont installés dans deux pièces séparés. Un juge, humain, pose des questions par écrit (par téléscripteur à l’époque de Turing, à l’aide d’un programme de “chat” aujourd’hui) aux deux candidats, sans savoir lequel est l’homme et lequel est la machine. Turing postulait que si, dans au moins 50 % des cas, le juge ne se montrait pas capable, au vu des réponses, de distinguer l’homme de l’ordinateur, alors ce dernier pouvait être considéré comme intelligent. Le test a été critiqué, notamment par le philosophe américain John Searle qui expliqua en 1980 que les programmes de conversation, pour astucieux qu’ils fussent, n’en étaient pas moins stupides puisqu’ils ne comprenaient pas ce qu’ils disaient (tout comme on peut dire que les meilleurs programmes d’échecs actuels ont beau être plus forts que n’importe quel humain, ils ignorent qu’ils jouent aux échecs…).
Pour illustrer son argumentation, Searle s’imagina enfermé dans une pièce isolée du monde, ne contenant que des livres de questions et de réponses écrites en chinois, langue qu’il ne connaissait pas. De temps en temps, par une fente pratiquée dans un mur, il recevait une feuille de papier comportant des idéogrammes. Son travail consistait à retrouver ces signes dans les livres de questions et à recopier la réponse correspondante, toujours en chinois. Selon Searle, le monde extérieur pouvait ainsi penser que le « prisonnier » de la chambre parlait cette langue alors que ce n’était pas le cas. De même, les ordinateurs pouvaient donner l’illusion d’une conversation alors qu’ils ne comprenaient pas ce qu’ils disaient. Cet exemple a suscité un immense débat dans le monde de l’intelligence artificielle. Les opposants à cette thèse affirmant que, si l’homme enfermé dans la pièce n’entend pas le chinois, le système dans sa globalité ” pièce + livres + homme” parle effectivement cette langue…
Quoi qu’il en soit, le test de Turing est toujours d’actualité, soixante ans après avoir été imaginé. Depuis 1991, se tient chaque année le prix Loebner qui évalue les meilleurs “robavards”. Il faut bien reconnaître qu’en général, les juges ne se font pas avoir. Mais, cette année, pour la vingtième édition du prix qui a eu lieu le 23 octobre, l’un d’entre eux, au bout de 25 minutes de discussion avec le candidat humain et le robot, s’est laissé abuser et a pris Suzette, le programme de Bruce Wilcox, pour ce qu’elle n’était pas ! Toutefois, duper un seul juge n’est pas suffisant, selon le règlement, pour réussir l’épreuve : il faut en berner au moins deux.
Au vu des productions de Suzette, laquelle élude assez maladroitement les questions qu’elle ne comprend pas et en pose elle-même pour détourner la conversation, on est en droit de se demander comment ce juge a pu se tromper. La réponse réside sans doute dans le fait que les candidats humains, des étudiants facétieux, ont tout fait pour passer, eux, pour des robots ! L’un d’eux y est visiblement parvenu. Comme quoi le test de Turing, censé évaluer l’intelligence des machines, peut aussi servir à mesurer la bêtise des humains !
Pierre Barthélémy
Post-scriptum : Suzette ne parle qu’anglais et elle est un peu submergée de demandes ces jours-ci, ce qui explique qu’il est difficile de lui parler… La rançon de la gloire. Si vous ne parvenez pas à vous connecter avec cette nouvelle star, essayez Jabberwacky, de Rollo Carpenter (vainqueur du prix Loebner en 2005 et 2006), programme dont on peut ajuster le niveau de réaction et d’émotions…
---------------------
SOURCE: www.blog.slate.fr

Aucun commentaire:

Enregistrer un commentaire

Merci de poster un commentaire.