Ca a été souvent dit, Apple a réussi avec l'iPhone là où elle a échoué avec le Newton : créer un assistant numérique personnel convivial qui remporte un franc succès. A y regarder de plus près pourtant, si l'iPhone est plus moderne de par sa connectivité et son écran couleur tactile, il fait en revanche figure de grand frère attardé quand on compare leurs capacités à interpréter les intentions de leurs utilisateurs.
En inventant le PDA avec le Newton MessagePad, Apple avait étonné et impressionné car l'appareil, non content de comprendre l'écriture de son utilisateur, comprenait également le sens de ce qu'il écrivait, du moins dans une certaine mesure : Si vous écriviez "déjeuner avec Laurence demain" et que vous surligniez la phrase, l'appareil créait automatiquement un rendez-vous dans votre agenda à midi, le lendemain, avec les coordonnées de la fameuse Laurence. Magique.
Leopard comporte d'ailleurs un héritage de cette technologie, avec les Data Detectors, qui permettent d'isoler dans un texte des données formatées exploitables : adresses, numéros de téléphone, un simple survol de la souris permet de créer une fiche dans le carnet d'adresses ou un rendez-vous dans iCal.
Pourquoi donc l'iPhone n'a-t-il pas bénéficié de l'expertise d'Apple dans ce domaine ? Si on regarde la politique d'Apple ces dernières années, le moins qu'on puisse dire c'est qu'elle est devenue adepte du dicton "qui trop embrasse mal étreint". Les iPod auraient pu, comme leurs concurrents, disposer de tuner radio ou encore d'une fonction dictaphone, mais Apple a préféré faire l'impasse dessus afin de ne pas en compliquer l'utilisation outre mesure. On le sait, pour peu que les fonctions d'un appareil dépassent une certaine quantité, leur accès en devient difficile, voire insoupçonnable, et nombre d'entre nous se limitent à un "top 5" de ce que leurs appareils sont capables de faire. Le succès de l'iPod face à une concurrence qui offre pourtant plus de fonctionnalités semble avoir donné raison à Apple, bien qu'il ne faille pas éluder d'autres éléments de ce succès comme la machinerie iTunes.
Et de fait, pour en revenir à l'interprétation contextuelle des données, on en constate rapidement les limites. Les Data Detectors ne fonctionnent vraiment que si on marche dans les clous. Après tout, il n'y a rien qui ressemble plus à une suite de chiffres qu'une autre, qu'il s'agisse d'un numéro de téléphone ou de sécurité sociale… Sans compter que ces formats varient d'un pays à un autre, et que tous doivent être pris en compte, ce qui devient vite un casse-tête. Qu'un "dîner" devienne un "goûter dinatoire", et vous devez vous débrouiller par vous-même. Pire encore, s'il vous prenait l'envie de sélectionner un texte pour le copier et que Mail.app a le malheur d'en conclure qu'il s'agit d'une donnée à interpréter, le processus en devient frustrant, voire périlleux. Apple l'a pourtant bien compris avec la reconnaissance d'écriture cursive, qui avait fait tant de bruit avec le Newton : on ne parle que des trains qui arrivent en retard. Si la reconnaissance d'écriture était tout simplement prodigieuse d'un point de vue purement technique, elle n'était pas capable de reconnaître strictement tout ce que l'utilisateur écrivait. Et pour cause, puisque les humains eux-mêmes font parfois face au même problème (amitiés à mon médecin traitant s'il me lit). Résultat, le procédé en devenait frustrant et agaçant, car au lieu de s'émerveiller sur les 98% de mots qui étaient reconnus impeccablement, on s'énervait de constater que "savoureux" devenait "ragondin".
Pour créer une interface utilisateur agréable, il est donc crucial de trouver l'équilibre entre anticiper et interpréter l'intention de l'utilisateur, et lui laisser assez de liberté pour réaliser des tâches qui sortent du cadre qu'on avait initialement prévu. C'est là toute la difficulté, car pour peu qu'on sorte des rails, ce qui était appréciable et agréable en devient un véritable parcours du combattant, rendant plus compliqué ce qui avait vocation à devenir plus simple. En matière d'intelligence informatique, le quiproquo peut faire des ravages.
À ce titre, il sera intéressant de regarder l'évolution du Palm Pre, qui justement fait preuve de plus d'intelligence que l'iPhone: il étudie votre agenda quotidiennement et télécharge les cartes d'itinéraires automatiquement pour vous permettre de vous rendre à vos rendez-vous. Mieux encore, il estimera vos chances d'arriver à l'heure à l'aide de son GPS et vous proposera de prévenir la personne avec qui vous avez rendez-vous. Des fonctions qui tombent sous le sens et devraient rendre de sacrés services, de prime abord du moins. Car il suffit que le GPS vous localise au mauvais endroit (une erreur récurrente), ou encore que l'appareil choisisse la mauvaise ville de destination en cas d'homonymie (on a pu voir Google Earth localiser Toulouse en Suisse, ce qui a d'ailleurs été à l'origine d'une cocasse humiliation pour CNN comme en témoigne la carte ci-dessous), pour que ces fonctionnalités, loin de simplifier la vie de leurs utilisateurs, en deviennent un véritable calvaire. Reste à voir au quotidien comment l'appareil se tirera de ces cas de figure.
Le traitement automatique des données, ou encore le Data Mining sont aujourd'hui de grandes avancées de l'informatique. Ils reposent de plus en plus sur la reconnaissance des données auxquelles ils s'appliquent : traduction automatique, reconnaissance visuelle, interprétation contextuelle, toutes ces fonctions font appel à des technologies de plus en plus avancées d'intelligence artificielle, qui font l'objet de bien des enjeux. La recherche scientifique travaille à plein pour poursuivre ces avancées : à l'heure où de gigantesques bases de données font notre quotidien, il devient crucial de pouvoir extraire des données précises facilement. Demain, nous pourrons chercher dans Google toutes les images qui font figurer un chat sans que personne ne l'ait précisé manuellement. Mais nous sommes bien placés pour le savoir, tout ce qui est sujet à interprétation est également susceptible de causer une erreur d'interprétation. Dans le cas de l'informatique, il est crucial que ces erreurs potentielles soient prises en compte afin de ne pas enfermer l'utilisateur dans des cases trop étroites. Par exemple, la reconnaissance automatique des visages intégrée dans la dernière mouture d'iPhoto s'assure bien de l'aval de l'utilisateur, pour pallier toute erreur potentielle. L'être humain n'a plus l'exclusivité de l'imperfection de son jugement, car plus que jamais, errare computarum est, perseverare diabolicum.
En inventant le PDA avec le Newton MessagePad, Apple avait étonné et impressionné car l'appareil, non content de comprendre l'écriture de son utilisateur, comprenait également le sens de ce qu'il écrivait, du moins dans une certaine mesure : Si vous écriviez "déjeuner avec Laurence demain" et que vous surligniez la phrase, l'appareil créait automatiquement un rendez-vous dans votre agenda à midi, le lendemain, avec les coordonnées de la fameuse Laurence. Magique.
Leopard comporte d'ailleurs un héritage de cette technologie, avec les Data Detectors, qui permettent d'isoler dans un texte des données formatées exploitables : adresses, numéros de téléphone, un simple survol de la souris permet de créer une fiche dans le carnet d'adresses ou un rendez-vous dans iCal.
Pourquoi donc l'iPhone n'a-t-il pas bénéficié de l'expertise d'Apple dans ce domaine ? Si on regarde la politique d'Apple ces dernières années, le moins qu'on puisse dire c'est qu'elle est devenue adepte du dicton "qui trop embrasse mal étreint". Les iPod auraient pu, comme leurs concurrents, disposer de tuner radio ou encore d'une fonction dictaphone, mais Apple a préféré faire l'impasse dessus afin de ne pas en compliquer l'utilisation outre mesure. On le sait, pour peu que les fonctions d'un appareil dépassent une certaine quantité, leur accès en devient difficile, voire insoupçonnable, et nombre d'entre nous se limitent à un "top 5" de ce que leurs appareils sont capables de faire. Le succès de l'iPod face à une concurrence qui offre pourtant plus de fonctionnalités semble avoir donné raison à Apple, bien qu'il ne faille pas éluder d'autres éléments de ce succès comme la machinerie iTunes.
Et de fait, pour en revenir à l'interprétation contextuelle des données, on en constate rapidement les limites. Les Data Detectors ne fonctionnent vraiment que si on marche dans les clous. Après tout, il n'y a rien qui ressemble plus à une suite de chiffres qu'une autre, qu'il s'agisse d'un numéro de téléphone ou de sécurité sociale… Sans compter que ces formats varient d'un pays à un autre, et que tous doivent être pris en compte, ce qui devient vite un casse-tête. Qu'un "dîner" devienne un "goûter dinatoire", et vous devez vous débrouiller par vous-même. Pire encore, s'il vous prenait l'envie de sélectionner un texte pour le copier et que Mail.app a le malheur d'en conclure qu'il s'agit d'une donnée à interpréter, le processus en devient frustrant, voire périlleux. Apple l'a pourtant bien compris avec la reconnaissance d'écriture cursive, qui avait fait tant de bruit avec le Newton : on ne parle que des trains qui arrivent en retard. Si la reconnaissance d'écriture était tout simplement prodigieuse d'un point de vue purement technique, elle n'était pas capable de reconnaître strictement tout ce que l'utilisateur écrivait. Et pour cause, puisque les humains eux-mêmes font parfois face au même problème (amitiés à mon médecin traitant s'il me lit). Résultat, le procédé en devenait frustrant et agaçant, car au lieu de s'émerveiller sur les 98% de mots qui étaient reconnus impeccablement, on s'énervait de constater que "savoureux" devenait "ragondin".
Pour créer une interface utilisateur agréable, il est donc crucial de trouver l'équilibre entre anticiper et interpréter l'intention de l'utilisateur, et lui laisser assez de liberté pour réaliser des tâches qui sortent du cadre qu'on avait initialement prévu. C'est là toute la difficulté, car pour peu qu'on sorte des rails, ce qui était appréciable et agréable en devient un véritable parcours du combattant, rendant plus compliqué ce qui avait vocation à devenir plus simple. En matière d'intelligence informatique, le quiproquo peut faire des ravages.
À ce titre, il sera intéressant de regarder l'évolution du Palm Pre, qui justement fait preuve de plus d'intelligence que l'iPhone: il étudie votre agenda quotidiennement et télécharge les cartes d'itinéraires automatiquement pour vous permettre de vous rendre à vos rendez-vous. Mieux encore, il estimera vos chances d'arriver à l'heure à l'aide de son GPS et vous proposera de prévenir la personne avec qui vous avez rendez-vous. Des fonctions qui tombent sous le sens et devraient rendre de sacrés services, de prime abord du moins. Car il suffit que le GPS vous localise au mauvais endroit (une erreur récurrente), ou encore que l'appareil choisisse la mauvaise ville de destination en cas d'homonymie (on a pu voir Google Earth localiser Toulouse en Suisse, ce qui a d'ailleurs été à l'origine d'une cocasse humiliation pour CNN comme en témoigne la carte ci-dessous), pour que ces fonctionnalités, loin de simplifier la vie de leurs utilisateurs, en deviennent un véritable calvaire. Reste à voir au quotidien comment l'appareil se tirera de ces cas de figure.
Le traitement automatique des données, ou encore le Data Mining sont aujourd'hui de grandes avancées de l'informatique. Ils reposent de plus en plus sur la reconnaissance des données auxquelles ils s'appliquent : traduction automatique, reconnaissance visuelle, interprétation contextuelle, toutes ces fonctions font appel à des technologies de plus en plus avancées d'intelligence artificielle, qui font l'objet de bien des enjeux. La recherche scientifique travaille à plein pour poursuivre ces avancées : à l'heure où de gigantesques bases de données font notre quotidien, il devient crucial de pouvoir extraire des données précises facilement. Demain, nous pourrons chercher dans Google toutes les images qui font figurer un chat sans que personne ne l'ait précisé manuellement. Mais nous sommes bien placés pour le savoir, tout ce qui est sujet à interprétation est également susceptible de causer une erreur d'interprétation. Dans le cas de l'informatique, il est crucial que ces erreurs potentielles soient prises en compte afin de ne pas enfermer l'utilisateur dans des cases trop étroites. Par exemple, la reconnaissance automatique des visages intégrée dans la dernière mouture d'iPhoto s'assure bien de l'aval de l'utilisateur, pour pallier toute erreur potentielle. L'être humain n'a plus l'exclusivité de l'imperfection de son jugement, car plus que jamais, errare computarum est, perseverare diabolicum.