Visualiser la loi de Fitts. Qu’en est-il des aliments courants et des situations quotidiennes ? Quand ne pas utiliser la loi de Hick

CAPACITÉ DE MÉMOIRE ET VITESSE

Si vous suivez la logique de D. Hartley, A.A. Oukhtomski, N.G. Samoilova, M.N. Livanov, G. Walter, E.R. John, K. Pribram et d'autres partisans de l'idée d'un codage dynamique des informations perçues et stockées en mémoire, on peut supposer que les ensembles neuronaux responsables de la réflexion subjective sont activés périodiquement, déchargés par des impulsions.
En raison des fréquences de battements qui composent l'EEG, les images mémoire mises à jour semblent pulser avec une période de battement dont la durée maximale est calculée par la formule suivante : T = 1/(FR). Notez que 1 / R= FT.
A partir de l'ensemble C des images en mémoire à long terme, un nombre limité M d'images différentes sont mises à jour à chaque instant courant. A chaque instant courant, avec une probabilité 1/M, une des images a une excitabilité maximale. Le temps de réaction en réponse à l'apparition d'un stimulus adéquat à l'image est à cet instant minime. Les stimuli sont délivrés indépendamment des fluctuations périodiques de l'activité neuronale (l'expérimentateur ne les voit pas). Par conséquent, la probabilité qu'un stimulus coïncide avec l'une ou l'autre phase des oscillations d'excitabilité est la même pendant toute la période d'oscillation. Certains stimuli coïncident avec la phase d’excitabilité accrue et les réponses suivent sans délai supplémentaire. Dans d'autres cas, le retard est réparti uniformément sur toute la période d'excitabilité réduite des ensembles neuronaux.
Ce qui précède suffit pour calculer la durée moyenne du retard t en fonction du nombre M de stimuli également probables attendus et du nombre K de stimuli présentés simultanément :
(1)

;
;
F = 10 Hz (constante de Berger) ; R = 0,1 (constante de Livanov).
L'équation quantifie la vitesse de traitement de l'information humaine. En particulier, le temps nécessaire en moyenne pour reconnaître un stimulus parmi un certain nombre de M stimuli également probables est déterminé par la formule suivante :
.
En psychologie, il existe une loi sur la vitesse de traitement de l'information humaine, établie par W. Hick. Le temps de traitement augmente linéairement avec une augmentation linéaire du logarithme du nombre d'alternatives dans les situations de choix. Le principal inconvénient de cette loi est son champ d’application restreint. La loi est valable si le nombre d'alternatives est inférieur à dix. La loi a été critiquée et fait l'objet de nombreux débats.
L'équation (1), qui inclut à la fois des constantes physiologiques et dérive d'idées sur le codage de l'information par cycles d'activité neuronale, est beaucoup plus précise. Il est efficace avec un nombre illimité d'alternatives et prédit les résultats des expériences psychologiques avec un haut degré de précision [Bovin, 1985]. Dans les études de I.Yu. Myshkina, A.V. Pasynkova, Yu.A. Shpatenko, T.S. Knyazeva, G.V. Kotkova, D.V. Lozovoy, O.Zh. Kondratieva, V.K. Osha et d'autres employés du laboratoire A.N. Lebedev, il a été constaté que l'équation (1) pour évaluer la vitesse de perception et de mémoire prédit correctement une variété de données psychologiques. Par conséquent, l’idée d’encoder les informations perçues et stockées en mémoire par des vagues d’activité neuronale repose sur une base expérimentale solide.
Passons maintenant des caractéristiques temporelles de la perception à l'évaluation du volume d'informations perçues et stockées en mémoire. Les psychologues identifient depuis longtemps plusieurs types de mémoire humaine : iconique, à court terme et à long terme. Il existe d'autres classements.
D’une part, la mémoire d’une personne semble illimitée. C'est la mémoire à long terme. En revanche, il est étonnamment petit. Il s'agit de mémoire opérationnelle, ou à court terme (de travail, comme on l'appelle parfois). Et avant, cela s’appelait le volume de conscience. Les psychologues ont essayé de résoudre le problème de la dépendance du volume de mémoire à court terme sur l'alphabet des stimuli mémorisés et ont abandonné. La règle de D. Miller « sept plus ou moins deux » est apparue, affirmant l'indépendance du volume par rapport à l'alphabet des stimuli mémorisés. L'écart donné est large, mais en réalité il est encore plus grand : d'une ou deux unités (par exemple, dans le cas des hiéroglyphes) à 25-30 dans le cas des signaux binaires. L'idée de cycles d'activité neuronale comme substrat matériel de la mémoire s'est également justifiée ici, en totale conformité avec l'idée originale de D. Hartley.
Les unités de mémoire, ses codes neuronaux, sont des paquets d'ondes, c'est-à-dire décharges d'impulsions synchrones de plusieurs neurones dans un seul ensemble. Il existe un grand nombre d'ensembles neuronaux. Chacun d'eux stocke des informations sur un objet mémoire sous la forme d'un modèle d'onde stable. L'ensemble est constitué de plusieurs groupes de neurones. Un groupe distinct est capable de générer séquentiellement de 1 à 10 volées d'impulsions cohérentes pendant une période d'oscillations dominantes, à condition que les intervalles entre les volées ne soient pas inférieurs au pas libanais R = 0,1 par rapport à la durée de la période dominante. Le nombre de neurones dans un ensemble varie. Plus les neurones sont impliqués dans les rythmes d'un certain ensemble, plus la probabilité de prise de conscience de l'image correspondante est élevée. Le nombre minimum de neurones assurant la stabilité de l'ensemble est d'environ 100 à 300 [Zabrodin, Lebedev, 1977].
Ce ne sont pas les synapses ni même les neurones individuels tels que les neurones détecteurs ou les neurones de commande qui servent d'unités de stockage, mais seulement des groupes, des ensembles de neurones pulsés en coopération. Bien entendu, il ne s’agit pas de codes atomiques ou moléculaires, mais cellulaires, à savoir de codes neuronaux. Ils peuvent également être appelés codes de mémoire cycliques, car la cyclicité, c'est-à-dire la régularité des décharges de la masse de neurones, reflétée dans la régularité des ondes de l'électroencéphalogramme, est une spécificité de tels codes.
L’alphabet des unités de mémoire neuronale est facile à calculer. Elle est inversement proportionnelle à la constante de Livanov. À savoir, l’une des nombreuses salves indique le début de la période. C'est pourquoi la taille de l'alphabet de ces unités de code est inférieure d'une, c'est-à-dire N = 1/R – 1. Le nombre de groupes neuronaux impliqués dans l’état actif au cours d’une période (consécutivement les uns après les autres) est égal au même nombre, N = 1/R – 1. Comme on le voit, la longueur de la chaînes de codes, c'est-à-dire ensembles neuronaux impliqués séquentiellement, est limité par le même caractère réfractaire en fréquence et est tout aussi facile à calculer.
De là, le nombre maximum possible de séquences de codes différentes (environ un demi-milliard) est dérivé à l'aide de la formule
Il s'agit de la capacité de la mémoire à long terme, C = 99 = 387 420 489 unités de mémoire.
Chaque unité de mémoire est un concept ou une commande spécifique, c'est-à-dire modèle d’action. Faisons une comparaison : la taille du dictionnaire actif dans la langue maternelle est d'environ 10 000, et même Shakespeare et Pouchkine, dont le dictionnaire des œuvres a été calculé, compte moins de 100 000 mots. Par conséquent, une personne est capable de parler des dizaines de langues, ce qui n’est bien sûr pas nouveau. Ce qui est nouveau, c'est que la capacité de mémoire est fonction d'une seule constante physiologique (R = 0,1). Il s'agit de la fraction de Livanov (elle est nommée ainsi par analogie avec une autre constante célèbre - la fraction de Weber (voir paragraphe suivant).
La capacité calculée permet de connaître la dépendance du volume de mémoire à court terme sur l'alphabet des stimuli mémorisés. Dans une équation, nous avons lié trois indicateurs psychologiques fondamentaux : la capacité de mémoire à long terme (C), la capacité de mémoire opérationnelle ou de travail (H) et la capacité d'attention (M), c'est-à-dire nombre d'images de mémoire à long terme différentes mises à jour :
(2)

,
et, à son tour,
,
où R est la constante physiologique de Livanov (R = 0,1) ; A est la taille de l’alphabet de stimuli donné.
Il convient de préciser une fois de plus que toutes les unités de mémoire, c'est-à-dire tous les ensembles ne sont pas mis à jour en même temps. Seul un petit nombre M d'ensembles sont mis à jour à chaque instant courant. Ce nombre sert à mesurer la capacité d’attention.
Si une personne a concentré son attention à un moment donné sur la mémorisation d'éléments binaires (zéros et uns), alors la plus petite quantité d'attention est égale à la taille de l'alphabet binaire objectivement donné qui lui est familier, c'est-à-dire M = A = 2. La plus grande attention est égale au produit suivant : M = A x N (dans cet exemple, M = 2 x N, où N est un coefficient de proportionnalité égal au volume du court terme, ou fonctionnement, mémoire des éléments mémorisés).
La mémoire à court terme H se mesure par le nombre maximum d'éléments, pas nécessairement différents et correctement reproduits, compte tenu de leur signification et de leur position dans la série après une seule perception. La durée d'une seule perception ne dépasse pas 2 à 10 s.
De l'équation (2) découle une règle simple pour prédire la capacité de la mémoire à court terme pour une combinaison de fonctionnalités, si la capacité de chacune des fonctionnalités est mesurée séparément :
(3)
où N est le volume requis pour la combinaison ; H 1, H 2, H 3 – volumes de mémoire à court terme pour les fonctionnalités initiales.
Cette formule, dérivée analytiquement de la précédente, prédisait l'existence d'un nouveau phénomène, jusqu'alors inconnu en psychologie (d'ailleurs avec un haut degré de précision). Erreur de prédiction dans différentes expériences N.A. Skopintseva, L.P. Bychkova, M.N. Syrenov et d'autres chercheurs testant la formule (3) n'étaient souvent que de 3 à 5 %. Comparez ce chiffre avec 25 à 35 % selon la règle de Miller, qui ne fonctionne pas de manière satisfaisante dans cette situation. Selon Miller, un tel problème est insoluble.
Dans les travaux de I.Yu. Mychkine et V.V. Mayorov [Myshkin, Mayorov, 1993], qui a développé avec succès la théorie de la mémoire dynamique, ainsi que dans d'autres études [Markina et al., 1995], ont été établies les dépendances requises du volume de mémoire sur les paramètres de l'électroencéphalogramme. Ainsi, l'objectif d'I.P. Pavlova - pour expliquer quantitativement les phénomènes psychologiques connus et en prédire de nouveaux à l'aide de concepts physiologiques (et de phénomènes psychologiques fondamentaux qui décrivent la capacité de mémoire et sa vitesse).
Il est à noter que les équations permettant de calculer la capacité de la mémoire humaine et sa vitesse incluent deux paramètres EEG, la fréquence réfractaire (R) et la fréquence dominante (F). Ils le sont, comme on dit après P.K. Anokhin, paramètres formant un système qui devraient expliquer de nombreux indicateurs psychologiques.
Les équations (1), (2), ainsi que leur dérivation et leur vérification expérimentale, sont examinées en détail dans certains ouvrages [Lebedev, 1982 ; Lebedev et al., 1985].
Les formules physiologiques découvertes pour la mémoire et sa rapidité ont fourni une solution à deux problèmes psychologiques anciens. Nous nous intéressons tout d'abord au problème du choix instantané, à la recherche des informations nécessaires en mémoire, informations nécessaires à chaque étape de la mise en œuvre d'un comportement orienté vers un but.
En psychologie cognitive, la plupart de la littérature porte peut-être sur le paradigme de S. Sternberg, un élève de D. Luz, concernant la vitesse de recherche d'informations en mémoire. S. Sternberg a proposé une méthode pour déterminer cette vitesse. Une nette dépendance de la vitesse à la taille d'un certain nombre de stimuli mémorisés a été révélée. P. Kavanagh a traité les données de nombreux chercheurs et a découvert une constante d'environ 1/4 s, qui caractérise le temps d'analyse de l'ensemble du contenu de la mémoire à court terme, quel que soit le contenu du matériel mémorisé.
Selon la méthode de S. Sternberg, une personne se souvient d'abord d'une série de stimuli, par exemple des nombres, dans son ensemble - comme une seule image - et conserve cette nouvelle image jusqu'à l'apparition d'un seul stimulus inclus dans l'ensemble mémorisé (ou , à l'inverse, n'est pas inclus en lui), répondant en appuyant sur la touche appropriée. Dans ce cas, selon les conditions expérimentales, le paramètre M de l'équation (1) est égal au volume H de mémoire à court terme, et le paramètre K = 1.
Pour comparer une image d'un stimulus avec celle présentée, un temps t/H est nécessaire, et pour reconnaître le stimulus présenté, si son image est présente dans la série mémorisée, un total de 1 au nombre de H comparaisons est requis, sur moyenne (1+ H)/2 comparaisons, soit e. 0,5(H + 1) t/ H unités de temps, ce qui équivaut à 0,25 s avec des valeurs typiques de F = 10 Hz et R = 0,1.
La valeur calculée à partir de données physiologiques diffère de moins de 3 % de la valeur expérimentale déterminée par Kavanagh à partir de diverses données psychologiques. Il est intéressant de noter que lorsque H = 1 (bien entendu, selon les conditions de mesure K = 1), le temps de comparaison selon la formule (1) est minime (environ 5 ms). Elle est égale à la constante de Geissler, précise à 0,3 ms près.
Pour estimer l'augmentation moyenne du temps à H > 1 par stimulus, la valeur trouvée de 0,5(H + l) t/ H du temps d'analyse de l'ensemble du contenu de la mémoire à court terme doit être divisée par le nombre d'incréments (H – 1) de la série de relance. Les données psychologiques sont pleinement cohérentes avec les calculs physiologiques [Lebedev et al., 1985 ; Lébédev, 1990].
Une autre prédiction concerne la vitesse de recherche visuelle, qui découle également de manière purement analytique de l'équation (1). La formule (1) établit non seulement la dépendance de la vitesse de recherche sur les constantes électrophysiologiques individuelles, mais aussi sur la taille de l'alphabet des signaux visuels perçus [Lebedev et al., 1985].
En raison des fluctuations cycliques de l'excitabilité des ensembles neuronaux, les images de la mémoire à long terme, y compris les images des mots perçus et prononcés, ne sont pas mises à jour d'un seul coup, mais tour à tour, certaines plus souvent, d'autres moins souvent. Sur la base de la fréquence de mise à jour, c'est-à-dire, par exemple, de la fréquence d'apparition du même mot dans le discours écrit, on peut juger des schémas de processus neuronaux cycliques et, inversement, prédire les caractéristiques de la parole en fonction des caractéristiques des cycles neuronaux. .
Si les moments d'actualisation des différentes images coïncident, alors ces unités de mémoire ont une chance de s'unir. Un nouveau concept est ainsi développé. C’est ainsi que se produit l’apprentissage et que se réalisent les actes de créativité.
Survivre, c'est-à-dire Seules les images mémoire dont l'activité cyclique n'est pas corrélée les unes aux autres ne sont pas éternellement réunies en un seul ensemble. Les périodes de cycles d'une telle activité sont corrélées en tant que membres de la série naturelle 1:2:3:4..., et les probabilités d'actualisation en tant que membres de la série harmonique (1/1) : (1/2) : ( 1/3) : (1/4). La somme des probabilités est égale à un et la valeur du premier terme est égale à la constante physiologique de Livanov. Ainsi, la formule suivante est dérivée, à l'aide de laquelle on peut prédire la dépendance de la fréquence d'apparition d'un mot (p) dans le discours connecté sur le numéro de son rang :
où i est le rang du mot selon sa fréquence d'apparition dans le texte.
La formule, qui intègre une constante physiologique, exprime ce qui est connu depuis les années 30. La loi de Zipf. De la formule (4) découlent les équations pour calculer la dépendance du volume du dictionnaire à la taille du texte dans lequel le dictionnaire donné est implémenté, et pour calculer les intervalles entre les répétitions du même mot dans le texte [Lebedev, 1985 ]. La parole, écrite ou orale, et pas seulement la poésie, est musicale. La constante de Livanov est incluse dans l'équation (4) de la série harmonique de mots classés par fréquence.
En utilisant des équations de régression linéaire multiple pour évaluer la capacité d’apprentissage des écoliers sur la base des caractéristiques EEG, nous avons constaté que les paramètres du rythme alpha qui déterminent la capacité de mémoire influencent également le succès de la prédiction du développement intellectuel [Artemenko et al., 1995], ce qui n’est pas surprenant. Ainsi, la théorie des codes de mémoire neuronale cyclique permet de porter un nouveau regard sur les lois psychologiques déjà connues.

Plus il y a d’objets devant nous, plus nous avons besoin de temps pour choisir. La loi de Hick sous une forme simplifiée est présentée exactement ainsi.

La dépendance, formulée au milieu du XIXe siècle, n'a été confirmée expérimentalement qu'en 1952 par les psychologues William Hick (Grande-Bretagne) et Ray Hyman (États-Unis).

Formule Hick-Hyman

Les scientifiques ont développé une formule qui décrit la relation logarithmique entre le temps de réaction et le nombre d'objets parmi lesquels choisir.
T = a + b * log2(n + 1)


T est le temps de réaction total,
un Et b - des constantes qui décrivent des caractéristiques individuelles de perception, telles que le délai avant d'accomplir une tâche et le coefficient individuel de vitesse de décision,
n - le nombre d'alternatives équivalentes parmi lesquelles choisir.

Qu'est-ce que ça veut dire

Pour plus de clarté, construisons un graphique. Si l'on ne prend pas en compte les variables a et b, qui dépendent uniquement des caractéristiques individuelles d'une personne, alors cela ressemblera à ceci : L'axe vertical T est le temps de réaction, l'axe horizontal n est le nombre d'objets alternatifs de choix.

Voici comment le temps de réaction change à mesure que le nombre d'objets augmente :

On voit que le temps de réaction lors de l'augmentation des objets de 2 à 5 a augmenté de 1 unité conventionnelle. Faites maintenant attention au fait que le temps de réaction augmente également de la même unité conventionnelle lorsque le nombre d'objets passe de 50 à 100. Il s'agit de la dépendance logarithmique.

Moins il y a d'objets, plus il est rapide et facile de sélectionner celui dont vous avez besoin. Mais lorsque le nombre d’objets dépasse un certain nombre, le temps de réaction change légèrement.

Application générale de la loi de Hick



Lors de la conception d'interfaces, la loi de Hick aide à déterminer le nombre optimal d'objets dans un tableau homogène, par exemple dans un menu. Elle est généralement utilisée conjointement avec la loi de Fitts, qui permet de déterminer la taille optimale d'un élément en termes de vitesse de réaction.

La loi de Hick est également étroitement liée à d'autres principes de perception et caractéristiques psychologiques de la prise de décision. Elle peut être tout aussi efficacement envisagée dans le contexte de la théorie de la proximité et de la règle 7 +/- 2, ainsi que d’autres modèles de comportement des utilisateurs sur le site.

En dehors de l'environnement Internet, les principes de la loi de Hick sont mis en œuvre dans presque toutes les interfaces qui interagissent avec l'utilisateur : du panneau de commande du micro-ondes à l'emplacement et au nombre de boutons de la télécommande du téléviseur.

Caractéristiques de l'application complète des lois de Hick et Fitts en UX



Attention, les lois décrivent des actions qui se succèdent généralement.
  1. Il faut immédiatement faire un choix (loi de Hick)
  2. Et puis - accédez à l'élément souhaité (loi de Fitts)
Ainsi, le temps total peut être calculé comme la somme des valeurs des deux formules.
Dans un contexte UX, cela signifie ce qui suit :
  • Un long menu (ou un agencement d'éléments homogènes en un seul bloc) est plus pratique pour l'utilisateur que deux ou plusieurs menus distincts.
  • Lors de la conception d'une interface, vous devez prendre en compte les deux lois et essayer d'optimiser à la fois la taille et la position des blocs, ainsi que le nombre d'éléments dans chaque bloc.
  • Vous pouvez également vous concentrer sur les lois lors de la création et de l'optimisation des profils de tâches. La loi de Hick est particulièrement révélatrice lors de l'analyse du processus de localisation et de remplissage des champs de formulaire.
La loi de Hick est moins connue que la loi de Fitts. Cependant, il le complète parfaitement et permet de concevoir les interactions des utilisateurs de manière plus consciente et plus efficace.

  • Plus il y a d'objets, plus l'utilisateur a besoin de temps pour sélectionner celui dont il a besoin.
  • La relation entre le temps de réaction et le nombre d'alternatives de choix est décrite par une fonction logarithmique.
  • La loi de Hick permet de calculer le nombre optimal d'objets dans un bloc.
  • L'application de la loi de Hick en conjonction avec la loi de Fitts nous permet de prédire plus précisément le temps de réaction de l'utilisateur lors de l'interaction avec l'interface.
Ignorer les lois de Hick et Fitts, c'est comme tirer les yeux fermés. On ne peut y arriver que par hasard. Si vous prenez la conception d'interfaces au sérieux, les principes et les formules qui les décrivent vous aideront à créer une solution vraiment efficace.

précise que le temps de réaction lors du choix parmi un certain nombre de signaux alternatifs dépend de leur nombre. Ce modèle a été établi pour la première fois en 1885 par le psychologue allemand I. Merkel, et en 1952, il a été confirmé expérimentalement par V. E. Hick, et il a pris la forme d'une fonction logarithmique :

où VR est le temps de réaction moyen pour tous les signaux alternatifs ; n est le nombre de signaux alternatifs également probables ; a est le coefficient de proportionnalité. L'unité est introduite dans la formule pour prendre en compte une alternative supplémentaire - sous la forme de l'absence d'un signal.

LOI DE HICK

Anglais La loi de Hick) est une dépendance établie expérimentalement du temps de réaction choisi par rapport au nombre de signaux alternatifs. Elle a été obtenue pour la première fois par le psychologue allemand I. Merkel (1885), puis confirmée et analysée par le psychologue anglais V. E. Hick (Hick, 1952). ). La dépendance de Hick est approchée par une fonction de la forme suivante : où VR est la valeur du temps de réaction moyenné sur tous les signaux alternatifs ; n est le nombre de signaux alternatifs équiprobables « + 1 » entre parenthèses représente une alternative supplémentaire -. le cas d'un signal manquant.

Une formulation équivalente à 3. X. : le temps de réaction augmente en fonction linéaire de la quantité d'information (mesurée en bits). Syn. Loi Hick-Hyman.

la loi de Hick

Spécificité. Selon cette loi, le temps de réaction lors du choix parmi un certain nombre de signaux alternatifs dépend de leur nombre. Ce modèle a été obtenu pour la première fois en 1885 par le psychologue allemand I. Merkel. Une confirmation expérimentale précise a été reçue dans les études de Hick, dans lesquelles elle a pris la forme d'une fonction logarithmique : VR = a*log(n+1), où VR est le temps de réaction moyen pour tous les signaux alternatifs ; n est le nombre de signaux alternatifs équiprobables ; a est le coefficient de proportionnalité. L'unité dans la formule représente une autre alternative - sous la forme de sauter un signal.

LOI DE HICK

dépendance établie expérimentalement du temps de réaction du choix sur le nombre de signaux alternatifs (quantité d'informations entrantes). Cette dépendance a la forme : BP = blog,(n + I), où BP est la valeur moyenne du temps de réaction, n est le nombre de stimuli alternatifs équiprobables, b est le coefficient de proportionnalité. Le "I" entre parenthèses prend en compte l'alternative supplémentaire consistant à sauter le signal. L'utilisation des méthodes de la théorie de l'information a permis d'étendre la formule ci-dessus au cas de signaux inégalement probables, quelle que soit l'évolution de l'incertitude (entropie) des signaux entrants : soit en changeant la longueur de leur alphabet, soit en changeant les probabilités. de leur apparition. Sous une forme plus générale, la formule a la forme : où n est la longueur de l'alphabet des signaux, P est la probabilité de recevoir un signal i-ro, H est la quantité d'informations entrantes (moyenne par signal), a et b sont des constantes ayant la signification suivante : a - temps de réaction latent, b - la valeur réciproque de la vitesse de traitement de l'information par l'opérateur (le temps de traitement d'une unité binaire d'information). La vitesse de traitement de l'information humaine V= 1/b varie considérablement et dépend d'un grand nombre de facteurs. 3. X. est utilisé en psychologie de l'ingénierie et en ergonomie dans l'analyse des informations sur l'activité de l'opérateur, en calculant le temps nécessaire à l'opérateur pour résoudre un problème, en coordonnant la vitesse du flux d'informations vers l'opérateur avec ses capacités psychophysiologiques de réception et de traitement des informations. (débit). Lors de l'utilisation de 3. X., il est nécessaire de prendre en compte les possibilités et les limites de l'application de la théorie de l'information en psychologie de l'ingénieur.

  • Traduction

Introduction

En préparation de la refonte et de la refonte de wufoo.com, j'ai passé du temps à réapprendre les principes fondamentaux de l'interaction homme-machine, dans l'espoir d'incorporer quelque chose de nouveau accumulé au fil de décennies de recherche dans la création d'interfaces simples. La première chose qui m'a surpris en cours de route, c'est que le matériel sur ce sujet était extrêmement condensé et s'adressait clairement aux mathématiciens, puisqu'il était rédigé dans la langue de l'élite académique. On pourrait supposer que s’ils voulaient impressionner (en particulier les concepteurs), ils pourraient rédiger des documents plus faciles à lire.
En me souvenant de l'école, j'ai remarqué que ce n'est qu'en étudiant la physique que les mathématiques ont acquis un sens pour moi. Au lieu de fonctions abstraites, j'avais besoin de graphiques. En pensant dans ce sens, j'ai pensé que ce serait une bonne idée de donner une interprétation visuelle de la loi de Fitts, la pierre angulaire de la conception d'interfaces homme-machine, et d'expliquer à la fois son concept et pourquoi ces idées sont un peu plus complexes que beaucoup le souhaiteraient. .

Les mathématiques de l'évidence

Publiée en 1954, la loi de Fitts est une méthode efficace pour modéliser une situation spécifique mais très courante rencontrée dans la conception d'interfaces. Cette situation implique un objet contrôlé par l’homme (qu’il soit physique, comme un doigt, ou virtuel, comme le curseur d’une souris) et une cible située ailleurs. Le premier diagramme illustre exactement cette situation :

Mathématiquement, la loi de Fitts peut s'écrire comme suit :


où T est le temps moyen passé à effectuer une action, a est le temps de démarrage/arrêt de l'appareil, b est une valeur dépendant de la vitesse typique de l'appareil, D est la distance du point de départ au centre de l'objet , W est la largeur de l'objet, mesurée le long de l'axe de mouvement.
Cela signifie principalement que le temps nécessaire pour atteindre une cible dépend de la distance et de la taille de la cible. À première vue, cela semble évident : plus on s’éloigne de la cible et plus elle est petite, plus elle mettra du temps à se positionner. Tom Stafford développe cette idée :
"Bien que le message sous-jacent soit évident (les grandes choses sont plus faciles à repérer), les calculs précis sont impressionnants car ils impliquent une fonction logarithmique, ce qui signifie que la relation entre la taille et le temps de réaction est telle que rendre les petits objets un peu plus gros les rend plus faciles à comprendre. à repérer (alors que de petits changements dans la taille des gros objets n'ont plus d'importance). Il en va de même pour la distance jusqu'à la cible.

Passant au monde réel, nous pouvons dire qu’il est beaucoup plus facile de pointer du doigt une pièce de monnaie que une tache de rousseur, mais pointer du doigt une maison ou un complexe d’appartements ne fait pratiquement aucune différence. Ainsi, lors de la prochaine optimisation de votre site Web selon la loi de Fitts, rappelez-vous que si le lien est déjà assez volumineux, l’augmenter davantage n’augmentera pas la vitesse d’accès à celui-ci. Cependant, même une légère augmentation de la taille des petits liens fait déjà une différence.

La loi de Fitts concerne uniquement les lignes !

Voulant tirer une leçon pratique de l'équation de Fitts, les concepteurs d'interfaces ont proposé plusieurs règles pour l'application pratique de l'une des rares lois de l'interaction homme-machine. L'une des règles s'appelle

Règle de taille cible

Il combine les idées qui conduisent à la loi de Fitts et à la loi de Hick (qui seront discutées une autre fois) pour affirmer que la taille d'un bouton doit être proportionnelle à la fréquence de son utilisation. Bruce Tognazzini, le gourou des interfaces d'Apple, a même développé un excellent quiz pour expliquer comment la loi de Fitts peut être utilisée pour développer des règles qui améliorent radicalement les interfaces du système d'exploitation.
Avant d'appliquer aveuglément ces règles à vos applications, je voudrais vous rappeler que la loi de Fitts décrit une situation bien particulière. Cela part de l'hypothèse que le mouvement depuis le point de départ est clair et dirigé, ce qui implique une trajectoire strictement définie et droite (en commençant par une vitesse initiale élevée, comme s'il n'y avait pas d'autres objectifs et que vous saviez exactement où vous voulez aller). ). J'ai aussi vu que beaucoup de gens pensent que la loi de Fitts décrit la situation suivante :

Cependant, dans l’équation ci-dessus il n’y a pas de valeur correspondant à la hauteur de la cible, elle inclut uniquement la largeur ! Ainsi, puisque nous parlons des limites de la loi de Fitts appliquée aux interfaces, nous pouvons dire qu'elle décrit une situation unidimensionnelle. Les expériences originales de Fitts ont examiné la performance humaine lors des mouvements horizontaux vers une cible. L'amplitude de mouvement et la largeur de la région finale ont été mesurées le long des mêmes axes, ce qui signifie que le modèle décrivant la loi ressemblera probablement à ceci :

Ainsi, lors de la construction d'une optimisation de taille à l'aide de la loi de Fitts, nous pouvons supposer que les mouvements verticaux et diagonaux sont décrits par les mêmes équations. Il s’avère que la facilité avec laquelle on peut pointer vers un objectif particulier dépend en réalité de la position relative du point de départ et de l’objectif.


Dans l'exemple ci-dessus, le curseur de droite, en raison de sa plus grande largeur, se trouve techniquement dans une situation plus favorable pour atteindre la cible que dans la situation de gauche. Notez que la loi de Fitts fonctionnera également bien pour les cibles rondes, puisque la distance jusqu'au centre sera la même pour tous les angles. Cependant, la loi devient moins précise pour les objets rectangulaires et plus complexes. Dans l'exemple suivant, nous ferons deux tentatives pour optimiser la zone de lien en augmentant la taille du rectangle.


Dans le premier cas, nous avons augmenté la largeur du rectangle cible et dans le second, la hauteur. Comme vous pouvez le constater, pour ce point de départ, toutes les augmentations de taille n'ont pas pour effet de faciliter l'atteinte de la cible, ce qui peut être important pour les concepteurs Web travaillant avec CSS et le modèle Box.

Positionnement physique et virtuel

Depuis la publication des travaux de Fitts, des centaines d'expériences dérivées ont été réalisées. Un travail intéressant a été réalisé en 1996 par Evan Graham et Christine McKenzie, qui ont analysé la différence entre le positionnement des objets dans le monde réel et virtuel. Il montre que le déplacement du point de départ vers la zone cible peut être divisé en deux parties : une phase initiale à grande vitesse et une phase de décélération.


Dans cette étude, les auteurs ont conclu que la première phase est principalement influencée par la distance par rapport à la cible. Ni l'échelle de l'image ni la taille de l'objet n'accéléreront l'approche du but (des liens plus grands n'augmenteront pas la vitesse de déplacement). La seule phase qui affecte le temps de sélection des petits objets aux mêmes distances est la phase de décélération. Maintenant, voici quelque chose d'intéressant :
"La différence entre l'affichage virtuel et physique n'apparaît que dans la deuxième phase du mouvement, lorsque le contrôle visuel de la décélération sur de petites cibles est une tâche virtuelle qui prend plus de temps que la tâche physique"
En termes simples, les liens et les boutons à l'écran sont plus faciles à cliquer avec un doigt plutôt qu'avec une souris. Et le problème de la souris ne vient pas de sa capacité à atteindre la cible, mais de notre capacité à ralentir avec précision. Apple, vos moniteurs multi-touch sont le seul espoir.

Règle de limite infinie

Cela suggère que les écrans d'ordinateur fournissent un effet secondaire très intéressant du modèle de sélection de cible de Fitts dans la mesure où ils ont ce qu'on appelle des « bords ». Jeff Atwood, auteur de The Horror of Coding, a vraiment expliqué cela presque parfaitement dans son article de l'année dernière, Fitts' Law and Infinite width.
Étant donné que le dispositif de pointage peut s'étendre aussi loin qu'il le souhaite dans n'importe quelle direction, les cibles situées aux bords de l'écran sont en réalité des cibles infiniment larges, comme indiqué ci-dessous.


Pour le système d'exploitation et toute application plein écran, ces bordures sont généralement considérées comme l'espace le plus précieux, car elles sont techniquement les plus accessibles. Non seulement parce qu’ils ont une largeur infinie, mais aussi parce qu’ils n’obligent pas l’utilisateur à engager une phase de freinage pour les atteindre. C'est pourquoi il est incroyablement simple et intuitif d'attribuer des actions telles que la navigation entre les fenêtres aux coins de l'écran (comme cela se fait dans Compiz Fusion - environ. voie)


Malheureusement, les applications Web ne bénéficient pas de la règle des limites infinies. Ayant la limitation de devoir s'exécuter dans une fenêtre de navigateur bordée, le positionnement des boutons et des liens sur les bords et les coins n'est pas particulièrement intéressant du point de vue de la loi de Fitts, à moins que le navigateur ne s'exécute en mode plein écran, ce qui est peut-être plus courant uniquement pour kiosques Web.


Cela explique également pourquoi les interfaces des systèmes d'exploitation basées sur le Web ne seront jamais aussi performantes que celles qui tirent parti de l'ensemble de la zone du moniteur.

Fitts règne toujours !

Les limites de la loi Fitts mentionnées ci-dessus ne constituent absolument pas une raison pour la jeter par la fenêtre. Je voulais juste montrer que les discussions à ce sujet se poursuivent encore aujourd’hui, tout comme elles le faisaient il y a 50 ans. Et comme il ne peut pas décrire techniquement avec précision la plupart des situations dans le domaine des interfaces - les gens n'avancent pas toujours avec confiance vers un objectif, nous n'utilisons pas de trajectoires directes, il y a généralement plusieurs objectifs, ce qui peut prêter à confusion, et ainsi de suite - c'est le cas. Il ne semble pas y avoir de modèles significativement plus précis prenant en compte de nombreux autres facteurs qui pourraient modifier les vérités fondamentales qui sous-tendent la loi de Fitts.
« Il a été démontré que la loi de Fitts s'applique à une variété de cas, y compris divers membres (bras, jambes, détecteurs de regard), manipulateurs, environnements physiques (y compris sous l'eau) et groupes d'utilisateurs (jeunes, vieux, personnes ayant des réactions retardées et même ceux sous l'influence de drogues) »

En conclusion, le message principal que j'aimerais que les concepteurs retiennent est que la tâche de conception d'applications est si complexe et riche, impliquant tant de variables, qu'il faut se méfier de l'application de la loi de Fitts de manière globale. Avec l'augmentation de la taille des moniteurs, les moyens d'augmenter l'accélération de la souris devenant de plus en plus populaires et les technologies de balayage sur des écrans plus grands devenant de plus en plus populaires, il sera intéressant de voir comment les développeurs de logiciels peuvent en tirer parti et augmenter la capacité de parcourir rapidement de longues distances.

La loi de Hick dans la conception Web aide à créer une excellente UX pour votre projet afin de créer une expérience utilisateur sans effort. Les concepteurs UX et UI s'intéressent à l'état émotionnel de leurs utilisateurs et la loi de Hick vous aidera à créer des produits qui ne déprimeront pas vos futurs utilisateurs.

Heureusement, les concepteurs disposent d’un ensemble de principes pour les guider dans la création de bonnes expériences utilisateur. Qu'il s'agisse de la théorie de la Gestalt, du rasoir d'Occam, de la théorie des couleurs ou du prototypage de base, tout détermine la qualité d'un produit.

Dans cet article, nous aborderons ce que vous devez savoir sur la loi de Hicke et comment vous pouvez l'appliquer à votre prototypage.

Qu'est-ce que la loi de Hick ?

Si vous allez sur Ozon.ru et entrez « téléphone » dans la recherche, 7 555 résultats s'afficheront.

Mais c'est bien, non ? Nous avons le choix. Quel que soit le téléphone que vous préférez, vous pouvez le trouver parmi 7 555 téléphones.

Ainsi, la loi de Hick stipule que plus une personne a d'options, plus il lui faudra de temps pour prendre une décision. Un tel nombre de résultats dans les résultats de recherche effraiera simplement l'utilisateur.

Pour faire un choix, vous devrez filtrer les résultats de la recherche, examiner les caractéristiques et comparer les résultats ; c'est un processus assez complexe et long.

Barry Schwartz, dans son livre The Paradox of Choice, écrit : « Plutôt que d’être fétichistes du libre choix, nous devrions nous demander s’il nous donne quelque chose ou nous enlève quelque chose ?

Essentiellement, la loi de Hick stipule que le temps nécessaire pour prendre une décision augmente de façon logarithmique avec le nombre d'options. Plus vous avez d'options, plus il nous faudra du temps pour faire un choix, et s'il y a trop d'options, alors la quantité d'informations nécessaires à l'analyse sera trop importante. Schwartz soutient également que tous ces choix nous emprisonnent.


Loi de Hick dans la conception Web et l'expérience utilisateur

Parlons maintenant de ce que la loi de Hick peut apporter au design UX. Peut-on utiliser la loi de Hick pour améliorer l'interaction entre un produit et l'utilisateur ?

Disons que vous développez un nouveau site Web pour une bibliothèque locale.

Imaginez que cette bibliothèque propose des livres et des informations spécialisés, d'où de nombreuses catégories différentes mais utiles que les visiteurs peuvent parcourir. Disons qu'il y a 50 catégories.

Lorsqu'il s'agit de concevoir un menu de navigation, il est peu probable que vous en affichiez les 50, sinon cela confondrait simplement votre visiteur et il quitterait le site à la recherche d'une option plus pratique.

La loi de Hick aide les concepteurs à concevoir de manière à réduire les échecs et à accroître l'engagement.

Formule de la loi de Hick

En 1952, deux psychologues, William Hick et Ray Hyman, ont tenté de comprendre la relation entre le nombre de stimuli et la réponse d'un individu à ceux-ci. Sur la base des résultats de l’étude, la formule suivante a été dérivée :

RT = a + b log2(n)

C'est une formule assez simple à comprendre. RT est le temps de réaction, « a » est le temps total, non lié à la prise de décision, « b » est une constante dérivée empiriquement basée sur le temps de processus cognitif pour chaque option, qui pour les humains est de 0,155, et (n) le nombre d'alternatives. stimuli .

Pour illustrer un exemple : disons que vous êtes sur un site Web et que vous devez accéder à une page spécifique. Il y a une liste de menus et il vous faut 2 secondes pour lire, comprendre et décider quelle option de navigation prendre parmi 5 possibles. Le temps de réponse, selon la loi de Hick, est le suivant :

RT = (2 secondes) + (0,155 secondes) (log2(5)) = 2,36 secondes.

Tout cela se résume à ceci : le temps nécessaire pour prendre une décision augmente à mesure que le nombre d'alternatives augmente.

Si dans notre exemple il y avait plus d’options dans le menu de navigation, le temps de décision serait plus long. Ainsi, en créant des interfaces avec un grand nombre de points et d'options, vous créez une situation dans laquelle l'utilisateur peut simplement refuser d'interagir avec le produit.

Si vous êtes confronté à une situation avec de nombreux points de navigation et options dans la conception de votre interface utilisateur. Par exemple, 30 liens dans le menu de navigation ou 12 images dans le carrousel. La loi de Hick suggère de réduire le nombre d'options, mais comment ? Il existe donc plusieurs façons d'appliquer la loi de Hick en conception :

Travailler avec des filtres de contenu

Bien qu'Ozon renvoie 7 555 résultats pour la requête « téléphone », la conception applique la loi de Hick aux menus de navigation.


Comme vous pouvez le constater, la première ligne après le titre nous donne la sélection de catégorie. Nous pouvons ainsi, même intuitivement, choisir une catégorie qui nous convient parmi 5 options sans passer beaucoup de temps à chercher. Ainsi, en passant à la catégorie dont nous avons besoin, disons « smartphones », nous verrons un nouvel ensemble de catégories et de filtres. Les interactions avec ces filtres seront plus rapides car ils sont présentés en nombre limité (4-5), ce qui au total fait gagner du temps par rapport à la recherche parmi 7555 options.

En classant la sélection, l'utilisateur n'est pas débordé. En tant que concepteurs UX, nous devons regrouper les éléments de menu en catégories de différents niveaux - cela rendra l'utilisateur plus confiant dans la navigation dans le contenu du site.

Limiter le nombre d'options

Une façon d'améliorer l'UX de votre produit consiste simplement à supprimer tous les éléments inutiles de la conception de votre interface. Par exemple, prenez les champs de saisie et remplissez des formulaires. Si l'utilisateur continue à remplir, alors il a déjà formé un besoin, il est déjà prêt à passer du temps à remplir les champs. Mais si le concept général de conception est émotionnel, conçu pour les actions impulsives de l'utilisateur, alors remplir les champs prendra du temps et l'utilisateur peut simplement refuser de remplir, ce qui entraînera une diminution de la conversion.

La bonne solution serait ici de faire gagner le plus de temps possible à l’utilisateur et de tout mettre en œuvre en un clic, par exemple via une autorisation ou un abonnement via les réseaux sociaux.

Division en étapes

Si vous ne parvenez pas à simplifier les procédures effectuées par les utilisateurs dans votre produit, créez l'illusion de simplicité. Divisez l'ensemble du processus en plusieurs étapes simples afin que l'utilisateur n'ait pas à travailler avec une grande quantité de données dans aucune d'entre elles.

En décomposant le processus en étapes plus petites avec leurs propres écrans, vous créerez une expérience plus conviviale et l'utilisateur sera plus enclin à terminer le processus que s'il devait remplir toutes les informations en une seule fois. Cette solution a particulièrement fait ses preuves dans le e-commerce.

Masquage des fonctions mineures

Si votre application mobile ou votre site Web propose des options complexes non essentielles qui pourraient submerger vos utilisateurs, masquez-les simplement. Cela permettra à votre public d'interagir plus facilement avec les fonctionnalités principales de votre produit et, si nécessaire, de passer à des fonctionnalités plus avancées.

La loi de Hick dans la conception de sites Web permet à vos utilisateurs de gagner du temps, ce qui est déjà une bonne chose, quel que soit le type de produit. De plus, cela contribue généralement à une expérience plus positive, à une navigation plus facile et à la convivialité de votre produit.

A écrit:

Expert en conception, développement, web analytique



Avez-vous aimé l'article? Partage avec tes amis!