Ouvrir Instagram dès que le réveil sonne. Scroller sur TikTok en prenant le petit déjeuner. Avoir une pub YouTube avant la vidéo qu’on voulait vraiment regarder pour passer le repas du midi tranquillement. Une notification, puis une autre. On recommence. Sans vraiment s’en rendre compte, on passe notre journée à traiter des images. Des centaines, peut-être même des milliers. Et quelque part, on finit par se demander si notre cerveau est vraiment fait pour encaisser tout ça. Des chercheurs en neurosciences et en communication parlent souvent de “surcharge cognitive visuelle”.
Un œil qui ne voit pas tout
Contrairement à ce qu’on pourrait croire, l’œil humain ne fonctionne pas comme une caméra qui enregistrerait tout ce qui se trouve dans son champ de vision. Il y a au fond de la rétine une toute petite zone qu’on appelle la fovéa. C’est elle, et elle seulement, qui nous permet d’avoir une vision vraiment nette mais elle ne peut se concentrer que sur un seul élément à la fois. Le reste, ce qu’on voit « du coin de l’œil » c’est se qu’on appelle la vision périphérique : floue, imprécise, mais pas inutile pour autant.
Mais voir, ce n’est pas que l’affaire des yeux. Martine Joly, chercheuse en sciences de l’information et de la communication et auteure de l’Introduction à l’analyse de l’image, insiste là-dessus : voir et percevoir, ce ne sont pas la même chose Entre ce que l’œil capte et ce que le cerveau finit par comprendre, il y a tout un travail d’interprétation qui se fait en coulisses, sans qu’on s’en rende compte. Le cerveau ne reçoit pas une image brute, il la reconstruit, la compare à ce qu’il connaît déjà, hiérarchise les informations. C’est un gros processus de tri qui se fait en un battement de cil.
Ce travail de tri a été observé par des chercheurs allemands du début du XXe siècle, qu’on appelle les gestaltistes, du mot allemand Gestalt qui signifie « forme ». Leur grande découverte ? La perception est globale avant d’être analytique. Autrement dit, quand on regarde une image, on voit d’abord l’ensemble, et c’est cet ensemble qui donne un sens aux détails. On ne part pas des parties pour reconstruire le tout, c’est l’inverse. Et parmi les lois qu’ils ont identifiées pour expliquer ces phénomènes, il y en a une particulièrement parlante : le principe de prégnance. C’est l’idée que dans toute image, il y a un élément qui « saute aux yeux » avant les autres. C’est l’élément dominant, le plus saillant, celui que le cerveau voit en premier, avant même d’avoir eu le temps d’analyser quoi que ce soit.
Ce système est remarquablement efficace mais il a été conçu pour un environnement visuel bien plus calme que celui dans lequel on vit aujourd’hui.
47 secondes
Gloria Mark, professeure à l’Université d’Irvine en Californie, a mesuré notre durée d’attention sur les écrans sur vingt ans. En 2003, notre durée d’attention était en moyenne de deux minutes et demie. Entre 2016 et 2020, elle est tombée à 47 secondes. En moins de vingt ans, on a perdu plus de la moitié de notre capacité à rester concentré sur un seul contenu.
On pourrait être tentée de crier à la catastrophe mais ce n’est pas si simple. Le cerveau ne s’est pas effondré, il se serait adapté. Face à un flux d’images trop dense, trop rapide, il a tout simplement raccourci le temps qu’il accorde à chaque stimulus. C’est une réponse logique, presque mécanique : quand il y a trop à traiter, on traite plus vite et on passe à la suite. Le problème, c’est que cette adaptation a un coût : la capacité à maintenir une attention longue (lire un texte en entier, rester sur une seule image, suivre un raisonnement complexe) se perd peu à peu. Et ça, c’est plus difficile à rattraper.
Ce que vous ne voyez pas vous influence quand même
Revenons à la vision périphérique qu’on évoquait dans notre introduction : même ce qu’on ne regarde pas vraiment, le cerveau le capte à sa façon. Et les premiers à avoir compris cette subtilité ce sont bien les publicitaires.
Des chercheurs ont montré que des marques peuvent apparaître dans le champ visuel périphérique, donc complètement en dehors de la zone de focalisation, et produire des effets sur les jugements et les comportements d’une personne sans qu’elle en ait la moindre conscience. Vous lisez un article, votre attention est ailleurs, et pendant ce temps une bannière publicitaire s’imprime quelque part dans votre mémoire. Sans que vous puissiez le verbaliser, sans que vous l’ayez « choisi ».
Didier Courbet et son équipe de l’Université d’Aix-Marseille sont allés encore plus loin : ils ont établi que la publicité numérique peut produire des effets mesurables sur le cerveau jusqu’à trois mois après l’exposition. Ce n’est plus de l’influence, c’est presque de la mémoire involontaire.
Et ce n’est pas un hasard si les interfaces sont construites comme elles le sont. Les couleurs saturées, les contrastes forts, les formes simples qui accrochent l’œil immédiatement, tout ça correspond exactement aux mécanismes que les chercheurs en perception visuelle ont identifiés depuis des décennies. Le principe de prégnance, les lois de composition, les contrastes de couleurs… autant d’outils que designers et publicitaires maîtrisent parfaitement, et mobilisent de manière très délibérée pour capter notre attention. Y compris celle qu’on ne pensait pas donner.
Un cerveau qui cherche sa dose
Il y a une autre dimension à tout ça, un peu moins visible mais tout aussi importante : ce que ces stimulations font à notre chimie cérébrale. Le docteur en neurosciences Joël Monzée l’explique clairement : après une heure passée devant un écran, le cerveau a besoin de quelques minutes pour se rééquilibrer, pour se déshabituer de la surstimulation. La zone du cerveau activée par les écrans, c’est celle du plaisir. Ce circuit de récompense c’est le même qui entre en jeu dans les comportements addictifs et qui est sollicité en permanence par les notifications, les formats courts, les contenus en autoplay. À chaque scroll, à chaque like, à chaque nouvelle vidéo, une petite décharge. Et le cerveau en redemande.
Les conséquences ne sont pas que comportementales. François Desmurget, directeur de recherches à l’INSERM, affirme que l’usage excessif des écrans dégrade concrètement le langage, les capacités de concentration et la culture générale. Des constats que le rapport d’experts remis à l’Élysée en avril 2024 est venu confirmer, en signalant des difficultés de langage, de communication et de concentration chez les élèves fortement exposés aux écrans. Ce n’est donc plus seulement une intuition c’est un phénomène qui est documenté, mesuré, et qui commence à peser dans les débats publics.
Ce que l’image nous demande vraiment
Tout ça ne veut pas dire que les images sont dangereuses en elles-mêmes. Les images ont toujours été au cœur de la façon dont les humains comprennent le monde, bien avant les écrans et les réseaux sociaux. Ce qui a changé, c’est le volume. Et la vitesse. Lire une image, vraiment la lire, ça ne se fait pas en 47 secondes. Ça demande de percevoir, observer, identifier et s’approprier ce qu’on voit. C’est ce que Martine Joly appelle les différents niveaux de lecture de l’image : un processus progressif, qui prend du temps, et qui permet de véritablement comprendre ce qu’une image nous dit. Ce travail-là, la société de l’image d’aujourd’hui ne semble pas vraiment vouloir nous laisser le faire. Et c’est peut-être ça, le vrai problème.

Laisser un commentaire