L’IA générative davantage en valeur dans les résultats des moteurs de recherche
Les internautes le constatent : les moteurs de recherche répondent de plus en plus directement – mais pas toujours correctement – aux requêtes des usagers au moyen d’outils d’intelligence artificielle (IA), avant même de proposer les pages d’où proviennent les informations indiquées. Cette révolution et ses conséquences éventuelles préoccupent grandement les experts à qui nous avons parlé. L’intégration de modèles d’intelligence artificielle générative à même les moteurs de recherche Durant sa grande conférence annuelle, en mai dernier, Google a annoncé le déploiement d’un mode d'IA aux États-Unis, qui promet à terme d’approfondir les réponses générées par intelligence artificielle à même la barre de recherche. C’est un jalon de plus dans le virage qui s’est amorcé en février 2023, quand Microsoft a annoncé en grande pompe l’intégration d’un modèle d’IA développé par OpenAI à Bing, son propre moteur de recherche. Google, qui effectue près de 90 % des recherches web à l’échelle mondiale, propose un Les effets de ces transformations se font déjà sentir : un récent article du Wall Street Journal rapportait que le trafic web d’organisations comme le Washington Post et le Business Insider avait diminué de façon draconienne depuis trois ans. Le magazine The Atlantic envisage déjà la fin du trafic web provenant des recherches sur Google. Selon son PDG, Nicholas Thompson, c’est l’intégration de l’intelligence artificielle générative à même les moteurs de recherche qui est en cause, ces derniers se transformant progressivement en Selon plusieurs experts consultés, c’est non seulement la chaîne de production de l’information qui est affectée par cette transformation, mais également la capacité des internautes à faire preuve de jugement critique face à l’information qu’on leur présente. Depuis l’arrivée des moteurs comme Yahoo!, AltaVista et Google durant les années 1990, la recherche d’information en ligne s’articulait autour d’une séquence simple : l’utilisateur cerne un besoin d’information, consulte un moteur de recherche et navigue d’une page à l’autre pour glaner les renseignements pertinents en raffinant les clés de recherche au besoin. Les changements qui ont ponctué l’évolution de ces outils visaient soit à améliorer la précision des résultats, soit à accroître la génération de revenus pour leurs propriétaires. C’est la stabilité de cette séquence qui explique l’importance qu’a acquise un acteur comme Google, devenu un pivot de l’accès à l’information pour des milliards de personnes. Ce que change l’IA générative, c’est qu'il élimine cet effort de butinage, qui est relégué à un algorithme synthétisant l’information. Un attribut fort séduisant pour les utilisateurs, d’après M. Michelot. On a tous une tendance un peu naturelle à la facilité, à la décomplexification de nos procédés au quotidien. En soi, ce n'est pas dramatique. Ce qui est plus préoccupant, croit-il, c’est que cette recherche de facilité s’accompagne d’une perte de regard critique. Une préoccupation que partage Eric Meyers, professeur en sciences de l’information à l’Université de la Colombie-Britannique, à Vancouver. M. Meyers s’en remet à la responsabilité des grandes plateformes comme Google plutôt qu’à la débrouillardise des usagers. On ne fait pas face à un environnement informationnel où les règles sont équitables, où l’information la plus fiable et pertinente va l’emporter dans le marché des idées. Ces plateformes génèrent des revenus, que l’on obtienne de l’information de qualité ou pas. Si les internautes peuvent désormais compter sur des modèles d’IA pour pondre des synthèses, il en résulte logiquement une diminution de la consultation de pages web. Selon la firme Bain & Company, quelque 60 % des recherches au moyen des moteurs traditionnels comme Google étaient déjà réalisées sans clic sur un hyperlien en décembre dernier. Pour les propriétaires de sites web et les producteurs d’information en ligne, la C’est pourquoi la News/Media Alliance, qui représente plus de 2000 organines médiatiques aux États-Unis, a accusé Google de vol de contenu et de trafic web après l’annonce de son mode d'IA. Dans une entrevue accordée au média spécialisé The Verge, le PDG de Google, Sundar Pichai, a réagi à ces accusations en soutenant que le trafic web augmentera grâce aux nouvelles fonctionnalités mises en place depuis les derniers mois, tout en restant évasif quant à la façon dont se concrétisera cet engagement. L'encyclopédie libre Wikipédia a été lancée en janvier 2001. Photo : Getty Images / zmeel À plus long terme, c’est aussi la viabilité d'ouvrages numériques collaboratifs comme Wikipédia qui est menacée. D’un côté, une ressource comme Wikipédia tient à la participation d’usagers qui constatent des manques à combler dans les articles. De l’autre, Wikipédia dépend de dons, qui peuvent être sollicités lorsqu’un usager consulte directement un article. Si les résultats des modèles d’IA générative s'abreuvent directement de données produites par des auteurs bénévoles, c’est toute la chaîne de production de cette information qui est affectée. Quand l’information est digérée et agrégée dans un format qui répond à la question de l’internaute, on perd ce lien plus organique avec le travail de production du contenu. Parallèlement, Wikipédia est pour les moteurs de recherche Sur tous les plans, on observe donc l’amoindrissement, et même la disparition des incitatifs à produire de l’information de qualité en ligne. Si des ententes de licence comme celle qu’a conclue le New York Times avec Amazon le mois dernier peuvent compenser partiellement la perte de revenus publicitaires, ces occasions ne sont offertes qu’aux plus gros acteurs de l’information. Malgré ces risques pour la vitalité informationnelle du web, les experts s’entendent sur le potentiel des sphères de partage et de collaboration en ligne pour contrecarrer cette tendance. Nathalie Casemajor, qui observe la communauté des contributeurs de Wikipédia depuis plusieurs années, mentionne également les retombées positives de cet travail. Et selon Eric Meyers, on trouve encore cet attrait du partage entre utilisateurs sur des réseaux sociaux comme Reddit et Facebook, signe que l’automatisation du web n’est pas chose faite. M. Meyers a toutefois une mise en garde quant à la capacité des internautes de déterminer la source originale des informations qui circulent en ligne. se généralise, y compris pour des entreprises qui ne disposent pas de la force de frappe de Google
, souligne Florent Michelot, professeur en technologies éducatives à l’Université Concordia, à Montréal. Ça pourrait arriver partout, dans toutes les sphères, à très court terme.
aperçu IA
depuis l’an dernier.machines à réponses
automatisées.Expérience plus fluide, mais plus passive
La stratégie [de recherche], si elle se contente exclusivement d’écrire son souci soit dans ChatGPT, soit à même la barre de recherche Google, est assez limitée, explique M. Michelot. On nous produit quelque chose avec lequel on n’a aucune agentivité. On formule une recherche, ça nous fait une synthèse, et on n’a aucun esprit critique face à ça.
La présence de frictions, par exemple dans la recherche et la lecture d’articles, nous entraîne à réfléchir, dit-il. Sans cet entraînement, je crains que les usagers perdent leur capacité à avoir un regard critique sur l’information qu’ils consomment, ce qui est essentiel dans une société démocratique.
Il faut donc que l’on réglemente ces entités en tant que pourvoyeuses d’information
, estime Eric Meyers.Risque d'appauvrissement de la production d’information
mort du clic
signifie la disparition d’une part significative de leurs revenus publicitaires, qui constituent le socle de l’économie du web depuis les dernières décennies.
C’est sûr que quand le trafic ne vient plus, ça a des conséquences pour un projet commun comme Wikipédia
, fait remarquer Nathalie Casemajor, professeure à l’Institut national de la recherche scientifique, basé à Québec.une source gratuite d’information qui contribue à la qualité de leur produit
, ajoute-t-elle.Replacer l’internaute au cœur de la production
Il faut promouvoir le fait que, dans les environnements numériques, on peut contribuer – même de façon très modeste – et pas seulement consommer de l’information, pense Florent Michelot. C’est la porte d’entrée vers une section du web qui est respectueuse de la citoyenneté, de l’individualité et de la vie privée des internautes.
Contribuer à un projet comme Wikipédia, ça a un aspect ''aspirationnel'', dit-elle. On a le sentiment de contribuer à quelque chose qui nous dépasse. Il y a aussi tout un aspect d’apprentissage qui est présent.
On voit qu’il y a encore des questions pour lesquelles les internautes veulent mobiliser la sagesse de vraies personnes afin de prendre de bonnes décisions, particulièrement quand ce sont des décisions importantes.
Le danger à surveiller, c’est le brouillage des sources, dit-il. Il devient de plus en plus difficile de savoir d’où provient une information, et donc d’évaluer sa fiabilité.
Advertising by Adpathway









