Confirmé : l’IA change l’intelligence collective

Les grands modèles linguistiques créés avec l’intelligence artificielle modifient l’intelligence collective de notre espèce, à la fois pour démocratiser l’accès à la connaissance et améliorer la collaboration mondiale et pour générer un faux sentiment de consensus qui marginalise des perspectives minoritaires mais précieuses.

Dans un monde de plus en plus interconnecté et numérisé, l’émergence de modèles linguistiques à grande échelle (LLM) a marqué un avant et un après dans la manière dont nous traitons et partageons l’information.

Ces systèmes d’intelligence artificielle, capables de générer des textes cohérents et contextuellement pertinents, redéfinissent les limites de ce que nous considérons comme possible en termes de traitement du langage naturel.

Cependant, leur omniprésence croissante soulève des questions cruciales sur la manière dont elles affecteront notre capacité collective à délibérer, prendre des décisions et résoudre des problèmes complexes, appelée intelligence collective.

Panorama complexe

Une étude récente publiée dans la prestigieuse revue Nature Human Behavior apporte un éclairage sur cette question. Une équipe internationale de 28 scientifiques, dirigée par des chercheurs de la Copenhagen Business School et de l'Institut Max Planck pour le développement humain de Berlin, a soigneusement examiné l'impact potentiel des LLM sur l'intelligence collective. Leurs conclusions dressent un tableau complexe, plein à la fois de promesses et de dangers.

D'une part, les LLM offrent un potentiel sans précédent pour démocratiser l'accès à la connaissance et améliorer la collaboration mondiale. Ils peuvent faciliter un monde où les barrières linguistiques disparaissent grâce à des services de traduction instantanés et précis, ou où la génération d'idées s'accélère de façon exponentielle grâce à des assistants virtuels capables de synthétiser de grandes quantités d'informations en quelques secondes. C’est l’avenir radieux que promettent les LLM.

Jason Burtonauteur principal de l'étude, souligne comment ces systèmes pourraient « uniformiser les règles du jeu » dans les débats et les discussions, permettant aux voix traditionnellement marginalisées d'avoir un accès plus équitable aux informations et aux outils nécessaires pour s'exprimer efficacement. « Imaginons des plateformes de délibération en ligne où les LLM agissent comme des facilitateurs impartiaux, aidant à résumer les arguments, à identifier un terrain d'entente et à suggérer des compromis », propose Burton.

Attention également

Toutefois, cet optimisme s’accompagne d’une bonne dose de prudence. Le même pouvoir qui rend les LLM si prometteurs les rend également potentiellement dangereux.

L’un des risques les plus préoccupants identifiés par l’équipe de recherche est la possibilité que ces systèmes génèrent un faux sentiment de consensus, marginalisant des perspectives minoritaires mais précieuses.

Ralph Hertwigco-auteur de l'étude et directeur de l'Institut Max Planck pour le développement humain, met en garde contre ce danger : « Les LLM, lorsqu'ils sont formés sur de grands ensembles de données qui reflètent les opinions majoritaires, pourraient par inadvertance amplifier les préjugés existants et créer une illusion d'accord là où « Il existe en fait une diversité d'opinions. » Cette homogénéisation du discours pourrait avoir de profondes conséquences sur la prise de décision démocratique et l’innovation sociale.

Un autre aspect inquiétant est l'impact potentiel des LLM sur la motivation des personnes à contribuer aux ressources de connaissances ouvertes telles que Wikipédia. Si les utilisateurs peuvent obtenir des réponses instantanées, apparemment faisant autorité, d'un LLM, quelle incitation auront-ils à consacrer du temps et des efforts à éditer et à maintenir ces ressources collaboratives ? Cette question soulève des questions fondamentales sur l’avenir de la création et de la conservation des connaissances collectives.

Face à ces défis, les chercheurs ne se limitent pas à signaler des problèmes, mais proposent plutôt des solutions concrètes. L'une des principales recommandations est la nécessité d'une plus grande transparence de la part des développeurs LLM. « Nous devons savoir exactement quelles données sont utilisées pour entraîner ces systèmes », affirme Burton. « C'est seulement alors que nous pourrons identifier et corriger les biais potentiels. »

De plus, l’équipe plaide pour la mise en œuvre de mécanismes d’audit externe. Cela impliquerait la création d'organismes indépendants capables d'évaluer l'impact des LLM en temps réel, de surveiller leur influence sur le discours public et la prise de décision collective.

Redéfinir l'intelligence collective

La recherche souligne également l’importance de développer des méthodes pour préserver et promouvoir la diversité des perspectives dans un monde de plus en plus médiatisé par l’IA. Cela pourrait impliquer de concevoir des algorithmes qui recherchent et présentent délibérément des points de vue minoritaires, ou de créer des espaces numériques protégés où les voix dissidentes peuvent s’épanouir sans être noyées dans le consensus généré par l’IA.

« Le défi auquel nous sommes confrontés », conclut Hertwig, « n'est rien de moins que de redéfinir ce que signifie penser et décider collectivement à l'ère de l'intelligence artificielle ». Alors que nous parcourons ce territoire inexploré, des études comme celle-ci contribueront à guider notre chemin, garantissant que l’avenir que nous construisons est celui où la technologie améliore, plutôt que supplante, la sagesse collective de l’humanité.

Référence

Comment les grands modèles linguistiques peuvent remodeler l’intelligence collective. Jason W. Burton et coll. Nature Comportement humain, volume 8, pages 1643-1655 (2024). DOOI :https://doi.org/10.1038/s41562-024-01959-9