Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

algorithme

  • La dégénérescence de l’IA : une autophagie algorithmique ?

    IA, algorithme, croyance, intelligence, artificielle, Philosophie, éthique, diversité cognitive, L’intelligence artificielle (IA), souvent perçue comme une avancée technologique transcendantale, se heurte aujourd’hui (doucement, mais sûrement) à un paradoxe fondamental. Alimentée initialement par des corpus de connaissances humaines vastes et diversifiés, elle se retrouve progressivement piégée dans un cycle autophage, où elle recycle ses propres productions. Ce phénomène soulève des questions philosophiques et épistémologiques majeures : peut-on parler d’un appauvrissement progressif de l’intelligence artificielle ? L’IA risque-t-elle de dégénérer en raison de sa dépendance croissante à des contenus synthétiques ? La data-philosophie se doit d’examiner ces questions sous l’angle de la qualité des données, de la diversité cognitive et de la durabilité épistémique des systèmes d’IA.


    L’auto-alimentation de l’IA : un cercle vicieux

    Les modèles d’apprentissage automatique (machine learning) sont traditionnellement formés sur des données humaines hétérogènes, garantissant une diversité d’approches et une richesse interprétative. Cependant, avec l’augmentation exponentielle du volume de contenu généré par l’IA, ces modèles commencent à réintégrer leurs propres productions comme données d’entraînement. Ce phénomène, qualifié de boucle autophage, conduit à une érosion progressive de la qualité des données et à l’amplification des biais.

    Pourquoi est-ce si préoccupant ? Et bien je vous laisse regarder les chiffres suivants :

    • 75 % des entreprises utilisant des données synthétiques d'ici 2026 : selon une enquête de la société Gartner, d'ici 2026, 75 % des entreprises auront recours à l'IA générative pour créer des données clients synthétiques, contre moins de 5 % en 2023.
    • Épuisement des données humaines : Elon Musk a récemment déclaré que toutes les données créées par les humains pour entraîner les IA sont "épuisées", suggérant un passage aux données synthétiques auto-apprenantes, avec le risque d'un "effondrement du modèle".

    Pourquoi faut-il craindre l'auto-alimentation de l'IA ?

    • Uniformisation et biais accrus : l'utilisation excessive de données synthétiques peut conduire à une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    • Dégradation des performances : des études montrent que l'entraînement de modèles d'IA sur des données synthétiques peut dégrader la qualité et la diversité des sorties, affectant ainsi les performances globales des systèmes.

    • Perroquets stochastiques" : la linguiste Emily M. Bender compare les grands modèles de langage à des "perroquets stochastiques" qui répètent sans comprendre, mettant en lumière les limites de l'IA actuelle.

    • Risque d'effondrement : une étude intitulée "Self-Consuming Generative Models Go MAD" souligne que sans apport constant de données réelles, les modèles génératifs risquent de voir leur qualité et leur diversité diminuer progressivement.

    Soyons clairs, l’un des risques majeurs est l’uniformisation des contenus générés. En se nourrissant de ses propres productions, l’IA réduit la variété de ses sorties, ce qui limite l’innovation et la diversité intellectuelle. Cette standardisation des productions entraîne un rétrécissement du champ des idées, menaçant ainsi la créativité et la pensée critique humaines. Sans doute, comme le souligne Philippe Guillemant, est-ce la leçon que va nous infliger l'IA ? Serait-ce un mal nécessaire ? 

    Impact sur la qualité des données et les performances des modèles

    La qualité des données est essentielle pour assurer l'efficacité des algorithmes d'apprentissage automatique. Lorsque ces données sont contaminées par des artefacts générés par l'IA, les performances des modèles peuvent en être significativement affectées.

     La perte de pertinence des prédictions

    Les modèles d'IA reposent sur des tendances statistiques pour formuler des prédictions. Cependant, si ces tendances sont biaisées par des données auto-générées, les prédictions perdent en pertinence. Cette dérive algorithmique peut conduire à des décisions erronées dans des domaines critiques tels que la médecine, la finance ou la justice. Par exemple, une étude récente a mis en évidence que l'utilisation excessive de données synthétiques peut entraîner une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    La crise de la vérifiabilité des données

    Un principe fondamental de l'épistémologie scientifique est la possibilité de vérifier la validité des connaissances. Or, si une IA est formée sur des données générées par une autre IA, il devient de plus en plus difficile de retracer l'origine des informations. Cette opacité algorithmique représente un défi majeur pour la gouvernance des systèmes intelligents.Comme le souligne un rapport de l'Université de Stanford, l'appétit insatiable des modèles de langage pour les données pourrait les conduire à une pénurie de "nourriture numérique" dans les années à venir, rendant la traçabilité et la vérification des données encore plus complexes (voir l'émission de la RTS "L'intelligence artificielle risque de manquer de données d'ici six ans")

     

    Vers une pénurie de données authentiques

    Des experts alertent sur une possible raréfaction des données humaines de qualité d'ici 2028. La dépendance croissante à des bases de données synthétiques risque de freiner l'évolution des IA, en limitant leur capacité à apprendre de manière pertinente et contextuelle. Comme dit plus haut, on risque un "effondrement du modèle".

    Conséquences philosophiques et épistémologiques

    La boucle autophage de l'intelligence artificielle (IA), où les systèmes d'IA s'entraînent sur des données générées par d'autres IA, soulève des questions profondes sur la nature de la connaissance, l'innovation intellectuelle et la diversité cognitive.

    Les systèmes d'IA, en particulier les modèles de langage, peuvent produire des réponses convaincantes sans véritable compréhension du contenu, un phénomène connu sous le nom d'hallucination. Ces réponses peuvent sembler informées mais manquer de fondement factuel, créant une illusion de savoir.

    L'IA est souvent perçue comme un catalyseur de l'innovation. Cependant, une dépendance excessive aux données générées par l'IA peut conduire à une stagnation créative. Une étude expérimentale a montré que l'exposition à des idées générées par l'IA n'améliore pas la créativité individuelle mais augmente la diversité collective des idées, suggérant que l'IA produit des idées différentes, mais pas nécessairement meilleures (voir "How AI Ideas Affect the Creativity, Diversity, and Evolution of Human Ideas: Evidence From a Large, Dynamic Experiment"). 

    La richesse du savoir humain réside dans sa diversité. Cependant, l'IA, en se basant sur des données homogènes ou biaisées, peut réduire la pluralité des perspectives, conduisant à une érosion de la pensée critique. James Fischer souligne que, comme les bulles de filtres sur les réseaux sociaux, l'IA risque de nous enfermer dans des préjugés si elle ne s'appuie pas sur des sources de données diversifiées (voir notamment l'article «Pourquoi la diversité de pensées est indispensable à l’ère de l’IA», James Fischer)

    Quelles solutions pour préserver les systèmes d'IA ?

    Dans un premier temps, il est essentiel de maintenir un accès privilégié aux données humaines en développant des bases de données issues de sources multiples et vérifiées. Une IA ne doit pas être exclusivement entraînée sur des contenus générés par d'autres IA.La qualité et la diversité des données d'entraînement ont un impact direct sur les performances des modèles d'IA. Comme le souligne un article de Shaip, une formation sur des données limitées ou étroites peut empêcher les modèles d'apprentissage automatique d'atteindre leur plein potentiel et augmenter le risque de fournir de mauvaises prédictions.

    Les gouvernements et les entreprises doivent instaurer des normes de transparence et de traçabilité des données utilisées pour l'apprentissage. Une IA devrait toujours indiquer la provenance de ses sources et le degré de fiabilité des informations produites. L'UNESCO, dans sa Recommandation sur l'éthique de l'intelligence artificielle, souligne l'importance de la transparence et de la traçabilité pour garantir une utilisation responsable de l'IA.

    Les systèmes d'IA pourraient être dotés d'algorithmes de correction dynamique, capables d'identifier et de filtrer les données auto-générées afin de préserver l'intégrité de l'apprentissage. Une étude intitulée "Curating Grounded Synthetic Data with Global Perspectives for Equitable AI" propose une approche pour créer des ensembles de données synthétiques diversifiés et ancrés dans le monde réel, afin d'améliorer la généralisation des modèles d'IA.

    Les acteurs de la data-science et les citoyens doivent être conscients des risques liés à l'auto-alimentation de l'IA. Une éducation critique aux biais algorithmiques et aux limites des IA est essentielle pour anticiper et corriger ces dérives. Les enjeux éthiques de l'intelligence artificielle impliquent, en matière d'éducation, de sensibiliser, d'acculturer et de former les élèves et les enseignants à un usage raisonné des outils d'apprentissage automatique. 

     

    Bref, comment conclure ? Comment ne pas finir dans la caverne de Platon algorithmique ? Nous enfermant dans nos propres boucles ? L’auto-alimentation de l’IA illustre un phénomène paradoxal : en cherchant à s’autonomiser, elle court le risque de se détacher du réel et de s’appauvrir intellectuellement. Cette boucle autophage soulève des enjeux majeurs pour la gouvernance des données et la préservation de la diversité cognitive. La data-philosophie doit jouer un rôle essentiel dans la définition d’une IA éthique, plurielle et connectée à la richesse du savoir humain. Faute de vigilance, nous pourrions voir émerger une IA qui, loin de nous éclairer, ne ferait que recycler les ombres de son propre reflet. Comme le soulignait déjà Hans Jonas (dans Le Principe responsabilité, 1979) "Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre." 

  • Pascal Ordonneau : Monnaies cryptées

    Pascal Ordonneau, monnaies, cryptées, bitcoin, algorithme, data, confiance, blockchaine, confiance

    Voilà le livre à mettre entre toutes les mains pour comprendre les monnaies cryptées, leurs histoire, leurs failles. Un essai complet sur cette "révolution" des monnaies cryptées... Mais qu'est-ce donc que ces monnaies ? Sont-elles issues de cryptes, de vieilles caves ? Là où les mondes supérieurs, extérieurs n'existent plus... Quels seraient donc les repères pour dire que cette monnaie vaut telle valeur ou telle autre ?

    Comme le souligne, Pascal Ordonneau, les monnaies cryptées sont donc dématérialisées, inscrites sur des registres ou fichiers informatiques dont les unités de compte sont identifiables et traçables depuis leur création jusqu’à la dernière transaction. Mais qu'est-ce que cela veut dire ? Comment garantir que l'algorithme serve les intérêts de tous et pas de quelques-uns ?

    Ici il nous propose de nous attarder notamment sur le Bitcoin. Créé en 2009, le Bitcoin s'échange de pair en pair sans intermédiaire tout en reposant sur la blockchain — à l'image du Ripple, autre cryptomonnaie moins médiatisée, mais qui a affiché en 2017 une croissance de 36 000 % en un an ! 

    Selon Mark Barrenechea (CEO de Opentext) : "En matière de monnaie virtuelle, l'une des plus grandes innovations est sans conteste l'utilisation de la technologie blockchain. Son potentiel va bien au-delà du changement de notre mode d'échange et de gestion de la richesse. En reliant une chaîne d'informations archivées ou 'blocs' impossibles à modifier, la blockchain a la capacité de créer des systèmes plus transparents et plus sûrs. Ses applications seront nombreuses : modes de transactions, renouvellement de passeports, vote, location de véhicules, paiement d'impôts et même mode d'identification personnelle. 2018 sera ainsi l'année de la blockchain, surtout dans les domaines de la sécurité et du chiffrage". 

    Mais bon, le Bitcoin a connu de beaux revers... mais c'est tout à fait logique. Puisque nous devons, nous pencher sur le principe de la blokchain. il s'agit d'une technologie de stockage et de transmission d’informations, transparente, sécurisée, et fonctionnant sans organe central de contrôle. 

    Par extension, une blockchain constitue une base de données. Pourquoi simplement parce qu'elle contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création. Cette base de données est sécurisée et distribuée : elle est partagée par ses différents utilisateurs, sans intermédiaire, ce qui permet à chacun de vérifier la validité de la chaîne. 

    Mais qui a travaillé sur ses propres biais cognitifs ? Qui est donc capable de bien affirmer que ce qui lui semble crédible l'est réellement ? Voilà ce à quoi nous invite Pascal Ordonneau à situer, à questionner l'aspect mythique, mythologique de cette chaîne.

    Au fil des chapitres, des rappels des évolutions de ces monnaies, il nous explique qu'elles s’échangent selon des modes d’identification des acteurs et des transactions.  Rien ne peut se déboucler tant que le « décryptage » n’a pas été mené à bien. Le risque de paiement en double (ou triple) est éliminé par la difficulté des calculs (algorithmes) de chiffrement. Les traditionnels « tiers de confiance » que sont les banques et les interventions humaines ou institutionnelles qui les caractérisent sont remplacées par les techniques de cryptage essentiellement mathématiques.

    Toute blockchain publique fonctionne nécessairement avec une monnaie ou un token (jeton) programmable. Le Bitcoin n'est donc qu'un exemple de monnaie programmable.

    Les transactions effectuées entre les utilisateurs du réseau sont regroupées par blocs. Chaque bloc est validé par les noeuds du réseau appelés les “mineurs”, selon des techniques qui dépendent du type de blockchain. Dans la blockchain du bitcoin cette technique est appelée le “Proof-of-Work”, preuve de travail, et consiste en la résolution de problèmes algorithmiques.

    Une fois le bloc validé, il est horodaté et ajouté à la chaîne de blocs. La transaction est alors visible pour le récepteur ainsi que l’ensemble du réseau. Mais qui est donc le récepteur pour comprendre la valeur ? Et être certain que cela vaut encore quelque chose ?

    Au fur et à mesure des mots, des pages, le Bitcoin révèle son véritable visage celui d'une illusion que je partage totalement. Un algorithme reste un algorithme, ou sinon donnez-moi à minima le code, étudions-le ensemble. Laissons-le en licence libre, afin que nous puissions tous le modifier. L'or métaphorique du net qui entraîne un engouement populaire... Ce n'est donc bien que cela le bitcoin : une métaphore qui fonctionne sur l'illusion d'une utopie. 

     

    ______ 

    Plus d'informations :

    Pascal Ordonneau, banquier, a été DG et PDG de banques françaises, anglaises et américaines. Il est SG de l’Association « Iconomy ». Auteur d’une dizaine d’ouvrages parmi lesquels cinq livres d’économie et de finance, il est chroniqueur aux Échos, au Huffington Post et conférencier (monnaies cryptées et Allemagne).

    Résumé de l'éditeur

    "La Révolution Démocratique et Libertarienne des Monnaies Cryptées fera-t-elle long feu ? Le Bitcoin, monnaie célèbre par ses frasques, ses dealers, et ses cours qui s'envolent et s'effondrent n'est-elle que le cheval de Troie de la Blockchain ? Celle-ci, à l'inverse, n'est-elle pas un déni de démocratie, pour être tombée entre les mains des puissants de l'argent, de la technologie et des réseaux. Ce n'est pas seulement un débat pour Geeks. Derrière les lignes de code qui s'échangent et se vendent ce sont les Smart contracts qui avancent et avec eux l'Internet des objets.
    Après la Révolution Internet où tout a été ouvert à tous, où les réseaux ont vu leur mobilité accrue dans des conditions jamais vues, entre mobiles, laptops, tablettes et ordinateurs connectés, on doit compter sur la révolution des connections Peer to Peer. Sécurisées grâce à la cryptographie et ouvertes à ceux qui veulent y contribuer, elle revendique la fin des intermédiaires et des sachants. Elle promet le renouveau de la confiance.
    Les monnaies cryptées continueront-elles à se multiplier, mettant à mal l'argument de la monnaie unique ? Ou bien se cantonneront-elles dans un statut de monnaie spécialisées entre connaisseurs et aficionados ?

    La Blockchain sera-t-elle l'ossature de la société de demain ? Les promesses sont considérables, la route est semée d'embûches. Est-il raisonnable de s'en remettre à un tiers de confiance sous forme d'équations mathématiques ? Écrit au beau milieu d'un mouvement pareil au torrent qui s'écoule, ce livre questionne beaucoup, rassemble un grand nombre d'expériences et propose des points d'ancrage. Un livre entre étonnement, enthousiasme et regard critique."

    Acheter l'ouvrage en cliquant ici