Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Data Philosophie(s)

  • NFT : mirage spéculatif ou révolution des usages ?

    Pascal Ordonneau, NFT, Non Fungible Tokens, data, internet, numérique, virtuel, philosophie, économie,  financeÀ propos de l’ouvrage de Pascal Ordonneau, Les Non Fungible Tokens en 20 questions.

    Le monde numérique est un terrain fertile pour les espoirs de transformation… et les mirages financiers. L’essor des NFT (Non Fungible Tokens) en est une illustration frappante. Ces actifs numériques, propulsés par la blockchain, ont d’abord fait l’objet d’une euphorie aveugle, attirant collectionneurs, artistes et spéculateurs dans une course effrénée aux profits rapides. Puis, la bulle a éclaté. Le vent de la spéculation s’est retiré, révélant une réalité plus nuancée : que reste-t-il de cette technologie après l’effondrement des prix ?

    Dans Les Non Fungible Tokens en 20 questions, Pascal Ordonneau propose une lecture claire et accessible de cette innovation, au-delà des clichés. À la croisée de l’analyse économique et de la prospective technologique, il interroge ce que pourraient devenir les NFT une fois débarrassés de la « greed » (avidité) qui a caractérisé leur âge d’or.

    Un livre pour comprendre, au-delà des bulles financières

    Dès les premiers chapitres, Pascal Ordonneau dresse un constat sans complaisance : le marché des NFT a été le théâtre d’une frénésie similaire à celle des crypto-monnaies, où les prix ont atteint des sommets absurdes avant de s’effondrer, laissant derrière eux quelques faillites retentissantes. Il cite à juste titre Warren Buffet : « C'est quand la mer se retire qu'on voit ceux qui se baignent nus ».

    Mais là où d’autres s’arrêtent à la critique d’une économie du vide, l’auteur va plus loin en explorant les usages concrets qui survivent à la spéculation. NFT et art, NFT et immobilier, NFT et sport, NFT et publicité : autant de champs où cette technologie pourrait, potentiellement, apporter une réelle valeur ajoutée. Son approche est méthodique et structurée, chaque chapitre décortiquant un secteur spécifique pour en évaluer les promesses et les limites.

    Pascal Ordonneau ne prétend pas que les NFT vont révolutionner le monde, mais il montre qu’ils ne sont pas qu’un gadget financier. Ils offrent des possibilités inédites de traçabilité, de certification et de monétisation dans un monde de plus en plus numérisé. Et surtout, ils posent des questions fondamentales sur la place de la propriété et de la rareté dans l’univers digital.

    Une société construite sur les NFT : utopie ou dystopie ?

    Si les NFT permettent de garantir l’unicité et l’authenticité des objets numériques, faut-il pour autant structurer une société entière sur ce modèle ? L’auteur, bien que favorable à l’exploration des nouvelles technologies, laisse entrevoir le risque d’un monde où tout deviendrait un actif échangeable sur un marché, du moindre contenu numérique à l’identité elle-même.

    Imaginons une société où chaque interaction, chaque création, chaque expression artistique ne serait plus qu’un produit monnayable sous forme de NFT. La promesse initiale d’une décentralisation et d’une meilleure rétribution des créateurs pourrait alors se muer en une privatisation intégrale des espaces numériques. Le Web3 tant vanté deviendrait-il une dystopie ultra-capitaliste où tout aurait un prix, y compris nos interactions les plus anodines ?

    À travers cette question, Les Non Fungible Tokens en 20 questions invite à une réflexion critique sur le futur que nous voulons construire. Devons-nous laisser le numérique s’organiser autour d’une logique de rareté artificielle et de spéculation ? Ou pouvons-nous imaginer des usages des NFT qui servent réellement le bien commun, sans recréer les travers du monde financier traditionnel dans l’univers digital ?

    Une invitation à penser le numérique autrement

    En offrant une analyse équilibrée et pédagogique, Pascal Ordonneau réussit à dépasser le battage médiatique autour des NFT pour en exposer les véritables enjeux. Son ouvrage ne se contente pas de raconter l’histoire d’un emballement financier : il dresse une cartographie des opportunités et des menaces que cette technologie porte en germe.

    Finalement, la question centrale n’est pas tant « Les NFT sont-ils bons ou mauvais ? », mais plutôt « Quel usage voulons-nous en faire ? ». Si le livre ne donne pas de réponse définitive, il fournit les clés pour que chacun puisse se positionner en connaissance de cause.

    Le monde numérique n’a pas fini de se transformer, et Les Non Fungible Tokens en 20 questions nous rappelle que, derrière chaque innovation, il y a une responsabilité collective : celle de décider si nous voulons construire un écosystème ouvert et inclusif, ou un monde où tout se vend et s’achète.

    Alors, après la tempête spéculative, que retiendrons-nous des NFT ? L’espoir d’un usage éclairé, ou simplement la nostalgie d’un mirage volatil ?

    Pascal Ordonneau, NFT, économie, philosophie, data, art, numérique, monnaie, échange

  • La dégénérescence de l’IA : une autophagie algorithmique ?

    IA, algorithme, croyance, intelligence, artificielle, Philosophie, éthique, diversité cognitive, L’intelligence artificielle (IA), souvent perçue comme une avancée technologique transcendantale, se heurte aujourd’hui (doucement, mais sûrement) à un paradoxe fondamental. Alimentée initialement par des corpus de connaissances humaines vastes et diversifiés, elle se retrouve progressivement piégée dans un cycle autophage, où elle recycle ses propres productions. Ce phénomène soulève des questions philosophiques et épistémologiques majeures : peut-on parler d’un appauvrissement progressif de l’intelligence artificielle ? L’IA risque-t-elle de dégénérer en raison de sa dépendance croissante à des contenus synthétiques ? La data-philosophie se doit d’examiner ces questions sous l’angle de la qualité des données, de la diversité cognitive et de la durabilité épistémique des systèmes d’IA.


    L’auto-alimentation de l’IA : un cercle vicieux

    Les modèles d’apprentissage automatique (machine learning) sont traditionnellement formés sur des données humaines hétérogènes, garantissant une diversité d’approches et une richesse interprétative. Cependant, avec l’augmentation exponentielle du volume de contenu généré par l’IA, ces modèles commencent à réintégrer leurs propres productions comme données d’entraînement. Ce phénomène, qualifié de boucle autophage, conduit à une érosion progressive de la qualité des données et à l’amplification des biais.

    Pourquoi est-ce si préoccupant ? Et bien je vous laisse regarder les chiffres suivants :

    • 75 % des entreprises utilisant des données synthétiques d'ici 2026 : selon une enquête de la société Gartner, d'ici 2026, 75 % des entreprises auront recours à l'IA générative pour créer des données clients synthétiques, contre moins de 5 % en 2023.
    • Épuisement des données humaines : Elon Musk a récemment déclaré que toutes les données créées par les humains pour entraîner les IA sont "épuisées", suggérant un passage aux données synthétiques auto-apprenantes, avec le risque d'un "effondrement du modèle".

    Pourquoi faut-il craindre l'auto-alimentation de l'IA ?

    • Uniformisation et biais accrus : l'utilisation excessive de données synthétiques peut conduire à une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    • Dégradation des performances : des études montrent que l'entraînement de modèles d'IA sur des données synthétiques peut dégrader la qualité et la diversité des sorties, affectant ainsi les performances globales des systèmes.

    • Perroquets stochastiques" : la linguiste Emily M. Bender compare les grands modèles de langage à des "perroquets stochastiques" qui répètent sans comprendre, mettant en lumière les limites de l'IA actuelle.

    • Risque d'effondrement : une étude intitulée "Self-Consuming Generative Models Go MAD" souligne que sans apport constant de données réelles, les modèles génératifs risquent de voir leur qualité et leur diversité diminuer progressivement.

    Soyons clairs, l’un des risques majeurs est l’uniformisation des contenus générés. En se nourrissant de ses propres productions, l’IA réduit la variété de ses sorties, ce qui limite l’innovation et la diversité intellectuelle. Cette standardisation des productions entraîne un rétrécissement du champ des idées, menaçant ainsi la créativité et la pensée critique humaines. Sans doute, comme le souligne Philippe Guillemant, est-ce la leçon que va nous infliger l'IA ? Serait-ce un mal nécessaire ? 

    Impact sur la qualité des données et les performances des modèles

    La qualité des données est essentielle pour assurer l'efficacité des algorithmes d'apprentissage automatique. Lorsque ces données sont contaminées par des artefacts générés par l'IA, les performances des modèles peuvent en être significativement affectées.

     La perte de pertinence des prédictions

    Les modèles d'IA reposent sur des tendances statistiques pour formuler des prédictions. Cependant, si ces tendances sont biaisées par des données auto-générées, les prédictions perdent en pertinence. Cette dérive algorithmique peut conduire à des décisions erronées dans des domaines critiques tels que la médecine, la finance ou la justice. Par exemple, une étude récente a mis en évidence que l'utilisation excessive de données synthétiques peut entraîner une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    La crise de la vérifiabilité des données

    Un principe fondamental de l'épistémologie scientifique est la possibilité de vérifier la validité des connaissances. Or, si une IA est formée sur des données générées par une autre IA, il devient de plus en plus difficile de retracer l'origine des informations. Cette opacité algorithmique représente un défi majeur pour la gouvernance des systèmes intelligents.Comme le souligne un rapport de l'Université de Stanford, l'appétit insatiable des modèles de langage pour les données pourrait les conduire à une pénurie de "nourriture numérique" dans les années à venir, rendant la traçabilité et la vérification des données encore plus complexes (voir l'émission de la RTS "L'intelligence artificielle risque de manquer de données d'ici six ans")

     

    Vers une pénurie de données authentiques

    Des experts alertent sur une possible raréfaction des données humaines de qualité d'ici 2028. La dépendance croissante à des bases de données synthétiques risque de freiner l'évolution des IA, en limitant leur capacité à apprendre de manière pertinente et contextuelle. Comme dit plus haut, on risque un "effondrement du modèle".

    Conséquences philosophiques et épistémologiques

    La boucle autophage de l'intelligence artificielle (IA), où les systèmes d'IA s'entraînent sur des données générées par d'autres IA, soulève des questions profondes sur la nature de la connaissance, l'innovation intellectuelle et la diversité cognitive.

    Les systèmes d'IA, en particulier les modèles de langage, peuvent produire des réponses convaincantes sans véritable compréhension du contenu, un phénomène connu sous le nom d'hallucination. Ces réponses peuvent sembler informées mais manquer de fondement factuel, créant une illusion de savoir.

    L'IA est souvent perçue comme un catalyseur de l'innovation. Cependant, une dépendance excessive aux données générées par l'IA peut conduire à une stagnation créative. Une étude expérimentale a montré que l'exposition à des idées générées par l'IA n'améliore pas la créativité individuelle mais augmente la diversité collective des idées, suggérant que l'IA produit des idées différentes, mais pas nécessairement meilleures (voir "How AI Ideas Affect the Creativity, Diversity, and Evolution of Human Ideas: Evidence From a Large, Dynamic Experiment"). 

    La richesse du savoir humain réside dans sa diversité. Cependant, l'IA, en se basant sur des données homogènes ou biaisées, peut réduire la pluralité des perspectives, conduisant à une érosion de la pensée critique. James Fischer souligne que, comme les bulles de filtres sur les réseaux sociaux, l'IA risque de nous enfermer dans des préjugés si elle ne s'appuie pas sur des sources de données diversifiées (voir notamment l'article «Pourquoi la diversité de pensées est indispensable à l’ère de l’IA», James Fischer)

    Quelles solutions pour préserver les systèmes d'IA ?

    Dans un premier temps, il est essentiel de maintenir un accès privilégié aux données humaines en développant des bases de données issues de sources multiples et vérifiées. Une IA ne doit pas être exclusivement entraînée sur des contenus générés par d'autres IA.La qualité et la diversité des données d'entraînement ont un impact direct sur les performances des modèles d'IA. Comme le souligne un article de Shaip, une formation sur des données limitées ou étroites peut empêcher les modèles d'apprentissage automatique d'atteindre leur plein potentiel et augmenter le risque de fournir de mauvaises prédictions.

    Les gouvernements et les entreprises doivent instaurer des normes de transparence et de traçabilité des données utilisées pour l'apprentissage. Une IA devrait toujours indiquer la provenance de ses sources et le degré de fiabilité des informations produites. L'UNESCO, dans sa Recommandation sur l'éthique de l'intelligence artificielle, souligne l'importance de la transparence et de la traçabilité pour garantir une utilisation responsable de l'IA.

    Les systèmes d'IA pourraient être dotés d'algorithmes de correction dynamique, capables d'identifier et de filtrer les données auto-générées afin de préserver l'intégrité de l'apprentissage. Une étude intitulée "Curating Grounded Synthetic Data with Global Perspectives for Equitable AI" propose une approche pour créer des ensembles de données synthétiques diversifiés et ancrés dans le monde réel, afin d'améliorer la généralisation des modèles d'IA.

    Les acteurs de la data-science et les citoyens doivent être conscients des risques liés à l'auto-alimentation de l'IA. Une éducation critique aux biais algorithmiques et aux limites des IA est essentielle pour anticiper et corriger ces dérives. Les enjeux éthiques de l'intelligence artificielle impliquent, en matière d'éducation, de sensibiliser, d'acculturer et de former les élèves et les enseignants à un usage raisonné des outils d'apprentissage automatique. 

     

    Bref, comment conclure ? Comment ne pas finir dans la caverne de Platon algorithmique ? Nous enfermant dans nos propres boucles ? L’auto-alimentation de l’IA illustre un phénomène paradoxal : en cherchant à s’autonomiser, elle court le risque de se détacher du réel et de s’appauvrir intellectuellement. Cette boucle autophage soulève des enjeux majeurs pour la gouvernance des données et la préservation de la diversité cognitive. La data-philosophie doit jouer un rôle essentiel dans la définition d’une IA éthique, plurielle et connectée à la richesse du savoir humain. Faute de vigilance, nous pourrions voir émerger une IA qui, loin de nous éclairer, ne ferait que recycler les ombres de son propre reflet. Comme le soulignait déjà Hans Jonas (dans Le Principe responsabilité, 1979) "Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre." 

  • L'IA "Lucie" : symbole du naufrage numérique européen ?

    Lucie, IA, Data-Philosophie, Perspective, fiasco, Intelligence artificielle, technologie, avenir, technologique

    L’Europe accuse un retard considérable en matière d’intelligence artificielle, et l’épisode tragi-comique de l’IA "Lucie", récemment lancée et immédiatement débranchée, illustre à quel point ce retard est problématique (Europe1, 2024). Pendant que les géants américains et chinois avancent à pas de géant, développant des modèles de plus en plus sophistiqués et capables d’interagir de manière cohérente avec les utilisateurs, l’Europe peine à définir une stratégie claire et efficace (Villani, C. Donner un sens à l’intelligence artificielle, 2018).

    Un fiasco révélateur

    Lucie, censée être une alternative française aux IA conversationnelles américaines, s’est illustrée par ses réponses absurdes : erreurs factuelles, non-sens logiques, incompréhensions basiques du langage. Très vite, elle a été désactivée, faute de pouvoir rivaliser avec des modèles bien plus avancés. Cet échec n’est pas anodin : il est le reflet d’une absence criante de vision stratégique sur l’intelligence artificielle en Europe, un continent qui semble condamné à n’être qu’un consommateur des technologies développées ailleurs.

    Un chaos informationnel à venir ?

    Nous sommes entrés dans une nouvelle ère : celle d’un Internet façonné par l’IA, où l’accès à l’information est structuré par des algorithmes de plus en plus performants. Or, sans une IA souveraine, l’Europe risque de perdre toute maîtrise sur l’écosystème numérique. La désinformation, déjà omniprésente, risque de s’amplifier si nous laissons aux seules entreprises privées américaines ou chinoises la responsabilité d’organiser la hiérarchie de l’information.

    Ce qui se profile, c’est un chaos informationnel où la vérité sera façonnée par ceux qui maîtrisent la technologie. Sans alternative crédible, les sociétés européennes deviendront des territoires où l’information sera filtrée, organisée et parfois manipulée sans aucun contrôle démocratique. Le risque ? Un effondrement du débat public et une accentuation des fractures sociétales.

    Repenser l’IA avec une éthique du sens

    Ce retard technologique ne pourra être comblé que si nous changeons de paradigme. Plutôt que de poursuivre une course effrénée à la puissance brute, nous devrions nous tourner vers une IA fondée sur le sens et la qualité de l’information. C’est ici que la pensée de Martha Nussbaum et sa théorie des capabilités peuvent offrir une piste de réflexion précieuse. Comme elle l’écrit dans "Creating Capabilities: The Human Development Approach" (2011), "Le développement humain ne peut se limiter à la croissance économique ; il doit viser l’épanouissement des capacités individuelles et collectives".

    Nussbaum propose une vision du développement basée non pas sur l’accumulation quantitative, mais sur la capacité réelle des individus à s’épanouir. Appliquée à l’IA, cette approche signifierait un recentrage sur l’humain, sur la création d’outils qui ne se contentent pas de traiter de gigantesques quantités de données, mais qui favorisent une intelligence collective, critique et éthique.

    Vers une IA européenne responsable et souveraine

    L’Europe a une occasion unique de prendre un autre chemin que celui du transhumanisme débridé ou de l’hégémonie des big tech. Elle peut promouvoir une IA qui ne cherche pas seulement à imiter l’intelligence humaine, mais à l’enrichir, en mettant en avant la diversité culturelle, le débat critique et l’éthique du numérique.

    Le fiasco de "Lucie" devrait être une alarme. Non pas pour abandonner, mais pour repenser. La révolution de l’IA est en marche, et si l’Europe veut y participer activement, elle doit impérativement définir un cadre basé sur le sens, la qualité et l’autonomie technologique. Faute de quoi, elle ne sera qu’un spectateur impuissant du chaos informationnel qui s’annonce.

  • Monnaies Numériques de Pascal Ordonneau : une réflexion innovante sur l'économie de demain

    Pascal Ordonneau, Monnaies numériques, Chine, Blockchain, finance, société, révolution numériqueDans un monde où la technologie et l'économie sont de plus en plus interconnectées, le livre Monnaies Numériques, la Chine en tête... de Pascal Ordonneau offre une perspective fascinante sur l'avenir de notre économie. En explorant les implications de l'avènement des monnaies numériques, il nous invite à repenser notre compréhension de l'économie et à envisager de nouvelles possibilités pour l'avenir.

    Ce livre est une exploration approfondie de l'évolution des monnaies numériques et de leur impact sur l'économie mondiale. Ordonneau examine en détail les développements technologiques et institutionnels qui ont conduit à l'émergence des monnaies numériques, et analyse les implications de ces développements pour l'avenir de l'économie. Il aborde des questions clés telles que l'anonymat, la confiance et l'extraterritorialité, et explore les défis et les opportunités que présentent les monnaies numériques.

    Le livre aborde plusieurs thèmes clés liés à l'économie numérique, notamment la blockchain, la monnaie électronique et la disparition potentielle du billet de banque. Ordonneau explore ces thèmes avec une profondeur et une clarté impressionnantes, offrant des insights précieux sur l'avenir de l'économie numérique. Il examine également les implications de l'émergence des monnaies numériques pour les banques commerciales, soulignant les défis potentiels en matière de refinancement.

    Cet essai fait réfléchir d'une manière nouvelle sur l'économie de demain. Les perspectives de Pascal Ordonneau sur l'avenir des monnaies numériques sont à la fois provocantes et éclairantes, et nous poussent à repenser notre propre compréhension de l'économie numérique. Ce livre est une lecture incontournable pour quiconque s'intéresse à l'avenir de l'économie et à l'impact de la technologie sur notre monde.