Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

data

  • NFT : mirage spéculatif ou révolution des usages ?

    Pascal Ordonneau, NFT, Non Fungible Tokens, data, internet, numérique, virtuel, philosophie, économie,  financeÀ propos de l’ouvrage de Pascal Ordonneau, Les Non Fungible Tokens en 20 questions.

    Le monde numérique est un terrain fertile pour les espoirs de transformation… et les mirages financiers. L’essor des NFT (Non Fungible Tokens) en est une illustration frappante. Ces actifs numériques, propulsés par la blockchain, ont d’abord fait l’objet d’une euphorie aveugle, attirant collectionneurs, artistes et spéculateurs dans une course effrénée aux profits rapides. Puis, la bulle a éclaté. Le vent de la spéculation s’est retiré, révélant une réalité plus nuancée : que reste-t-il de cette technologie après l’effondrement des prix ?

    Dans Les Non Fungible Tokens en 20 questions, Pascal Ordonneau propose une lecture claire et accessible de cette innovation, au-delà des clichés. À la croisée de l’analyse économique et de la prospective technologique, il interroge ce que pourraient devenir les NFT une fois débarrassés de la « greed » (avidité) qui a caractérisé leur âge d’or.

    Un livre pour comprendre, au-delà des bulles financières

    Dès les premiers chapitres, Pascal Ordonneau dresse un constat sans complaisance : le marché des NFT a été le théâtre d’une frénésie similaire à celle des crypto-monnaies, où les prix ont atteint des sommets absurdes avant de s’effondrer, laissant derrière eux quelques faillites retentissantes. Il cite à juste titre Warren Buffet : « C'est quand la mer se retire qu'on voit ceux qui se baignent nus ».

    Mais là où d’autres s’arrêtent à la critique d’une économie du vide, l’auteur va plus loin en explorant les usages concrets qui survivent à la spéculation. NFT et art, NFT et immobilier, NFT et sport, NFT et publicité : autant de champs où cette technologie pourrait, potentiellement, apporter une réelle valeur ajoutée. Son approche est méthodique et structurée, chaque chapitre décortiquant un secteur spécifique pour en évaluer les promesses et les limites.

    Pascal Ordonneau ne prétend pas que les NFT vont révolutionner le monde, mais il montre qu’ils ne sont pas qu’un gadget financier. Ils offrent des possibilités inédites de traçabilité, de certification et de monétisation dans un monde de plus en plus numérisé. Et surtout, ils posent des questions fondamentales sur la place de la propriété et de la rareté dans l’univers digital.

    Une société construite sur les NFT : utopie ou dystopie ?

    Si les NFT permettent de garantir l’unicité et l’authenticité des objets numériques, faut-il pour autant structurer une société entière sur ce modèle ? L’auteur, bien que favorable à l’exploration des nouvelles technologies, laisse entrevoir le risque d’un monde où tout deviendrait un actif échangeable sur un marché, du moindre contenu numérique à l’identité elle-même.

    Imaginons une société où chaque interaction, chaque création, chaque expression artistique ne serait plus qu’un produit monnayable sous forme de NFT. La promesse initiale d’une décentralisation et d’une meilleure rétribution des créateurs pourrait alors se muer en une privatisation intégrale des espaces numériques. Le Web3 tant vanté deviendrait-il une dystopie ultra-capitaliste où tout aurait un prix, y compris nos interactions les plus anodines ?

    À travers cette question, Les Non Fungible Tokens en 20 questions invite à une réflexion critique sur le futur que nous voulons construire. Devons-nous laisser le numérique s’organiser autour d’une logique de rareté artificielle et de spéculation ? Ou pouvons-nous imaginer des usages des NFT qui servent réellement le bien commun, sans recréer les travers du monde financier traditionnel dans l’univers digital ?

    Une invitation à penser le numérique autrement

    En offrant une analyse équilibrée et pédagogique, Pascal Ordonneau réussit à dépasser le battage médiatique autour des NFT pour en exposer les véritables enjeux. Son ouvrage ne se contente pas de raconter l’histoire d’un emballement financier : il dresse une cartographie des opportunités et des menaces que cette technologie porte en germe.

    Finalement, la question centrale n’est pas tant « Les NFT sont-ils bons ou mauvais ? », mais plutôt « Quel usage voulons-nous en faire ? ». Si le livre ne donne pas de réponse définitive, il fournit les clés pour que chacun puisse se positionner en connaissance de cause.

    Le monde numérique n’a pas fini de se transformer, et Les Non Fungible Tokens en 20 questions nous rappelle que, derrière chaque innovation, il y a une responsabilité collective : celle de décider si nous voulons construire un écosystème ouvert et inclusif, ou un monde où tout se vend et s’achète.

    Alors, après la tempête spéculative, que retiendrons-nous des NFT ? L’espoir d’un usage éclairé, ou simplement la nostalgie d’un mirage volatil ?

    Pascal Ordonneau, NFT, économie, philosophie, data, art, numérique, monnaie, échange

  • La dégénérescence de l’IA : une autophagie algorithmique ?

    IA, algorithme, croyance, intelligence, artificielle, Philosophie, éthique, diversité cognitive, L’intelligence artificielle (IA), souvent perçue comme une avancée technologique transcendantale, se heurte aujourd’hui (doucement, mais sûrement) à un paradoxe fondamental. Alimentée initialement par des corpus de connaissances humaines vastes et diversifiés, elle se retrouve progressivement piégée dans un cycle autophage, où elle recycle ses propres productions. Ce phénomène soulève des questions philosophiques et épistémologiques majeures : peut-on parler d’un appauvrissement progressif de l’intelligence artificielle ? L’IA risque-t-elle de dégénérer en raison de sa dépendance croissante à des contenus synthétiques ? La data-philosophie se doit d’examiner ces questions sous l’angle de la qualité des données, de la diversité cognitive et de la durabilité épistémique des systèmes d’IA.


    L’auto-alimentation de l’IA : un cercle vicieux

    Les modèles d’apprentissage automatique (machine learning) sont traditionnellement formés sur des données humaines hétérogènes, garantissant une diversité d’approches et une richesse interprétative. Cependant, avec l’augmentation exponentielle du volume de contenu généré par l’IA, ces modèles commencent à réintégrer leurs propres productions comme données d’entraînement. Ce phénomène, qualifié de boucle autophage, conduit à une érosion progressive de la qualité des données et à l’amplification des biais.

    Pourquoi est-ce si préoccupant ? Et bien je vous laisse regarder les chiffres suivants :

    • 75 % des entreprises utilisant des données synthétiques d'ici 2026 : selon une enquête de la société Gartner, d'ici 2026, 75 % des entreprises auront recours à l'IA générative pour créer des données clients synthétiques, contre moins de 5 % en 2023.
    • Épuisement des données humaines : Elon Musk a récemment déclaré que toutes les données créées par les humains pour entraîner les IA sont "épuisées", suggérant un passage aux données synthétiques auto-apprenantes, avec le risque d'un "effondrement du modèle".

    Pourquoi faut-il craindre l'auto-alimentation de l'IA ?

    • Uniformisation et biais accrus : l'utilisation excessive de données synthétiques peut conduire à une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    • Dégradation des performances : des études montrent que l'entraînement de modèles d'IA sur des données synthétiques peut dégrader la qualité et la diversité des sorties, affectant ainsi les performances globales des systèmes.

    • Perroquets stochastiques" : la linguiste Emily M. Bender compare les grands modèles de langage à des "perroquets stochastiques" qui répètent sans comprendre, mettant en lumière les limites de l'IA actuelle.

    • Risque d'effondrement : une étude intitulée "Self-Consuming Generative Models Go MAD" souligne que sans apport constant de données réelles, les modèles génératifs risquent de voir leur qualité et leur diversité diminuer progressivement.

    Soyons clairs, l’un des risques majeurs est l’uniformisation des contenus générés. En se nourrissant de ses propres productions, l’IA réduit la variété de ses sorties, ce qui limite l’innovation et la diversité intellectuelle. Cette standardisation des productions entraîne un rétrécissement du champ des idées, menaçant ainsi la créativité et la pensée critique humaines. Sans doute, comme le souligne Philippe Guillemant, est-ce la leçon que va nous infliger l'IA ? Serait-ce un mal nécessaire ? 

    Impact sur la qualité des données et les performances des modèles

    La qualité des données est essentielle pour assurer l'efficacité des algorithmes d'apprentissage automatique. Lorsque ces données sont contaminées par des artefacts générés par l'IA, les performances des modèles peuvent en être significativement affectées.

     La perte de pertinence des prédictions

    Les modèles d'IA reposent sur des tendances statistiques pour formuler des prédictions. Cependant, si ces tendances sont biaisées par des données auto-générées, les prédictions perdent en pertinence. Cette dérive algorithmique peut conduire à des décisions erronées dans des domaines critiques tels que la médecine, la finance ou la justice. Par exemple, une étude récente a mis en évidence que l'utilisation excessive de données synthétiques peut entraîner une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    La crise de la vérifiabilité des données

    Un principe fondamental de l'épistémologie scientifique est la possibilité de vérifier la validité des connaissances. Or, si une IA est formée sur des données générées par une autre IA, il devient de plus en plus difficile de retracer l'origine des informations. Cette opacité algorithmique représente un défi majeur pour la gouvernance des systèmes intelligents.Comme le souligne un rapport de l'Université de Stanford, l'appétit insatiable des modèles de langage pour les données pourrait les conduire à une pénurie de "nourriture numérique" dans les années à venir, rendant la traçabilité et la vérification des données encore plus complexes (voir l'émission de la RTS "L'intelligence artificielle risque de manquer de données d'ici six ans")

     

    Vers une pénurie de données authentiques

    Des experts alertent sur une possible raréfaction des données humaines de qualité d'ici 2028. La dépendance croissante à des bases de données synthétiques risque de freiner l'évolution des IA, en limitant leur capacité à apprendre de manière pertinente et contextuelle. Comme dit plus haut, on risque un "effondrement du modèle".

    Conséquences philosophiques et épistémologiques

    La boucle autophage de l'intelligence artificielle (IA), où les systèmes d'IA s'entraînent sur des données générées par d'autres IA, soulève des questions profondes sur la nature de la connaissance, l'innovation intellectuelle et la diversité cognitive.

    Les systèmes d'IA, en particulier les modèles de langage, peuvent produire des réponses convaincantes sans véritable compréhension du contenu, un phénomène connu sous le nom d'hallucination. Ces réponses peuvent sembler informées mais manquer de fondement factuel, créant une illusion de savoir.

    L'IA est souvent perçue comme un catalyseur de l'innovation. Cependant, une dépendance excessive aux données générées par l'IA peut conduire à une stagnation créative. Une étude expérimentale a montré que l'exposition à des idées générées par l'IA n'améliore pas la créativité individuelle mais augmente la diversité collective des idées, suggérant que l'IA produit des idées différentes, mais pas nécessairement meilleures (voir "How AI Ideas Affect the Creativity, Diversity, and Evolution of Human Ideas: Evidence From a Large, Dynamic Experiment"). 

    La richesse du savoir humain réside dans sa diversité. Cependant, l'IA, en se basant sur des données homogènes ou biaisées, peut réduire la pluralité des perspectives, conduisant à une érosion de la pensée critique. James Fischer souligne que, comme les bulles de filtres sur les réseaux sociaux, l'IA risque de nous enfermer dans des préjugés si elle ne s'appuie pas sur des sources de données diversifiées (voir notamment l'article «Pourquoi la diversité de pensées est indispensable à l’ère de l’IA», James Fischer)

    Quelles solutions pour préserver les systèmes d'IA ?

    Dans un premier temps, il est essentiel de maintenir un accès privilégié aux données humaines en développant des bases de données issues de sources multiples et vérifiées. Une IA ne doit pas être exclusivement entraînée sur des contenus générés par d'autres IA.La qualité et la diversité des données d'entraînement ont un impact direct sur les performances des modèles d'IA. Comme le souligne un article de Shaip, une formation sur des données limitées ou étroites peut empêcher les modèles d'apprentissage automatique d'atteindre leur plein potentiel et augmenter le risque de fournir de mauvaises prédictions.

    Les gouvernements et les entreprises doivent instaurer des normes de transparence et de traçabilité des données utilisées pour l'apprentissage. Une IA devrait toujours indiquer la provenance de ses sources et le degré de fiabilité des informations produites. L'UNESCO, dans sa Recommandation sur l'éthique de l'intelligence artificielle, souligne l'importance de la transparence et de la traçabilité pour garantir une utilisation responsable de l'IA.

    Les systèmes d'IA pourraient être dotés d'algorithmes de correction dynamique, capables d'identifier et de filtrer les données auto-générées afin de préserver l'intégrité de l'apprentissage. Une étude intitulée "Curating Grounded Synthetic Data with Global Perspectives for Equitable AI" propose une approche pour créer des ensembles de données synthétiques diversifiés et ancrés dans le monde réel, afin d'améliorer la généralisation des modèles d'IA.

    Les acteurs de la data-science et les citoyens doivent être conscients des risques liés à l'auto-alimentation de l'IA. Une éducation critique aux biais algorithmiques et aux limites des IA est essentielle pour anticiper et corriger ces dérives. Les enjeux éthiques de l'intelligence artificielle impliquent, en matière d'éducation, de sensibiliser, d'acculturer et de former les élèves et les enseignants à un usage raisonné des outils d'apprentissage automatique. 

     

    Bref, comment conclure ? Comment ne pas finir dans la caverne de Platon algorithmique ? Nous enfermant dans nos propres boucles ? L’auto-alimentation de l’IA illustre un phénomène paradoxal : en cherchant à s’autonomiser, elle court le risque de se détacher du réel et de s’appauvrir intellectuellement. Cette boucle autophage soulève des enjeux majeurs pour la gouvernance des données et la préservation de la diversité cognitive. La data-philosophie doit jouer un rôle essentiel dans la définition d’une IA éthique, plurielle et connectée à la richesse du savoir humain. Faute de vigilance, nous pourrions voir émerger une IA qui, loin de nous éclairer, ne ferait que recycler les ombres de son propre reflet. Comme le soulignait déjà Hans Jonas (dans Le Principe responsabilité, 1979) "Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre." 

  • Data-Philosophie pour une gouvernance numérique éthique et efficace

    Data-philosophie, essai, Sonia Bressler, IA, éthique, droit, données, philosophie, gouvernance

    J'ai choisi de rédiger un essai complet intitulé "data-philosophie" qui associe sans complexe la philosophie à la science de la donnée numérique. Je dis sans complexe car il s'agit de plonger au coeur des grands courants philosophiques pour prendre le temps de la conceptualisation du monde. Il est évident que Platon ne parlait pas de la "data" en tant que telle mais bien d'une représentation du réel et de la réalité (mais qu'est-ce que la donné numérique si ce n'est une représentation d'une réalité à un instant donné ?). Il en va de même de nombreux autres penseurs sans lesquels nous ne pouvons pas davantage éclairer l'avenir de notre humanité.

    La Data-Philosophie est une discipline émergente qui vise à intégrer les réflexions philosophiques et éthiques dans la gouvernance et la régulation des technologies basées sur les données et l'intelligence artificielle. Si cette approche semble prometteuse pour répondre aux défis posés par le monde numérique, il est important d'adopter un point de vue équilibré et nuancé pour en évaluer l'impact et les limites potentielles.

     

    Concepts clés et théories spécifiques

    La Data-Philosophie s'appuie sur les travaux de penseurs tels que Charles Sanders Peirce, John Dewey, et Emmanuel Levinas, ainsi que sur des principes éthiques tels que la transparence, la responsabilité, l'équité et la protection de la vie privée. Ces concepts sont essentiels pour guider la régulation des technologies basées sur les données, tout en tenant compte de l'évolution rapide et des implications imprévues de ces technologies.

     

    Perspectives contradictoires

    Malgré ses avantages potentiels, la Data-Philosophie n'est pas exempte de critiques. Certains affirment que cette approche pourrait être trop théorique et manquer de pertinence pratique pour les décideurs politiques et les entreprises. D'autres soutiennent que la Data-Philosophie pourrait entraîner une régulation excessive, freinant ainsi l'innovation et la croissance économique.

     

    Conséquences imprévues

    L'application de la Data-Philosophie à la gouvernance numérique pourrait également avoir des conséquences imprévues. Par exemple, la mise en place de réglementations strictes en matière de protection de la vie privée et de sécurité des données pourrait entraver le partage de l'information et le développement de nouvelles technologies bénéfiques pour la société. Il est donc crucial d'évaluer les avantages et les inconvénients potentiels de la mise en œuvre de la Data-Philosophie dans différents contextes.

     
    Solutions pratiques et recommandations

    Pour maximiser l'impact positif de la Data-Philosophie, il est important de proposer des solutions pratiques et des recommandations concrètes. Par exemple, les décideurs politiques pourraient élaborer des réglementations spécifiques pour les secteurs sensibles, tels que la santé et la finance, tout en encourageant l'innovation et la croissance économique. Les entreprises pourraient également mettre en place des mécanismes de gouvernance internes, tels que des comités d'éthique, pour veiller à ce que les technologies basées sur les données soient utilisées de manière responsable et éthique.

     
    En conclusion (même si conclure est impossible tant nous devrions aller encore plus loin dans cette exploration)...

    La Data-Philosophie offre une approche prometteuse pour aborder les défis éthiques et réglementaires posés par le monde numérique. Cependant, il est essentiel d'adopter une vision nuancée et équilibrée pour en évaluer l'impact et les limites potentielles. En intégrant les réflexions philosophiques et éthiques dans la gouvernance numérique, tout en tenant compte des perspectives contradictoires et des conséquences imprévues, nous pourrons mieux naviguer dans le monde numérique complexe et incertain qui nous entoure. Pour que la Data-Philosophie soit véritablement efficace, il est important de promouvoir la collaboration entre les différents acteurs (décideurs politiques, entreprises, chercheurs, etc.) et d'élaborer des solutions pratiques et adaptées aux contextes spécifiques. Ensemble, nous pourrons alors œuvrer pour une gouvernance numérique éthique et durable, au service de l'ensemble de la société.

  • IA & Droits humains

    Lundi 10 janvier 2022, le Président de la Conférence des OING et le Président du Comité « Droits humains et intelligence artificielle» de la Conférence des OING ont invité des centaines d’internautes à participer à un webinaire sur le thème « Droits humains et Intelligence artificielle ». Trois intervenants, représentant trois institutions différentes, avaient chacun quinze minutes pour présenter leurs travaux sur les législations en matière d’IA. 

    Pour la Commission européenne, Kilian Gross, Chef de l’unité « Élaboration et coordination de la politique en matière d’intelligence artificielle »à la DG CNECT de la Commission européenne. Il a présenté les propositions de règlement de la Commission européenne. 

    Thomas Schneider, Ambassadeur, Chef du service des affaires internationales, Office fédéral de la communication OFCOM, Département fédéral de l'environnement, des transports, de l'énergie et de la communication DETEC, Représentant de la Suisse et membre du bureau du Comité Ad Hoc sur l’Intelligence Artificielle (CAHAI) du Conseil de l’Europe (dont les travaux se sont achevés le 6 décembre 2021).

    Pour l’UNESCO, Irakli Khodeli programme spécialiste dont la mission consiste à faciliter l’élaboration,  l’adoption et la mise en œuvre de la recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle (IA), le tout premier instrument normatif mondial dans ce domaine. 

    Pour comprendre les enjeux des législations, j'ai décidé de répondre par un article qui permet de saisir les définitions de l'IA, de l'éthique et des questions que soulèvent ces premières tentatives de législation. Il est déjà parfaitement remarquable de découvrir que ces dernières n'ont pas été démocratiquement débattues. Or il s'agit bien de notre avenir dont il est question...

     

    Voici le sommaire (pour accéder à l'article en entier, cliquez-ici !) :

     

    Quel est le contexte de ce webinaire ?

    Définir l’IA

    1- des systèmes qui pensent comme les humains  :

    2- des systèmes qui agissent comme les humains :

    3- des systèmes qui pensent rationnellement :

    4- des systèmes qui agissent rationnellement :

    L’histoire de l’intelligence artificielle

    Pas d’IA sans Data

    Qu’est-ce que la data ?

    Qu’est-ce que la donnée personnelle ?

    Qu’est-ce que l’Open Data ?

    Capta plus que les Data

    Pourquoi faut-il se soucier de nos capta ?

    Capta (data), algorithme & IA

    IA = algorithme + données + calcul statistique

    Vers une dictature (bénéfique) numérique ?

    Légiférer l’IA ou ses applications ?

    IA & droit européen

    Trois niveaux d’attention pour légiférer l’IA

    • Au niveau de l’algorithme
    • Au niveau des données
    • Au niveau statistique

    Une IA éthique

    UNESCO & sa norme sur l’éthique de l’intelligence artificielle

    Demain un contrat éthique ?

    De quelle éthique parlons-nous ?

    • Éthique(s) normative(s) :

    Éthique de la vertu

    Éthique conséquentialiste

    Éthique de la déontologie

    Éthique(s) appliquée(s) :

    • Éthique numérique

    Éthique de la data

    La méta-éthique :

    • L’éthique artificielle :
    • L’éthique minimale :
    • Ébauche d’une méthodologie éthique

    L’éthique n’est pas la conformité

    Quelques clefs pour une éthique appliquée

    1- Prendre du recul

    2- Choisir la meilleure éthique possible

    3- Arbitrer avec une personne tiers

    Segmenter l’éthique appliquée

    1- L’éthique by design

    2- l’éthique des usages

    3- l’éthique sociétale

    Une éthique numérique commune ?

    1- une éthique appliquée pour les métiers numériques ?

    2- une éthique minimale numérique commune ?

    Essayons de conclure éthiquement

    >>> Accès IA & Droits Humains