Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

ia

  • La dégénérescence de l’IA : une autophagie algorithmique ?

    IA, algorithme, croyance, intelligence, artificielle, Philosophie, éthique, diversité cognitive, L’intelligence artificielle (IA), souvent perçue comme une avancée technologique transcendantale, se heurte aujourd’hui (doucement, mais sûrement) à un paradoxe fondamental. Alimentée initialement par des corpus de connaissances humaines vastes et diversifiés, elle se retrouve progressivement piégée dans un cycle autophage, où elle recycle ses propres productions. Ce phénomène soulève des questions philosophiques et épistémologiques majeures : peut-on parler d’un appauvrissement progressif de l’intelligence artificielle ? L’IA risque-t-elle de dégénérer en raison de sa dépendance croissante à des contenus synthétiques ? La data-philosophie se doit d’examiner ces questions sous l’angle de la qualité des données, de la diversité cognitive et de la durabilité épistémique des systèmes d’IA.


    L’auto-alimentation de l’IA : un cercle vicieux

    Les modèles d’apprentissage automatique (machine learning) sont traditionnellement formés sur des données humaines hétérogènes, garantissant une diversité d’approches et une richesse interprétative. Cependant, avec l’augmentation exponentielle du volume de contenu généré par l’IA, ces modèles commencent à réintégrer leurs propres productions comme données d’entraînement. Ce phénomène, qualifié de boucle autophage, conduit à une érosion progressive de la qualité des données et à l’amplification des biais.

    Pourquoi est-ce si préoccupant ? Et bien je vous laisse regarder les chiffres suivants :

    • 75 % des entreprises utilisant des données synthétiques d'ici 2026 : selon une enquête de la société Gartner, d'ici 2026, 75 % des entreprises auront recours à l'IA générative pour créer des données clients synthétiques, contre moins de 5 % en 2023.
    • Épuisement des données humaines : Elon Musk a récemment déclaré que toutes les données créées par les humains pour entraîner les IA sont "épuisées", suggérant un passage aux données synthétiques auto-apprenantes, avec le risque d'un "effondrement du modèle".

    Pourquoi faut-il craindre l'auto-alimentation de l'IA ?

    • Uniformisation et biais accrus : l'utilisation excessive de données synthétiques peut conduire à une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    • Dégradation des performances : des études montrent que l'entraînement de modèles d'IA sur des données synthétiques peut dégrader la qualité et la diversité des sorties, affectant ainsi les performances globales des systèmes.

    • Perroquets stochastiques" : la linguiste Emily M. Bender compare les grands modèles de langage à des "perroquets stochastiques" qui répètent sans comprendre, mettant en lumière les limites de l'IA actuelle.

    • Risque d'effondrement : une étude intitulée "Self-Consuming Generative Models Go MAD" souligne que sans apport constant de données réelles, les modèles génératifs risquent de voir leur qualité et leur diversité diminuer progressivement.

    Soyons clairs, l’un des risques majeurs est l’uniformisation des contenus générés. En se nourrissant de ses propres productions, l’IA réduit la variété de ses sorties, ce qui limite l’innovation et la diversité intellectuelle. Cette standardisation des productions entraîne un rétrécissement du champ des idées, menaçant ainsi la créativité et la pensée critique humaines. Sans doute, comme le souligne Philippe Guillemant, est-ce la leçon que va nous infliger l'IA ? Serait-ce un mal nécessaire ? 

    Impact sur la qualité des données et les performances des modèles

    La qualité des données est essentielle pour assurer l'efficacité des algorithmes d'apprentissage automatique. Lorsque ces données sont contaminées par des artefacts générés par l'IA, les performances des modèles peuvent en être significativement affectées.

     La perte de pertinence des prédictions

    Les modèles d'IA reposent sur des tendances statistiques pour formuler des prédictions. Cependant, si ces tendances sont biaisées par des données auto-générées, les prédictions perdent en pertinence. Cette dérive algorithmique peut conduire à des décisions erronées dans des domaines critiques tels que la médecine, la finance ou la justice. Par exemple, une étude récente a mis en évidence que l'utilisation excessive de données synthétiques peut entraîner une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    La crise de la vérifiabilité des données

    Un principe fondamental de l'épistémologie scientifique est la possibilité de vérifier la validité des connaissances. Or, si une IA est formée sur des données générées par une autre IA, il devient de plus en plus difficile de retracer l'origine des informations. Cette opacité algorithmique représente un défi majeur pour la gouvernance des systèmes intelligents.Comme le souligne un rapport de l'Université de Stanford, l'appétit insatiable des modèles de langage pour les données pourrait les conduire à une pénurie de "nourriture numérique" dans les années à venir, rendant la traçabilité et la vérification des données encore plus complexes (voir l'émission de la RTS "L'intelligence artificielle risque de manquer de données d'ici six ans")

     

    Vers une pénurie de données authentiques

    Des experts alertent sur une possible raréfaction des données humaines de qualité d'ici 2028. La dépendance croissante à des bases de données synthétiques risque de freiner l'évolution des IA, en limitant leur capacité à apprendre de manière pertinente et contextuelle. Comme dit plus haut, on risque un "effondrement du modèle".

    Conséquences philosophiques et épistémologiques

    La boucle autophage de l'intelligence artificielle (IA), où les systèmes d'IA s'entraînent sur des données générées par d'autres IA, soulève des questions profondes sur la nature de la connaissance, l'innovation intellectuelle et la diversité cognitive.

    Les systèmes d'IA, en particulier les modèles de langage, peuvent produire des réponses convaincantes sans véritable compréhension du contenu, un phénomène connu sous le nom d'hallucination. Ces réponses peuvent sembler informées mais manquer de fondement factuel, créant une illusion de savoir.

    L'IA est souvent perçue comme un catalyseur de l'innovation. Cependant, une dépendance excessive aux données générées par l'IA peut conduire à une stagnation créative. Une étude expérimentale a montré que l'exposition à des idées générées par l'IA n'améliore pas la créativité individuelle mais augmente la diversité collective des idées, suggérant que l'IA produit des idées différentes, mais pas nécessairement meilleures (voir "How AI Ideas Affect the Creativity, Diversity, and Evolution of Human Ideas: Evidence From a Large, Dynamic Experiment"). 

    La richesse du savoir humain réside dans sa diversité. Cependant, l'IA, en se basant sur des données homogènes ou biaisées, peut réduire la pluralité des perspectives, conduisant à une érosion de la pensée critique. James Fischer souligne que, comme les bulles de filtres sur les réseaux sociaux, l'IA risque de nous enfermer dans des préjugés si elle ne s'appuie pas sur des sources de données diversifiées (voir notamment l'article «Pourquoi la diversité de pensées est indispensable à l’ère de l’IA», James Fischer)

    Quelles solutions pour préserver les systèmes d'IA ?

    Dans un premier temps, il est essentiel de maintenir un accès privilégié aux données humaines en développant des bases de données issues de sources multiples et vérifiées. Une IA ne doit pas être exclusivement entraînée sur des contenus générés par d'autres IA.La qualité et la diversité des données d'entraînement ont un impact direct sur les performances des modèles d'IA. Comme le souligne un article de Shaip, une formation sur des données limitées ou étroites peut empêcher les modèles d'apprentissage automatique d'atteindre leur plein potentiel et augmenter le risque de fournir de mauvaises prédictions.

    Les gouvernements et les entreprises doivent instaurer des normes de transparence et de traçabilité des données utilisées pour l'apprentissage. Une IA devrait toujours indiquer la provenance de ses sources et le degré de fiabilité des informations produites. L'UNESCO, dans sa Recommandation sur l'éthique de l'intelligence artificielle, souligne l'importance de la transparence et de la traçabilité pour garantir une utilisation responsable de l'IA.

    Les systèmes d'IA pourraient être dotés d'algorithmes de correction dynamique, capables d'identifier et de filtrer les données auto-générées afin de préserver l'intégrité de l'apprentissage. Une étude intitulée "Curating Grounded Synthetic Data with Global Perspectives for Equitable AI" propose une approche pour créer des ensembles de données synthétiques diversifiés et ancrés dans le monde réel, afin d'améliorer la généralisation des modèles d'IA.

    Les acteurs de la data-science et les citoyens doivent être conscients des risques liés à l'auto-alimentation de l'IA. Une éducation critique aux biais algorithmiques et aux limites des IA est essentielle pour anticiper et corriger ces dérives. Les enjeux éthiques de l'intelligence artificielle impliquent, en matière d'éducation, de sensibiliser, d'acculturer et de former les élèves et les enseignants à un usage raisonné des outils d'apprentissage automatique. 

     

    Bref, comment conclure ? Comment ne pas finir dans la caverne de Platon algorithmique ? Nous enfermant dans nos propres boucles ? L’auto-alimentation de l’IA illustre un phénomène paradoxal : en cherchant à s’autonomiser, elle court le risque de se détacher du réel et de s’appauvrir intellectuellement. Cette boucle autophage soulève des enjeux majeurs pour la gouvernance des données et la préservation de la diversité cognitive. La data-philosophie doit jouer un rôle essentiel dans la définition d’une IA éthique, plurielle et connectée à la richesse du savoir humain. Faute de vigilance, nous pourrions voir émerger une IA qui, loin de nous éclairer, ne ferait que recycler les ombres de son propre reflet. Comme le soulignait déjà Hans Jonas (dans Le Principe responsabilité, 1979) "Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre." 

  • Un monde qui vacille : de la fiction d’Alexandre Arditti à la réalité sanglante des affaires économiques

    Alexandre Arditti, Littérature, roman, IA, technologie, droits humains, Facebook, MetaDans son roman choc L’assassinat de Mark Zuckerberg, Alexandre Arditti nous plonge dans un thriller politique où la frontière entre réalité et fiction s’efface dangereusement. Ce récit haletant suit une enquête policière sur l’exécution publique du fondateur de Facebook, mêlant critiques acerbes de la société numérique, dérives du pouvoir technologique, et réflexions existentielles. Une fiction ? Pas si sûr, à en juger par les récents événements qui secouent les sphères du pouvoir économique mondial.

    En effet, l’assassinat de Brian Thompson, PDG d’un des plus grands groupes d’assurance mondiaux, survenu en décembre 2024, semble tristement faire écho à l’intrigue du roman d'Alexandre Arditti. Ici, ce n’est plus la fiction qui s’inspire du réel, mais le réel qui semble rattraper la fiction. Comme Mark Zuckerberg dans le livre, Thompson a été abattu en public lors d’un événement médiatique. Si les circonstances diffèrent, la symbolique est tout aussi glaçante : des figures emblématiques du capitalisme global deviennent des cibles. Pourquoi ?

    Dans L’assassinat de Mark Zuckerberg, le meurtrier, membre d’une mystérieuse organisation appelée Table Rase, revendique ses actes comme une lutte contre la déshumanisation engendrée par les géants de la tech et la marchandisation de la vie privée. Alexandre Arditti dresse un portrait sans concession d’une société où la surveillance, les algorithmes, et l’obsession de la rentabilité écrasent les individus. Le roman questionne : jusqu’où sommes-nous prêts à aller pour défendre nos libertés face à des multinationales devenues plus puissantes que certains États ? Brian Thompson incarnait-il, malgré lui, ce visage du pouvoir devenu insupportable pour certains groupes extrémistes ?

    Si Alexandre Arditti choisit la fiction pour dénoncer ces dérives, les récents événements réels nous forcent à nous interroger sur le climat actuel. Les inégalités sociales croissantes, les scandales à répétition dans les hautes sphères économiques, et la concentration des richesses sont autant de combustibles pour une colère qui gronde. Des actes isolés ? Peut-être. Mais comme le souligne un personnage du roman : "Ce n’est pas la folie qui est inquiétante, mais la normalité qui tolère l’inacceptable."

    Au-delà du spectaculaire, la juxtaposition de la fiction d’Arditti avec l’actualité révèle un malaise profond. Il serait facile – et rassurant – de réduire ces actes violents à de simples dérives terroristes. Pourtant, ils interpellent sur notre propre complicité passive. Acceptons-nous, sans broncher, que les décisions de quelques PDG déterminent la vie de millions de personnes ? Que des algorithmes prédisent nos comportements mieux que nous-mêmes ?

    Ce que montre brillamment L’assassinat de Mark Zuckerberg, c’est cette mécanique du consentement, cette insidieuse érosion de la pensée critique. Et si l’assassinat de Brian Thompson est encore entouré de zones d’ombre, il pousse, lui aussi, à cette question fondamentale : dans quelle société voulons-nous vivre ? Une société où l’argent justifie tout ? Où ceux qui dénoncent sont réduits au silence, qu’ils le fassent par les mots ou par les balles ?

    Alexandre Arditti ne donne pas de réponses faciles. Son roman est un miroir tendu à notre époque, une invitation à refuser l’évidence – cette évidence qui, comme il l’écrit, "passe son temps à changer". Face aux récits qui nous sont imposés, aux vérités prêtes à consommer, il appartient à chacun de chercher, questionner, résister.

    La littérature, quand elle dérange, est peut-être le premier pas vers cette résistance. Et parfois, il faut savoir entendre les cris derrière les silences, même quand ils nous effraient.

  • L'IA "Lucie" : symbole du naufrage numérique européen ?

    Lucie, IA, Data-Philosophie, Perspective, fiasco, Intelligence artificielle, technologie, avenir, technologique

    L’Europe accuse un retard considérable en matière d’intelligence artificielle, et l’épisode tragi-comique de l’IA "Lucie", récemment lancée et immédiatement débranchée, illustre à quel point ce retard est problématique (Europe1, 2024). Pendant que les géants américains et chinois avancent à pas de géant, développant des modèles de plus en plus sophistiqués et capables d’interagir de manière cohérente avec les utilisateurs, l’Europe peine à définir une stratégie claire et efficace (Villani, C. Donner un sens à l’intelligence artificielle, 2018).

    Un fiasco révélateur

    Lucie, censée être une alternative française aux IA conversationnelles américaines, s’est illustrée par ses réponses absurdes : erreurs factuelles, non-sens logiques, incompréhensions basiques du langage. Très vite, elle a été désactivée, faute de pouvoir rivaliser avec des modèles bien plus avancés. Cet échec n’est pas anodin : il est le reflet d’une absence criante de vision stratégique sur l’intelligence artificielle en Europe, un continent qui semble condamné à n’être qu’un consommateur des technologies développées ailleurs.

    Un chaos informationnel à venir ?

    Nous sommes entrés dans une nouvelle ère : celle d’un Internet façonné par l’IA, où l’accès à l’information est structuré par des algorithmes de plus en plus performants. Or, sans une IA souveraine, l’Europe risque de perdre toute maîtrise sur l’écosystème numérique. La désinformation, déjà omniprésente, risque de s’amplifier si nous laissons aux seules entreprises privées américaines ou chinoises la responsabilité d’organiser la hiérarchie de l’information.

    Ce qui se profile, c’est un chaos informationnel où la vérité sera façonnée par ceux qui maîtrisent la technologie. Sans alternative crédible, les sociétés européennes deviendront des territoires où l’information sera filtrée, organisée et parfois manipulée sans aucun contrôle démocratique. Le risque ? Un effondrement du débat public et une accentuation des fractures sociétales.

    Repenser l’IA avec une éthique du sens

    Ce retard technologique ne pourra être comblé que si nous changeons de paradigme. Plutôt que de poursuivre une course effrénée à la puissance brute, nous devrions nous tourner vers une IA fondée sur le sens et la qualité de l’information. C’est ici que la pensée de Martha Nussbaum et sa théorie des capabilités peuvent offrir une piste de réflexion précieuse. Comme elle l’écrit dans "Creating Capabilities: The Human Development Approach" (2011), "Le développement humain ne peut se limiter à la croissance économique ; il doit viser l’épanouissement des capacités individuelles et collectives".

    Nussbaum propose une vision du développement basée non pas sur l’accumulation quantitative, mais sur la capacité réelle des individus à s’épanouir. Appliquée à l’IA, cette approche signifierait un recentrage sur l’humain, sur la création d’outils qui ne se contentent pas de traiter de gigantesques quantités de données, mais qui favorisent une intelligence collective, critique et éthique.

    Vers une IA européenne responsable et souveraine

    L’Europe a une occasion unique de prendre un autre chemin que celui du transhumanisme débridé ou de l’hégémonie des big tech. Elle peut promouvoir une IA qui ne cherche pas seulement à imiter l’intelligence humaine, mais à l’enrichir, en mettant en avant la diversité culturelle, le débat critique et l’éthique du numérique.

    Le fiasco de "Lucie" devrait être une alarme. Non pas pour abandonner, mais pour repenser. La révolution de l’IA est en marche, et si l’Europe veut y participer activement, elle doit impérativement définir un cadre basé sur le sens, la qualité et l’autonomie technologique. Faute de quoi, elle ne sera qu’un spectateur impuissant du chaos informationnel qui s’annonce.

  • IA & Droits humains

    Lundi 10 janvier 2022, le Président de la Conférence des OING et le Président du Comité « Droits humains et intelligence artificielle» de la Conférence des OING ont invité des centaines d’internautes à participer à un webinaire sur le thème « Droits humains et Intelligence artificielle ». Trois intervenants, représentant trois institutions différentes, avaient chacun quinze minutes pour présenter leurs travaux sur les législations en matière d’IA. 

    Pour la Commission européenne, Kilian Gross, Chef de l’unité « Élaboration et coordination de la politique en matière d’intelligence artificielle »à la DG CNECT de la Commission européenne. Il a présenté les propositions de règlement de la Commission européenne. 

    Thomas Schneider, Ambassadeur, Chef du service des affaires internationales, Office fédéral de la communication OFCOM, Département fédéral de l'environnement, des transports, de l'énergie et de la communication DETEC, Représentant de la Suisse et membre du bureau du Comité Ad Hoc sur l’Intelligence Artificielle (CAHAI) du Conseil de l’Europe (dont les travaux se sont achevés le 6 décembre 2021).

    Pour l’UNESCO, Irakli Khodeli programme spécialiste dont la mission consiste à faciliter l’élaboration,  l’adoption et la mise en œuvre de la recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle (IA), le tout premier instrument normatif mondial dans ce domaine. 

    Pour comprendre les enjeux des législations, j'ai décidé de répondre par un article qui permet de saisir les définitions de l'IA, de l'éthique et des questions que soulèvent ces premières tentatives de législation. Il est déjà parfaitement remarquable de découvrir que ces dernières n'ont pas été démocratiquement débattues. Or il s'agit bien de notre avenir dont il est question...

     

    Voici le sommaire (pour accéder à l'article en entier, cliquez-ici !) :

     

    Quel est le contexte de ce webinaire ?

    Définir l’IA

    1- des systèmes qui pensent comme les humains  :

    2- des systèmes qui agissent comme les humains :

    3- des systèmes qui pensent rationnellement :

    4- des systèmes qui agissent rationnellement :

    L’histoire de l’intelligence artificielle

    Pas d’IA sans Data

    Qu’est-ce que la data ?

    Qu’est-ce que la donnée personnelle ?

    Qu’est-ce que l’Open Data ?

    Capta plus que les Data

    Pourquoi faut-il se soucier de nos capta ?

    Capta (data), algorithme & IA

    IA = algorithme + données + calcul statistique

    Vers une dictature (bénéfique) numérique ?

    Légiférer l’IA ou ses applications ?

    IA & droit européen

    Trois niveaux d’attention pour légiférer l’IA

    • Au niveau de l’algorithme
    • Au niveau des données
    • Au niveau statistique

    Une IA éthique

    UNESCO & sa norme sur l’éthique de l’intelligence artificielle

    Demain un contrat éthique ?

    De quelle éthique parlons-nous ?

    • Éthique(s) normative(s) :

    Éthique de la vertu

    Éthique conséquentialiste

    Éthique de la déontologie

    Éthique(s) appliquée(s) :

    • Éthique numérique

    Éthique de la data

    La méta-éthique :

    • L’éthique artificielle :
    • L’éthique minimale :
    • Ébauche d’une méthodologie éthique

    L’éthique n’est pas la conformité

    Quelques clefs pour une éthique appliquée

    1- Prendre du recul

    2- Choisir la meilleure éthique possible

    3- Arbitrer avec une personne tiers

    Segmenter l’éthique appliquée

    1- L’éthique by design

    2- l’éthique des usages

    3- l’éthique sociétale

    Une éthique numérique commune ?

    1- une éthique appliquée pour les métiers numériques ?

    2- une éthique minimale numérique commune ?

    Essayons de conclure éthiquement

    >>> Accès IA & Droits Humains