Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

éthique

  • La dégénérescence de l’IA : une autophagie algorithmique ?

    IA, algorithme, croyance, intelligence, artificielle, Philosophie, éthique, diversité cognitive, L’intelligence artificielle (IA), souvent perçue comme une avancée technologique transcendantale, se heurte aujourd’hui (doucement, mais sûrement) à un paradoxe fondamental. Alimentée initialement par des corpus de connaissances humaines vastes et diversifiés, elle se retrouve progressivement piégée dans un cycle autophage, où elle recycle ses propres productions. Ce phénomène soulève des questions philosophiques et épistémologiques majeures : peut-on parler d’un appauvrissement progressif de l’intelligence artificielle ? L’IA risque-t-elle de dégénérer en raison de sa dépendance croissante à des contenus synthétiques ? La data-philosophie se doit d’examiner ces questions sous l’angle de la qualité des données, de la diversité cognitive et de la durabilité épistémique des systèmes d’IA.


    L’auto-alimentation de l’IA : un cercle vicieux

    Les modèles d’apprentissage automatique (machine learning) sont traditionnellement formés sur des données humaines hétérogènes, garantissant une diversité d’approches et une richesse interprétative. Cependant, avec l’augmentation exponentielle du volume de contenu généré par l’IA, ces modèles commencent à réintégrer leurs propres productions comme données d’entraînement. Ce phénomène, qualifié de boucle autophage, conduit à une érosion progressive de la qualité des données et à l’amplification des biais.

    Pourquoi est-ce si préoccupant ? Et bien je vous laisse regarder les chiffres suivants :

    • 75 % des entreprises utilisant des données synthétiques d'ici 2026 : selon une enquête de la société Gartner, d'ici 2026, 75 % des entreprises auront recours à l'IA générative pour créer des données clients synthétiques, contre moins de 5 % en 2023.
    • Épuisement des données humaines : Elon Musk a récemment déclaré que toutes les données créées par les humains pour entraîner les IA sont "épuisées", suggérant un passage aux données synthétiques auto-apprenantes, avec le risque d'un "effondrement du modèle".

    Pourquoi faut-il craindre l'auto-alimentation de l'IA ?

    • Uniformisation et biais accrus : l'utilisation excessive de données synthétiques peut conduire à une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    • Dégradation des performances : des études montrent que l'entraînement de modèles d'IA sur des données synthétiques peut dégrader la qualité et la diversité des sorties, affectant ainsi les performances globales des systèmes.

    • Perroquets stochastiques" : la linguiste Emily M. Bender compare les grands modèles de langage à des "perroquets stochastiques" qui répètent sans comprendre, mettant en lumière les limites de l'IA actuelle.

    • Risque d'effondrement : une étude intitulée "Self-Consuming Generative Models Go MAD" souligne que sans apport constant de données réelles, les modèles génératifs risquent de voir leur qualité et leur diversité diminuer progressivement.

    Soyons clairs, l’un des risques majeurs est l’uniformisation des contenus générés. En se nourrissant de ses propres productions, l’IA réduit la variété de ses sorties, ce qui limite l’innovation et la diversité intellectuelle. Cette standardisation des productions entraîne un rétrécissement du champ des idées, menaçant ainsi la créativité et la pensée critique humaines. Sans doute, comme le souligne Philippe Guillemant, est-ce la leçon que va nous infliger l'IA ? Serait-ce un mal nécessaire ? 

    Impact sur la qualité des données et les performances des modèles

    La qualité des données est essentielle pour assurer l'efficacité des algorithmes d'apprentissage automatique. Lorsque ces données sont contaminées par des artefacts générés par l'IA, les performances des modèles peuvent en être significativement affectées.

     La perte de pertinence des prédictions

    Les modèles d'IA reposent sur des tendances statistiques pour formuler des prédictions. Cependant, si ces tendances sont biaisées par des données auto-générées, les prédictions perdent en pertinence. Cette dérive algorithmique peut conduire à des décisions erronées dans des domaines critiques tels que la médecine, la finance ou la justice. Par exemple, une étude récente a mis en évidence que l'utilisation excessive de données synthétiques peut entraîner une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    La crise de la vérifiabilité des données

    Un principe fondamental de l'épistémologie scientifique est la possibilité de vérifier la validité des connaissances. Or, si une IA est formée sur des données générées par une autre IA, il devient de plus en plus difficile de retracer l'origine des informations. Cette opacité algorithmique représente un défi majeur pour la gouvernance des systèmes intelligents.Comme le souligne un rapport de l'Université de Stanford, l'appétit insatiable des modèles de langage pour les données pourrait les conduire à une pénurie de "nourriture numérique" dans les années à venir, rendant la traçabilité et la vérification des données encore plus complexes (voir l'émission de la RTS "L'intelligence artificielle risque de manquer de données d'ici six ans")

     

    Vers une pénurie de données authentiques

    Des experts alertent sur une possible raréfaction des données humaines de qualité d'ici 2028. La dépendance croissante à des bases de données synthétiques risque de freiner l'évolution des IA, en limitant leur capacité à apprendre de manière pertinente et contextuelle. Comme dit plus haut, on risque un "effondrement du modèle".

    Conséquences philosophiques et épistémologiques

    La boucle autophage de l'intelligence artificielle (IA), où les systèmes d'IA s'entraînent sur des données générées par d'autres IA, soulève des questions profondes sur la nature de la connaissance, l'innovation intellectuelle et la diversité cognitive.

    Les systèmes d'IA, en particulier les modèles de langage, peuvent produire des réponses convaincantes sans véritable compréhension du contenu, un phénomène connu sous le nom d'hallucination. Ces réponses peuvent sembler informées mais manquer de fondement factuel, créant une illusion de savoir.

    L'IA est souvent perçue comme un catalyseur de l'innovation. Cependant, une dépendance excessive aux données générées par l'IA peut conduire à une stagnation créative. Une étude expérimentale a montré que l'exposition à des idées générées par l'IA n'améliore pas la créativité individuelle mais augmente la diversité collective des idées, suggérant que l'IA produit des idées différentes, mais pas nécessairement meilleures (voir "How AI Ideas Affect the Creativity, Diversity, and Evolution of Human Ideas: Evidence From a Large, Dynamic Experiment"). 

    La richesse du savoir humain réside dans sa diversité. Cependant, l'IA, en se basant sur des données homogènes ou biaisées, peut réduire la pluralité des perspectives, conduisant à une érosion de la pensée critique. James Fischer souligne que, comme les bulles de filtres sur les réseaux sociaux, l'IA risque de nous enfermer dans des préjugés si elle ne s'appuie pas sur des sources de données diversifiées (voir notamment l'article «Pourquoi la diversité de pensées est indispensable à l’ère de l’IA», James Fischer)

    Quelles solutions pour préserver les systèmes d'IA ?

    Dans un premier temps, il est essentiel de maintenir un accès privilégié aux données humaines en développant des bases de données issues de sources multiples et vérifiées. Une IA ne doit pas être exclusivement entraînée sur des contenus générés par d'autres IA.La qualité et la diversité des données d'entraînement ont un impact direct sur les performances des modèles d'IA. Comme le souligne un article de Shaip, une formation sur des données limitées ou étroites peut empêcher les modèles d'apprentissage automatique d'atteindre leur plein potentiel et augmenter le risque de fournir de mauvaises prédictions.

    Les gouvernements et les entreprises doivent instaurer des normes de transparence et de traçabilité des données utilisées pour l'apprentissage. Une IA devrait toujours indiquer la provenance de ses sources et le degré de fiabilité des informations produites. L'UNESCO, dans sa Recommandation sur l'éthique de l'intelligence artificielle, souligne l'importance de la transparence et de la traçabilité pour garantir une utilisation responsable de l'IA.

    Les systèmes d'IA pourraient être dotés d'algorithmes de correction dynamique, capables d'identifier et de filtrer les données auto-générées afin de préserver l'intégrité de l'apprentissage. Une étude intitulée "Curating Grounded Synthetic Data with Global Perspectives for Equitable AI" propose une approche pour créer des ensembles de données synthétiques diversifiés et ancrés dans le monde réel, afin d'améliorer la généralisation des modèles d'IA.

    Les acteurs de la data-science et les citoyens doivent être conscients des risques liés à l'auto-alimentation de l'IA. Une éducation critique aux biais algorithmiques et aux limites des IA est essentielle pour anticiper et corriger ces dérives. Les enjeux éthiques de l'intelligence artificielle impliquent, en matière d'éducation, de sensibiliser, d'acculturer et de former les élèves et les enseignants à un usage raisonné des outils d'apprentissage automatique. 

     

    Bref, comment conclure ? Comment ne pas finir dans la caverne de Platon algorithmique ? Nous enfermant dans nos propres boucles ? L’auto-alimentation de l’IA illustre un phénomène paradoxal : en cherchant à s’autonomiser, elle court le risque de se détacher du réel et de s’appauvrir intellectuellement. Cette boucle autophage soulève des enjeux majeurs pour la gouvernance des données et la préservation de la diversité cognitive. La data-philosophie doit jouer un rôle essentiel dans la définition d’une IA éthique, plurielle et connectée à la richesse du savoir humain. Faute de vigilance, nous pourrions voir émerger une IA qui, loin de nous éclairer, ne ferait que recycler les ombres de son propre reflet. Comme le soulignait déjà Hans Jonas (dans Le Principe responsabilité, 1979) "Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre." 

  • IA & Droits humains

    Lundi 10 janvier 2022, le Président de la Conférence des OING et le Président du Comité « Droits humains et intelligence artificielle» de la Conférence des OING ont invité des centaines d’internautes à participer à un webinaire sur le thème « Droits humains et Intelligence artificielle ». Trois intervenants, représentant trois institutions différentes, avaient chacun quinze minutes pour présenter leurs travaux sur les législations en matière d’IA. 

    Pour la Commission européenne, Kilian Gross, Chef de l’unité « Élaboration et coordination de la politique en matière d’intelligence artificielle »à la DG CNECT de la Commission européenne. Il a présenté les propositions de règlement de la Commission européenne. 

    Thomas Schneider, Ambassadeur, Chef du service des affaires internationales, Office fédéral de la communication OFCOM, Département fédéral de l'environnement, des transports, de l'énergie et de la communication DETEC, Représentant de la Suisse et membre du bureau du Comité Ad Hoc sur l’Intelligence Artificielle (CAHAI) du Conseil de l’Europe (dont les travaux se sont achevés le 6 décembre 2021).

    Pour l’UNESCO, Irakli Khodeli programme spécialiste dont la mission consiste à faciliter l’élaboration,  l’adoption et la mise en œuvre de la recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle (IA), le tout premier instrument normatif mondial dans ce domaine. 

    Pour comprendre les enjeux des législations, j'ai décidé de répondre par un article qui permet de saisir les définitions de l'IA, de l'éthique et des questions que soulèvent ces premières tentatives de législation. Il est déjà parfaitement remarquable de découvrir que ces dernières n'ont pas été démocratiquement débattues. Or il s'agit bien de notre avenir dont il est question...

     

    Voici le sommaire (pour accéder à l'article en entier, cliquez-ici !) :

     

    Quel est le contexte de ce webinaire ?

    Définir l’IA

    1- des systèmes qui pensent comme les humains  :

    2- des systèmes qui agissent comme les humains :

    3- des systèmes qui pensent rationnellement :

    4- des systèmes qui agissent rationnellement :

    L’histoire de l’intelligence artificielle

    Pas d’IA sans Data

    Qu’est-ce que la data ?

    Qu’est-ce que la donnée personnelle ?

    Qu’est-ce que l’Open Data ?

    Capta plus que les Data

    Pourquoi faut-il se soucier de nos capta ?

    Capta (data), algorithme & IA

    IA = algorithme + données + calcul statistique

    Vers une dictature (bénéfique) numérique ?

    Légiférer l’IA ou ses applications ?

    IA & droit européen

    Trois niveaux d’attention pour légiférer l’IA

    • Au niveau de l’algorithme
    • Au niveau des données
    • Au niveau statistique

    Une IA éthique

    UNESCO & sa norme sur l’éthique de l’intelligence artificielle

    Demain un contrat éthique ?

    De quelle éthique parlons-nous ?

    • Éthique(s) normative(s) :

    Éthique de la vertu

    Éthique conséquentialiste

    Éthique de la déontologie

    Éthique(s) appliquée(s) :

    • Éthique numérique

    Éthique de la data

    La méta-éthique :

    • L’éthique artificielle :
    • L’éthique minimale :
    • Ébauche d’une méthodologie éthique

    L’éthique n’est pas la conformité

    Quelques clefs pour une éthique appliquée

    1- Prendre du recul

    2- Choisir la meilleure éthique possible

    3- Arbitrer avec une personne tiers

    Segmenter l’éthique appliquée

    1- L’éthique by design

    2- l’éthique des usages

    3- l’éthique sociétale

    Une éthique numérique commune ?

    1- une éthique appliquée pour les métiers numériques ?

    2- une éthique minimale numérique commune ?

    Essayons de conclure éthiquement

    >>> Accès IA & Droits Humains

     

     

  • Pourquoi la data-philosophie ?

    Au coeur du confinement, j'ai enfin décider de prendre le temps d'écrire sur les bases de ce qui devrait nous occuper tous dans les prochaines années à savoir "la data-philosophie". Ce blog porte les traces de mes réflexions sur l'usage des données, les questions éthiques, notre rapport au temps, etc.

    Mais là il nous faut aller plus loin et explorer ce qu'est la "data-philosophie".

    L’association « data-philosophie » a son importance. Il ne s’agit pas de poser une « philosophie de la data » qui serait simplement une sorte d’application pratique ou un code déontologique de la data.
    Nous devons regarder la data comme ce qu’elle est : un critère du réel. Cette idée de critère du réel est très importante. Toute la philosophie s’accorde autant qu’elle se déchire sur cette notion de « critère » du réel qui rend possible ensuite tout le reste : la croyance juste, la croyance vraie, la croyance justifiée, la connaissance, le savoir… Dès lors nous pourrions ici tenter une analogie entre la « data » et la « monade » de Leibniz.
    Dans cet article, il ne s’agit pas de résoudre cette analogie qui par ailleurs, comme toute analogie a son degré de fausseté. Cependant, nous devrions remarquer, qu’à la base de toutes les recherches ou manipulations de data, il devrait y avoir une question.
    L’objectif de la data-philosophie serait donc situé là : dans l’art de poser les questions et donc de soulever des problèmes. Sans ce cheminement il ne peut y avoir d’analyse structurée.

    Cliquez-ici pour lire l'article dans son intégralité sur Academia.

  • Attention : le nouvel enjeu

    Attention, notre attention se perd, s'économise, se joue, se déjoue, s'achète. Mais c'est quoi l'attention ? Notre attention peut-elle être double ? Peut-elle se travailler ? Et si nous jouions au jeu des sept erreurs ? 

    attention,économie,marketing,éthique,internet

    Définissons de façon simple ce qu'est l'attention. Nous pourrions dire qu'il s'agit de la mobilisation de la vigilance d'une personne, se fixant sur un objet précis et reléguant à l'arrière-plan les autres éléments composant le champ psychologique.  Selon William James, l'attention se définit comme « la prise de possession par l’esprit, sous une forme claire et vive, d’un objet ou d’une suite de pensées parmi plusieurs qui semblent possibles […] . Implique le retrait de certains objets afin de traiter plus efficacement les autres ». 

    Pourquoi l'attention est-elle un enjeu crucial à l'heure actuelle ? Dans un monde où les informations viennent de toute part : notre attention n'est-elle pas devenue le centre d'attention de toutes les entreprises, marques, gouvernements ? Comment être encore attentifs à leurs messages alors que nous sommes bombardés d'alertes en tout genre (informations, téléphones, smartphones, objets connectés, réseaux sociaux, jeux en ligne, nouveaux médias... ) ? Comment les marques, les états ou les entreprises privées peuvent-ils réussir à encore atteindre leurs "cibles", c'est-à-dire nous, notre subjectivité ?

    En parallèle de l'apparition d'internet dans la sphère publique, à partir de 1996, l'expression "l'économie de l'attention" émerge. Cependant, l'origine de cette expression remonte à un article de Herbert Simon (économiste et sociologue américain), publié en 1971. Il oppose les sociétés du passé, caractérisées comme « pauvres en informations », à nos sociétés actuelles, « riches en informations ».

    La différence tient donc à ce que nous avons tous désormais accès à une quantité d’informations pertinentes (voire indispensables pour nos pratiques) bien supérieure aux capacités attentionnelles dont nous disposons pour en prendre connaissance (voir sur ce point le livre L’Économie de l’attention. Nouvel horizon du capitalisme ?, sous la direction de Yves Citton, La Découverte, 2014).  

    L'économie de l'attention est une nouvelle branche des sciences économiques et de gestion. Elle a pour fonction de traiter l'attention comme une ressource rare en prenant appui sur les théories économiques afin de problématiser, comme le souligne Daniel Kaplan,  « le fonctionnement de marchés dans lesquels l’offre est abondante (et donc économiquement dévalorisée) et la ressource rare devient le temps et l’attention des consommateurs ». 

    On retrouve ce prisme dans le cadre du marketing. Notamment dans le modèle AIDA : attirer l’Attention, susciter l’Intérêt, provoquer le Désir, inciter à l’Action.

    Notons que jusqu'ici tout va bien... Sommes-nous en sûrs ? 

    Prenons un exemple simple : nous aimons avoir des outils qui facilitent notre créativité... Ils la simplifient : smartphone pour faire des photos, instagram pour avoir des filtres déjà faits, Canva pour faire de la mise en page, Word, Pages, etc. - autant d'outils qui nous sont communs mais qui nous enferment dans une habitude créative. Nous ne sortons que très rarement des "templates", des modèles de mises en page proposés.

    Et pourtant, nous utilisons une marque Apple dont le slogan est "Think Different"... Mais comment pourrions-nous penser différemment avec des objets déjà encadrés, prêts à l'emploi qui ne favorisent peu ou pas un imaginaire disruptif ?

    La complexité de notre société tient dans la multiplication des paradoxes auxquels, nous sommes soumis. 

    Mais où est notre attention ?

    Elle se cadre, et, dans le même temps, se déplie au fil des algorithmes qui nous propose des contenus fidèles à notre identité numérique calculée. 

    attention,économie,marketing,éthique,internet

    Faut-il, dès lors, penser un RetroDesign de l'attention ? C'est l'une des questions que pose le Think Tank Fing qui s'intéresse aux transformations numériques. Mais attention, s'il faut penser un tel design de l'attention, nous devons le penser selon une certaine éthique. Cela signifie que les algorithmes qui entourent notre pratique, doivent être repensés non pour nous faire perdre du temps, mais bien pour en gagner afin d'augmenter nos capacités (cognitives par exemple).  

    Comme l'a démontré Natasha Schüll, la dépendance se travaille avec le design. « Tout bon chercheur sur ce sujet reconnaîtra que la dépendance est en grande partie une question de rythme des récompenses et renforcements, c’est-à-dire une question de fréquence. » 

    Elle s'est intéressée à la conception de la dépendance dans l’univers des machines à sous (voir son ouvrage Addiction by Design – Machine Gambling in Las Vegas).

    Nous pouvons également lister les autres détournements de notre attention :

    • le Fomo (Fear of missing out) ou "la peur de manquer" : voir ce que font les autres, ce qu'ils disent, ce qu'ils ont mis en avant, etc. Cette peur est sans limite, il suffit de regarder les comportements autour de soi dans les transports, dans les écoles. La seule façon de ne pas subir c'est de déprogrammer les alertes, de ne plus se servir de son téléphone comme réveil (pour ne plus avoir la tentation de regarder les posts de la nuit de son réseau).
    • L'approbation sociale : nous cherchons tous à être reconnus. Avoir des likes, avoir des coeurs sur des posts... c'est une médaille de plus accrochée à notre inconscient. 
    • La réciprocité sociale :  qui que nous soyons, nous sommes très sensibles à la réciprocité des gestes. Si vous me dites bonjour, je dois vous le dire également. Regardez au début de Facebook les "poke"... aujourd'hui dans messenger vous pouvez envoyer des simples "hello"... Nombreuses sont les plateformes web qui utilisent cette faille de notre psychologie.
    • "Le gavage" : les pages sans fin, les flux infinis, les vidéos qui se lancent toutes seules… Pour nous intimer l'ordre de consommer, le mieux est de continuer à nous donner à manger, même lorsque nous n’avons plus faim. 
    • L’interruption instantanée : les messages qui nous interrompent immédiatement sont plus convaincants. Ainsi, Facebook Messenger indique automatiquement à l’expéditeur lorsque nous avons “vu” un message. Indirectement, nous sommes ainsi contraints à répondre puisque nous savons que l’autre a vu que nous avions lu le message. Cela est valable sur Snap également...
    • Les valeurs de l'entreprises entremêlées avec nos valeurs personnelles. Cet entremêlement rend difficile le fait de quitter une plateforme dont nous avons l'impression qu'elle incarne tout ou partie de nos valeurs personnelles.
    • Le biais cognitif de l'absence de choix. Bien que ce ne soit qu'un biais cognitif, nombreux sont ceux qui considèrent que le seul moteur de recherche est Google... 

    Comme le souligne Tristan Harris, il est parfaitement possible de créer une technologie qui ne nous ferait pas perdre de temps et qui éviterait les détournements d'attention.  

     

     

     

     

    Mais l'attention c'est quoi ?

    Faisons quelques petits jeux...


    Nous ne voyons pas ce qui change doucement. Notre attention est limitée temporellement et nous sommes peu réceptifs au changement progressif. C’est ce qui explique, notamment, que nous ne nous voyons pas vieillir.

    Notre attention est limitée dans le temps. Et nous sommes bien plus attentifs à ce qui bouge vite, à ce qui clignote (d'où les systèmes de récompenses dans les jeux)…Nous sommes loin d'être attentifs au changement progressif. 

    Essayons encore une fois avec une autre vidéo :


    Si nous nous concentrons sur quelque chose, nous ne pouvons nous concentrer sur autre chose. C’est ce qui explique en grande partie l’hyper-compétitivité à l’égard de la captation de notre attention.

    Pourtant, chaque jour, nous tentons de faire plusieurs choses en même temps. Y sommes-nous attentifs ?