Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

sciences

  • La dégénérescence de l’IA : une autophagie algorithmique ?

    IA, algorithme, croyance, intelligence, artificielle, Philosophie, éthique, diversité cognitive, L’intelligence artificielle (IA), souvent perçue comme une avancée technologique transcendantale, se heurte aujourd’hui (doucement, mais sûrement) à un paradoxe fondamental. Alimentée initialement par des corpus de connaissances humaines vastes et diversifiés, elle se retrouve progressivement piégée dans un cycle autophage, où elle recycle ses propres productions. Ce phénomène soulève des questions philosophiques et épistémologiques majeures : peut-on parler d’un appauvrissement progressif de l’intelligence artificielle ? L’IA risque-t-elle de dégénérer en raison de sa dépendance croissante à des contenus synthétiques ? La data-philosophie se doit d’examiner ces questions sous l’angle de la qualité des données, de la diversité cognitive et de la durabilité épistémique des systèmes d’IA.


    L’auto-alimentation de l’IA : un cercle vicieux

    Les modèles d’apprentissage automatique (machine learning) sont traditionnellement formés sur des données humaines hétérogènes, garantissant une diversité d’approches et une richesse interprétative. Cependant, avec l’augmentation exponentielle du volume de contenu généré par l’IA, ces modèles commencent à réintégrer leurs propres productions comme données d’entraînement. Ce phénomène, qualifié de boucle autophage, conduit à une érosion progressive de la qualité des données et à l’amplification des biais.

    Pourquoi est-ce si préoccupant ? Et bien je vous laisse regarder les chiffres suivants :

    • 75 % des entreprises utilisant des données synthétiques d'ici 2026 : selon une enquête de la société Gartner, d'ici 2026, 75 % des entreprises auront recours à l'IA générative pour créer des données clients synthétiques, contre moins de 5 % en 2023.
    • Épuisement des données humaines : Elon Musk a récemment déclaré que toutes les données créées par les humains pour entraîner les IA sont "épuisées", suggérant un passage aux données synthétiques auto-apprenantes, avec le risque d'un "effondrement du modèle".

    Pourquoi faut-il craindre l'auto-alimentation de l'IA ?

    • Uniformisation et biais accrus : l'utilisation excessive de données synthétiques peut conduire à une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    • Dégradation des performances : des études montrent que l'entraînement de modèles d'IA sur des données synthétiques peut dégrader la qualité et la diversité des sorties, affectant ainsi les performances globales des systèmes.

    • Perroquets stochastiques" : la linguiste Emily M. Bender compare les grands modèles de langage à des "perroquets stochastiques" qui répètent sans comprendre, mettant en lumière les limites de l'IA actuelle.

    • Risque d'effondrement : une étude intitulée "Self-Consuming Generative Models Go MAD" souligne que sans apport constant de données réelles, les modèles génératifs risquent de voir leur qualité et leur diversité diminuer progressivement.

    Soyons clairs, l’un des risques majeurs est l’uniformisation des contenus générés. En se nourrissant de ses propres productions, l’IA réduit la variété de ses sorties, ce qui limite l’innovation et la diversité intellectuelle. Cette standardisation des productions entraîne un rétrécissement du champ des idées, menaçant ainsi la créativité et la pensée critique humaines. Sans doute, comme le souligne Philippe Guillemant, est-ce la leçon que va nous infliger l'IA ? Serait-ce un mal nécessaire ? 

    Impact sur la qualité des données et les performances des modèles

    La qualité des données est essentielle pour assurer l'efficacité des algorithmes d'apprentissage automatique. Lorsque ces données sont contaminées par des artefacts générés par l'IA, les performances des modèles peuvent en être significativement affectées.

     La perte de pertinence des prédictions

    Les modèles d'IA reposent sur des tendances statistiques pour formuler des prédictions. Cependant, si ces tendances sont biaisées par des données auto-générées, les prédictions perdent en pertinence. Cette dérive algorithmique peut conduire à des décisions erronées dans des domaines critiques tels que la médecine, la finance ou la justice. Par exemple, une étude récente a mis en évidence que l'utilisation excessive de données synthétiques peut entraîner une homogénéisation des productions de l'IA, amplifiant les biais et réduisant la diversité des contenus.

    La crise de la vérifiabilité des données

    Un principe fondamental de l'épistémologie scientifique est la possibilité de vérifier la validité des connaissances. Or, si une IA est formée sur des données générées par une autre IA, il devient de plus en plus difficile de retracer l'origine des informations. Cette opacité algorithmique représente un défi majeur pour la gouvernance des systèmes intelligents.Comme le souligne un rapport de l'Université de Stanford, l'appétit insatiable des modèles de langage pour les données pourrait les conduire à une pénurie de "nourriture numérique" dans les années à venir, rendant la traçabilité et la vérification des données encore plus complexes (voir l'émission de la RTS "L'intelligence artificielle risque de manquer de données d'ici six ans")

     

    Vers une pénurie de données authentiques

    Des experts alertent sur une possible raréfaction des données humaines de qualité d'ici 2028. La dépendance croissante à des bases de données synthétiques risque de freiner l'évolution des IA, en limitant leur capacité à apprendre de manière pertinente et contextuelle. Comme dit plus haut, on risque un "effondrement du modèle".

    Conséquences philosophiques et épistémologiques

    La boucle autophage de l'intelligence artificielle (IA), où les systèmes d'IA s'entraînent sur des données générées par d'autres IA, soulève des questions profondes sur la nature de la connaissance, l'innovation intellectuelle et la diversité cognitive.

    Les systèmes d'IA, en particulier les modèles de langage, peuvent produire des réponses convaincantes sans véritable compréhension du contenu, un phénomène connu sous le nom d'hallucination. Ces réponses peuvent sembler informées mais manquer de fondement factuel, créant une illusion de savoir.

    L'IA est souvent perçue comme un catalyseur de l'innovation. Cependant, une dépendance excessive aux données générées par l'IA peut conduire à une stagnation créative. Une étude expérimentale a montré que l'exposition à des idées générées par l'IA n'améliore pas la créativité individuelle mais augmente la diversité collective des idées, suggérant que l'IA produit des idées différentes, mais pas nécessairement meilleures (voir "How AI Ideas Affect the Creativity, Diversity, and Evolution of Human Ideas: Evidence From a Large, Dynamic Experiment"). 

    La richesse du savoir humain réside dans sa diversité. Cependant, l'IA, en se basant sur des données homogènes ou biaisées, peut réduire la pluralité des perspectives, conduisant à une érosion de la pensée critique. James Fischer souligne que, comme les bulles de filtres sur les réseaux sociaux, l'IA risque de nous enfermer dans des préjugés si elle ne s'appuie pas sur des sources de données diversifiées (voir notamment l'article «Pourquoi la diversité de pensées est indispensable à l’ère de l’IA», James Fischer)

    Quelles solutions pour préserver les systèmes d'IA ?

    Dans un premier temps, il est essentiel de maintenir un accès privilégié aux données humaines en développant des bases de données issues de sources multiples et vérifiées. Une IA ne doit pas être exclusivement entraînée sur des contenus générés par d'autres IA.La qualité et la diversité des données d'entraînement ont un impact direct sur les performances des modèles d'IA. Comme le souligne un article de Shaip, une formation sur des données limitées ou étroites peut empêcher les modèles d'apprentissage automatique d'atteindre leur plein potentiel et augmenter le risque de fournir de mauvaises prédictions.

    Les gouvernements et les entreprises doivent instaurer des normes de transparence et de traçabilité des données utilisées pour l'apprentissage. Une IA devrait toujours indiquer la provenance de ses sources et le degré de fiabilité des informations produites. L'UNESCO, dans sa Recommandation sur l'éthique de l'intelligence artificielle, souligne l'importance de la transparence et de la traçabilité pour garantir une utilisation responsable de l'IA.

    Les systèmes d'IA pourraient être dotés d'algorithmes de correction dynamique, capables d'identifier et de filtrer les données auto-générées afin de préserver l'intégrité de l'apprentissage. Une étude intitulée "Curating Grounded Synthetic Data with Global Perspectives for Equitable AI" propose une approche pour créer des ensembles de données synthétiques diversifiés et ancrés dans le monde réel, afin d'améliorer la généralisation des modèles d'IA.

    Les acteurs de la data-science et les citoyens doivent être conscients des risques liés à l'auto-alimentation de l'IA. Une éducation critique aux biais algorithmiques et aux limites des IA est essentielle pour anticiper et corriger ces dérives. Les enjeux éthiques de l'intelligence artificielle impliquent, en matière d'éducation, de sensibiliser, d'acculturer et de former les élèves et les enseignants à un usage raisonné des outils d'apprentissage automatique. 

     

    Bref, comment conclure ? Comment ne pas finir dans la caverne de Platon algorithmique ? Nous enfermant dans nos propres boucles ? L’auto-alimentation de l’IA illustre un phénomène paradoxal : en cherchant à s’autonomiser, elle court le risque de se détacher du réel et de s’appauvrir intellectuellement. Cette boucle autophage soulève des enjeux majeurs pour la gouvernance des données et la préservation de la diversité cognitive. La data-philosophie doit jouer un rôle essentiel dans la définition d’une IA éthique, plurielle et connectée à la richesse du savoir humain. Faute de vigilance, nous pourrions voir émerger une IA qui, loin de nous éclairer, ne ferait que recycler les ombres de son propre reflet. Comme le soulignait déjà Hans Jonas (dans Le Principe responsabilité, 1979) "Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre." 

  • Diplômées : Les Pionnières

    pionnières, femmes, droit, égalité, art, sport, sciences, claude mesmin, sonia bressler, Diplômées est une revue de l’Association Française des Femmes diplômées de l’Université. Dans le cadre de ses actions l’association cherche à donner de la visibilité aux femmes dans tous les domaines et notamment la recherche.

    « Les Pionnières », voici un thème qui nous tenait particulièrement à coeur. Par cette expression, nous cherchons, dans ce numéro, à rendre hommage aux femmes qui explorent l’humanité, mais aussi le monde, ou bien l’espace.
    Elles sont plus nombreuses qu’on ne peut le soupçonner. Souvent loin des médias, elles passent sous les espaces traditionnels de visibilité. Ce numéro est consacré à celles d’hier mais aussi d’aujourd’hui. Au travers de plusieurs chapitres et de nombreux articles, il s’agit de tracer des portraits, des parcours, mais aussi de découvrir le lien entre toutes ces femmes.

    Ont participé à ce livre : Marie Bagi, Isabelle Béné, Sonia Bressler, Yvette Cagan, Anne-Sophie Coppin, Annie Crépin, Françoise Dasque, Laurence Frabolot, Jie Gao, Renée Gérard, Stéphanie Gicquel, Nadine Gomez, Alain Janicot, Christine Janin, Fanny Lévy, Claude Mesmin, Isabelle Mons, Elisabeth Nicoli, Sylvina Boissonnas, Michèle Idels, Nadia Pour, Françoise Richard, Hélène Romano, Maria Grazia Soldati, Sylvie Técoutoff, Inès Vissouze de Haven, Laetitia Vivien, Jing Xie.

    • Genre : Essai/Revue
    • ISBN : 979-1097042370
    • Nombre de pages : 372
    • Format : 15,5 x 22 cm 
    • Prix : 22€
  • Culture(s) Numérique(s)

    culture numérique,culture,numérique,épistémologie,philosophie de guerre,sciences

    J'entends déjà les cris des philosophes. Stop. Au coeur du bruit et de la fureur, un monde s'est ouvert.

    Rassurez-vous, il est plus ancien que l'apparition de l'Internet chez chacun d'entre nous. J'entends encore le bruit des premiers modems 56 k. Et c'est bien pour cela que je me bats pour que nous établissions une épistémologie du numérique, distincte de celle du web. La seconde appartenant à la première. 

    Nous devons remonter le fil des créations technologiques pour comprendre. Chaque technologie a engendré sa part de création culturelle. Nous devons à la fois déjà distinguer : l'usage simple (la facilitation de certaines tâches) et l'usage plus complexe (la création d'une oeuvre d'esprit). En d'autres termes, faire du graphisme en se servant de logiciels, de "template" pré-existant n'est pas pour moi de la création pure, c'est une forme d'optimisation. Évidemment nous pourrions dire qu'il s'agit cependant d'une création facilité. 

    Il y aurait donc une "culture numérique" qui serait une connaissance des réseaux, des outils, des arts. Et une "culture numérique" qui serait créative. 

    Donc reprenons. Oui il existe une "culture numérique". Mais attention, nous devons la définir de façon stricte (d'une façon qui ne va pas plaire à la nouvelle génération) et certainement déplaire à ma génération. Mais nous devons faire cet effort :  il s’agit de l’ensemble des productions intellectuelles humaines (soit des oeuvres d’esprit) réalisées à l’aide des outils et du calcul informatiques. En d’autres termes le mot « culture » ici ne trouve sa définition qu’en rapport avec une oeuvre produite (image, son, écriture, peinture, dessin, vidéo, image…).

    Par « numérique » nous devons entendre l’ensemble des procédés et des techniques qui permettent de transformer n’importe quel objet en ensemble de données binaires, les algorithmes informatiques qui traitent ces données ainsi que les procédés qui génèrent des rendus tangibles des résultats obtenus, notamment sous forme visuelle, sonore ou d’objets physiques.

    Les cultures numériques sont donc la rencontre de la production culturelle et artistique avec les sciences et les technologies informatiques.

    En d'autres termes, quand, par exemple Laurie Anderson, en 1981, enregistre un morceau O Superman de manière confidentielle sur le label One Ten Records. Elle entre dans ce que nous pourrions appeler les "cultures numériques". Les techniques de transformation des sons, de sa voix via des synthétiseurs, etc. sont des techniques numériques. 


    Quand le groupe Kraftwerk en 1970 sort son album éponyme. Nous pourrions également les faire entrer dans la préfigurations de la "culture numérique". Leur musique est une transformation des sons de leur environnement. 


    Le plus connu est le morceau Robot, dont voici un live récent mais qui donne la dimension novatrice de ce morceau qui date de 1978. 

     

    Ce morceau est très intéressant car on retrouve des sons du jeu vidéo sorti la même année : Space Invaders.

    Développé par la société japonaise Taito, le jeu sort en 1978 sur borne d'arcade. Il s'agit d'un shoot them up fixe.  Il inspiré de plusieurs médias populaires de l'époque pour réaliser Space Invaderstels que Breakout (premier jeu de casse briques) ou La Guerre des mondes (roman de Herbert Georges Wells). 

    Nous pourrions poursuivre jusqu'à notre présent, avec les représentations des Space Invaders sur les murs de Paris, ou différentes capitales du monde. L'artiste se nomme Invader (il est né en 1969 et diplômé de l'école des Beaux-Arts de Paris). L'aventure a débuté à côté de la place de la Bastille en 1996. Donc depuis plus de vingt ans, l'artiste installe des Space Invaders réalisés en carrelage ou en petit carreaux de mosaïques sur les murs des grandes métropoles internationales, et ce jusque dans l’espace.

    Le programme de l'invasion commence réellement en 1998. Paris est considéré comme le berceau de l’invasion. Invader se définit lui-même comme un hacker de l’espace public propageant dans nos rues un virus de mosaïque. La rue est sa toile, ses invasions des dons à la ville et à ses habitants. Notons qu'il existe également une application téléchargeable depuis le site de l'artiste, qui vous permet de "flasher" et "géolocaliser" l'oeuvre prise.

    Mais revenons dans les années 1970. Avec l'incontournable Pierre Henry. 

    En 1967 il lance Messe pour le Temps présent composée avec Michel Colombier, sur commande de Maurice Béjart pour sa création chorégraphique Ballet du XXe siècle, lors du festival d'Avignon. Neuf tableaux se succèdent (le Souffle, le Corps, le Monde, la Danse, le Couple, Mein Kampf, la Nuit, le Silence, l'Attente), formant un mélange détonnant. 

    Bref, le morceau le plus connu est évidemment Psyché Rock. 


    Ce morceau a depuis été repris dans de multiples films ou spots publicitaires. Il a également été remixé par de nombreux artistes et musiciens, notamment Fatboy Slim (en 2000).

    L'origine de ce morceau se trouve dans le standard de garage rock Louie Louie écrit par Richard Berry en 1956 et rendu célèbre par les Kingsmen en 1963. 


    Et où la nouvelle génération, peut-elle rencontrer ce morceau Psyché Rock et bien dans le générique du dessin animé Futurama. 


    Les cultures numériques ne sont pas que de simples traces. Elles sont des inventions, des arts mixés, métamorphosés, transformés pour être livrés à un regard public.

    Là vont entrer d'autres dimensions des cultures numériques : la diffusion et l'émergence d'un nouveau public (qui ne nécessite peut-être plus de présence physique).

    La diffusion via des réseaux numériques, mais aussi via l'éducation. Sans compréhension de ce qu'implique la recherche en cultures numériques pas de possibilité d'accéder à cette connaissance.

    Cette diffusion doit donc être la plus libre possible. D'où il résulte la nécessité de résister afin de conserver la neutralité du net. Sans cela les contenus créatifs non labélisés par les monopoles du net se trouveront perdus au sein des algorithmes.  Je rappelle sur ce point les travaux de Hervé Le Crosnier.

    Rappelons seulement que numérique ne s'arrête pas au web. L'acceptation est bien plus large. Elle est technique. Attention également ici aux bouleversements engendrés par "le choc des simplifications" des technologies. Google c'est simple mais cela ne vous donne pas des réponses, cela vous suggère des mots, des liens en fonction de la pertinence par rapport à votre profil. Par exemple. 

    Nous devons donc revenir à notre définition de "cultures numériques" pour tenir face aux pièges de la simplicité, les pièges de l'attention du goût : "il s’agit de l’ensemble des productions intellectuelles humaines (soit des oeuvres d’esprit) réalisées à l’aide des outils et du calcul informatiques".

    Nous devons à l'inverse du numérique, du web ultra-rapide, ultra-connecté, prendre du recul. Nous devons nous interroger sur les nouvelles formes d'art qui émergent et dont les racines numériques sont plus profondes qu'un simple algorithme ou code binaire. 

    Sans doute devons-nous nous pencher sur le cas de l'artiste Du Zhenjun (杜震君). Il crée des installations interactives contemporaines, comportant des capteurs qui permettent de créer des rencontres entre les spectateurs et des personnages virtuels (Présomption, 2000; La tour de Babel, 2003).

    Son travail photographique sur la Tour de Babel nous appelle à nous interroger sur les possibilités de l'art et les ruines de notre monde. Notre oeil doit travailler à comprendre les détails d'un présent sombre, d'un futur noir. Ce n'est pas parce que nous sommes au coeur de la catastrophe annoncée que nous devons fuir. Nous devons nous réinventer au coeur de cette vitesse de passage.

    Nous devons, sans doute, creuser nos neurones, interroger nos connexions numériques (et/ou neuronales) afin de dépasser les paradoxes et définir de nouvelles utopies. Réfléchir au(x) culture(s) numérique(s), c'est poser les bases d'une démocratie liquide éthique avec de nouvelles perspectives d'être au monde.

    À suivre (ou si vous préférez en code binaire : 11100000 00100000 01110011 01110101 01101001 01110110 01110010 01100101 )