|
Il y a un peu plus de vingt-cinq ans, alors que j’effectuais des recherches en bibliothèque dans le cadre de mes études de maîtrise en informatique, je suis tombé sur la traduction anglaise d’un curieux petit volume publié par un ingénieur soviétique en 1984. Le sujet: la programmation d’un ordinateur pour jouer aux échecs.
À l’époque, l’approche privilégiée par les chercheurs qui souhaitaient développer un algorithme capable de vaincre les plus grands maîtres était celle de la force brute. En gros, l’algorithme étudiait tous les coups légaux dans une position donnée, puis toutes les répliques possibles à chacun d’entre eux, puis toutes les répliques à ces répliques, et ainsi de suite jusqu’à ce qu’il ait étudié toutes les séquences de coups d’une “profondeur” donnée. Puis, il évaluait les positions que l’on pouvait atteindre par ces innombrables séquences de coups et choisissait le coup qui menait à la position la plus avantageuse. (Ou, plus précisément, celui qui minimiserait les opportunités de l’adversaire si celui-ci jouait de façon optimale. Une stratégie défensive, mais terriblement efficace.) L’auteur du volume en question, lui, trouvait cette approche détestable. Les grands maîtres des échecs, affirmait-il, n’étudient pas tous les coups possibles, loin de là. Ils se concentrent sur une poignée de coups prometteurs (rarement plus de deux ou trois) et prédisent leurs conséquences cinq, dix ou vingt répliques plus tard. Si l’on voulait que l’ordinateur puisse rivaliser avec les grands maîtres, ne vaudrait-il pas mieux développer un algorithme capable de reproduire leurs raisonnements? Le problème: personne ne pouvait dire comment les grands maîtres séparaient les coups prometteurs à évaluer des coups médiocres à ignorer. Surtout pas les grands maîtres eux-mêmes. Guidés par un mélange d’instinct et d’expérience, les grands maîtres ne “voyaient” que les meilleures options, c’est tout. Et notre ingénieur soviétique le savait mieux que quiconque, puisqu’il était nul autre que Mikhail Botvinnik, cinq fois champion du monde des échecs! Botvinnik a consacré de longues années à tenter, sand trop de succès, de codifier ces connaissances informelles qui déterminaient le raisonnement des grands joueurs. A posteriori, on peut expliquer son insuccès par le raisonnement statistique suivant:
Il n’est donc pas étonnant que l’approche de Botvinnik, en apparence plus intelligente que la force brute, n’ait mené à rien. Tandis que la force brute (qui ne rate jamais un bon coup, elle, puisqu’elle étudie toutes les positions imaginables) a fini par vaincre le champion du monde. Et maintenant? Transposons ce raisonnement statistique dans le domaine de l’intelligence artificielle générative (IAgen), c’est-à-dire dans celui des modèles de langage comme ChatGPT. L’IAgen détient une connaissance statistique du langage humain. On l’entraîne avec de grandes quantités de textes, ce qui lui permet de savoir à quelle fréquence le mot X précède le mot Y ou le mot Z dans l’ensemble des productions écrites. Lorsque l’on demande à l’IAgen d’écrire du texte, elle se fie sur cette connaissance statistique du langage pour générer des séquences de mots qui sont statistiquement plausibles. Par exemple, on obtiendra plus souvent la phrase “Il était une fois” que la séquence “Il orange épingle aurait” parce que le mot “il” précède le mot “était” plus souvent que le mot “orange” dans l’ensemble des textes de langue française, etc. Le choix du prochain mot à ajouter à un texte en cours de production dépend non seulement de cette connaissance statistique, mais aussi du contexte dans lequel on se trouve. Mais attention: ce contexte, dans le cas d’une IAgen, est beaucoup plus limité que pour un être humain. Il s’agit, en gros, de l’ensemble des N mots qui précèdent et de ce que l’on retrouve dans la question de l’utilisateur. C’est ce qui fait en sorte que les modèles d’IAgen commettent des erreurs bêtes, comme recommander à l’utilisateur de marcher jusqu’à un lave-auto pour économiser de l’essence parce qu’ils ne savent pas qu’il ne sert à rien d’aller visiter un lave-auto à pied. Maintenant, admettons que l’on puisse développer un modèle de langage si efficace qu’il choisit le mot juste à ajouter à un texte dans 99,9% des cas, quelles que soient les circonstances et quel que soit le contexte. Ce qui, vous vous en doutez bien, est extraordinairement optimiste, puisque les contextes à la disposition de l’ordinateur devraient contenir toute l’information nécessaire pour prendre une décision (y compris à quoi servent les lave-autos) dans tous les cas imaginables. Eh! bien, il y a à peine une chance sur trois que ce modèle puisse produire un texte de 1 000 mots sans commettre une bourde. En effet, (0,999 * 0,999 * … * 0,999), où 0,999 est multiplié par lui-même mille fois, est égal à un peu moins de 37%. Pire: un modèle de langage qui choisit le mot optimal dans 99% des cas commettra au moins une erreur au cours de la production d’un paragraphe de 69 mots sur deux. Certaines de ces erreurs seront faciles à trouver, comme “il orange”. D’autres, non. George Clooney et Denzel Washington sont deux acteurs renommés; si vous demandez à un modèle de langage qui a gagné l’Oscar du meilleur acteur en 2010, saurez-vous si le modèle vous dit la vérité en vous répondant l’un ou l’autre? (Ni l’un ni l’autre: le gagnant était Jeff Bridges.) Et bien entendu, moins il y a de données pertinentes pour un sujet dans le corpus d’entraînement du modèle, moins celui-ci sera précis et plus il sera tenté de fabuler pour répondre quand même à votre question. J’y reviendrai peut-être un de ces jours. La leçon Le cerveau humain recherche constamment des motifs. C’est une question de survie. La littérature populaire sur les neurosciences et l’évolution mentionne parfois l’exemple du serpent caché dans l’herbe: si notre cerveau croit voir un serpent alors qu’il n’y en a pas, nous en serons quittes pour une bonne frousse, mais s’il ne détecte pas un serpent qui est bien présent, nous pourrions en mourir. Nous cherchons aussi des signes d’intelligence dans ce qui est produit par l’IAgen. Il ne s’agit pourtant que de séquences de mots statistiquement plausibles, ou de l’équivalent visuel dans le cas des modèles qui produisent des images. Rien de plus. Le résultat peut être convaincant, mais le modèle ne peut en aucun cas savoir si ce qu’il dit est vrai ou faux—ce qui constitue la définition-même de la boulechite, selon le philosophe américain Harry G. Frankfurt. La seule façon de vous assurer que votre texte généré par l’IA n’est pas truffé de bêtises, c’est d’être en mesure de tout contre-vérifier, c’est-à-dire d’avoir fait le travail vous-même au préalable ou de le reproduire après coup. Auquel cas vous n’avez probablement rien gagné en termes d’efficacité. Connaissez-vous beaucoup de gens qui se donnent cette peine? Bonne chance…
0 Commentaires
Voici mon Top 10 de produits culturels autres que des lectures qui ont fait mon bonheur en 2025:
Mentions honorables: PLURIBUS (Apple TV), YOUR FRIENDS AND NEIGHBORS (Netflix), THE RESIDENCE (Netflix), SID MEIER'S CIVILIZATION VII (Jeu vidéo) 10. WOODEN SHAPES, un sextuor à cordes qui jour du rock et du métal au violon, à l'alto, au violoncelle et à la contrebasse. Allez les voir s'ils passent dans votre région; vous les avons vus à la maison de la culture Villebon de Beloeil, qui compte une soixantaine de places bien tassées, alors ils pourraient bien se retrouver tout près de chez vous. 9. MENTEUSE, avec Anne-Élizabeth Bossé. Déjanté à souhait, et peut-être même un peu trop, mais tellement plein de bons flashes comiques. 8. NORTH OF NORTH (CBC/Netflix). Une comédie qui se déroule dans une version fictive d'Iqaluit, au Nunavut. On y met en valeur les cultures du grand nord et on se moque gentiment de la directrice du centre communautaire, une blanche très blanche interprétée par Mary Lynn Rajskub (Chloe dans 24!) qui ne comprend visiblement pas grand chose à ce qui l'entoure. 7. ANDOR (Disney+). J'ai aimé la première saison davantage que la deuxième, mais les moments forts de la deuxième sont supérieurs à ceux de la première. La mise en scène de la façon dont les médias peuvent mentir pour paver la voie au fascisme est à couper le souffle. 6. PARADISE (Disney+). Sterling K. Brown à son meilleur dans la meilleure série de science-fiction dystopique de la décennie. Et ce n'est pas parce qu'il y a un manque de compétition. 5. ADOLESCENCE (Netflix). Tout a été dit sur cet OVNI télévisuel en quatre épisodes sur la violence, les réseaux sociaux et la santé mentale. Je ne reviens pas encore du fait que le terrifiant personnage principal, un ado d'à peine 13 ans dans la vraie vie, n'avait jamais mis le pied sur un plateau de tournage professionnel avant de tourner un épisode en huis clos où sa performance est digne de Jack Nicholson ou d'Hannibal Lector. 4. THE PITT (Crave). Pour qu'une série médicale m'accroche, il faut qu'elle soit extraordinaire. Celle-là l'est. 3. BROADWAY ACROSS CANADA, et en particulier la soufflante représentation de HAMILTON que j'ai vue à la fin de l'été. Les billets sont chers, mais les productions valent chaque dollar. 2. EMPATHIE (Crave). Un tour de force. Réussir à nous attacher à des personnages tout croches, dont certains sont même méchants, dans un hôpital psychiatrique? Wow! 1. LES BLUE JAYS! L'équipe avait fini dernière en 2024, tous les joueurs autonomes que le DG a signés pendant l'hiver ont foiré d'aplomb et/ou ont passé la moitié de l'année blessés, et malgré tout ils sont passés à trois centimètres de gagner le septième match de la Série mondiale. Je n'avais pas eu autant de plaisir à regarder du baseball depuis 1994. J'ai lu 62 livres en 2025, plus des morceaux de plusieurs autres pour fins de recherche. C'est un peu moins que l'année précédente (68) mais plus que l'objectif que je m'étais fixé (50).
Ma liste de lecture a aussi été moins éclectique qu'à l'habitude, puisque j'ai consacré la majeure partie de l'année à chercher des "comparables" pour mon propre roman. Les comparables constituent un outil de marketing incontournable; les lettres de présentation aux agences et aux maisons d'édition doivent toutes contenir quelque chose comme: "Ce livre ressemble à X, mais avec quelques éléments de Y et peut-être de Z", où X, Y et Z sont des ouvrages récents (~2 ans ou moins) qui ont connu du succès dans le même genre que l'oeuvre soumise ou dans un genre connexe, mais pas trop de succès pour que l'auteur qui s'y compare n'ait pas l'air d'avoir la folie des grandeurs. Donc, les trois quarts de ce que j'ai lu en 2025 étaient des romans de fantasy, science-fiction ou romantasy de 2023 ou plus récents, et tous en anglais. Ce sera différent sur tous les points en 2026. Ceci dit, voici 11 lectures que je vous recommande, dans un ordre arbitraire. WHAT DOES IT FEEL LIKE? de Sophie Kinsella -- Une fictionalisation du combat de l'autrice contre le cancer, qui l'a emportée en fin d'année. Un livre coup de poing, qui jure évidemment avec le ton léger de la plupart des romans de SK, et qui démontre qu'elle n'avait pas encore fini de nous montrer son talent. Crisse de cancer. THE RIVER HAS ROOTS d'Amal El-Mohtar. Une fable poétique sur l'amour familial et romantique, dans un univers intensément créatif. Un tout petit livre qui se lit en une soirée mais où chaque phrase, ou presque, apporte un nouveau délice. OLD MAN'S WAR de John Scalzi. Au lieu de mourir de vieillesse, enrôlez-vous dans l'armée intersidérale. On vous donnera un nouveau corps et une nouvelle vie. Sauf que... Cet ouvrage est un jeune classique; le 6e ou le 7e volume de la série a été lancé cette année. Du bonbon. ANNIE BOT de Sierra Greer. Une étude (une autre) des limites au-delà desquelles une intelligence artificielle devient humaine. Captivant, et combien pertinent par les temps qui courent. La trilogie THE INTERDEPENDENCY de John Scalzi. Oui, encore lui! Le réseau de "flot" qui relie les planètes d'un empire galactique où chaque monde est dépendant des autres pour la survie est en train de se désagréger. Un thriller politique amusant, qui exploite à la perfection les dialogues en mitraille qui ont fait le succès de l'auteur. J'ai adoré Kiva Lagos, si mal engueulée que le narrateur à la troisième personne ne cesse de jurer lors des scènes qui la mettent en vedette! ENSHITTIFICATION de Cory Doctorow. Pourquoi tout va toujours de plus en plus mal dans le monde de la technologie et comment faire pour que ça change. Décourageant par moment, mais tellement pertinent. MY NAME IS EMILIA DES VALLE d'Isabel Allende. L'histoire d'une journaliste américaine qui part à la recherche de ses origines chiliennes pendant la guerre civile qui déchire ce pays. J'ai vu quelques critiques qui accusent Allende de se répéter par rapport à ses romans précédents; comme c'était ma première expérience avec elle, je ne peux pas me prononcer là-dessus, mais j'ai adoré. THE GUNCLE de Steven Rowley. Un acteur gai dont la carrière ne va nulle part hérite des enfants de son frère pour trois mois, alors que celui-ci part en cure de désintox après la mort de sa femme (mère des enfants et amie de toujours du personnage principal). Une comédie sur le deuil, ça ne court pas les rues, mais celle-là est extrêmement bien ficelée. FOURTH WING de Rebecca Yarros. Une jeune femme qui se destine à une carrière de bibliothécaire se retrouve parachutée dans une école de pilotes de dragons. Tout le monde s'attend à ce que ça finisse mal, jusqu'à ce que l'héroïne soit adoptée par deux dragons à la fois (chose inédite): un énorme mâle très puissant et extrêmement sarcastique et un bébé capable d'arrêter le temps. Le troisième volume de cette série a été parmi les plus gros vendeurs de l'année, toutes catégories confondues. L'univers fantastique est convaincant; l'aspect romantasy est plus bancal. HIGHER MAGIC de Courtney Floyd. Des étudiants en magie aux cycles supérieurs doivent composer avec la pression de réussir, l'anxiété, des handicaps et les préjugés du monde universitaire. Raide et peut-être trop "woke" au goût de certains, mais brillant. THE INCANDESCENT d'Emily Tesh. La vie dans une école de magiciens pour gosses de riches installée dans la campagne anglaise, du point de vue d'une des profs qui y enseignent. BABEL, de R.F. Kuang. Un institut de magie à l'Université d'Oxford qui pue le colonialisme et l'exploitation. C'est glauque et parfois un tantinet trop lent, mais captivant. En fin de compte, j'ai retenu THE INCANDESCENT comme comparable principal et HIGHER MAGIC et l'ensemble de l'oeuvre de John Scalzi comme compléments. BABEL est un peu trop vieux pour servir, mais je m'attaque bientôt à KATABASIS, le dernier ouvrage de Kuang, au cas où j'aurais besoin de réviser mon pitch de vente le mois prochain... Je ne suis pas de ceux qui haïssent l’intelligence artificielle (IA). Il faudrait que je sois un hypocrite de classe mondiale pour prétendre le contraire.
La dernière fois que j’ai occupé un quasi-emploi à quasi-temps plein, c’était dans une entreprise qui développait des solutions d’IA pour la reconnaissance de la parole—en 1998-99. Les fondations de mon doctorat en histoire numérique sont solidement ancrées dans les statistiques et l’apprentissage automatique. Et si un certain professeur n’était pas parti en sabbatique au pire moment, j’aurais choisi l’IA comme champ de recherche lors de ma première tentative de doctorat, qui remonte aux ténèbres de 1991; qui sait, peut-être aurais-je persévéré et serais-je devenu un chercheur de carrière en informatique plutôt que de m’enfuir pour joindre le cirque du développement de jeux vidéo? Ceci dit, toutes les IA ne sont pas équivalentes. L’IA générative, qui asphyxie le discours sur la place publique depuis deux ans pour mieux enfler une bulle spéculative boursière qui ne peut que nous éclater au visage, ne représente absolument pas l’apprentissage automatique dans son ensemble. Encore moins la totalité du champ de l’intelligence artificielle. Pour dire les choses crûment: l’IA est fascinante, mais l’IA générative est une cochonnerie. Pourquoi ne devrais-je pas être forcé d’écrire cet essai Au plan éthique, l’IA générative est indéfendable. Vous connaissez déjà les raisons. Les données d’entraînement volées. Le criminel gaspillage d’eau douce et d’énergie. L’emmerdification du travail, qui dégénère un peu plus à chaque fois que l’on doit réparer une bouette d’IA plutôt que de s’attaquer à des tâches utiles. (J’utilise ici l’expression bouette d’IA pour traduire AI slop.) Les hallucinations, c’est-à-dire les mensonges, qui pourrissent les cerveaux et polluent tout ce qu’elles touchent, des brefs juridiques rédigés par des paresseux jusqu’aux rapports gouvernementaux sur… l’éthique de l’IA. Sans parler des personnes vulnérables poussées au suicide par leurs robots conversationnels, ce qui devrait suffire à bannir cette technologie et à faire livrer ses promoteurs à La Haye, pieds et poings liés. Et pourtant, des “auteurs/autrices” continuent à “écrire” des romans, des nouvelles et des articles avec l’IA générative. Pourquoi? Ignorons pour le moment les cas pathologiques: les paresseux en phase terminale, les fraudeurs impénitents, etc. Qu’ils aillent au diable! Je m’intéresse ici aux personnes qui utilisent l’IA générative de relativement bonne foi. Et j’ai identifié deux caractéristiques du marché de l’édition qui pourraient être en cause. Attention: ni l’une, ni l’autre de ces justifications ne me semble bonne. Elles reposent cependant sur un fond de vérité qui exige que l’on s’y attarde. L’IA est une échelle qui ne mène nulle part La première raison d’utiliser l’IA, c’est qu’elle facilite le travail. Évidemment; inventer une histoire qui se tient, c’est tout un défi. Fignoler chaque scène, chaque paragraphe, voire chaque mot jusqu’à en faire une oeuvre d’art? Encore pire. Et la compétition est tellement féroce que même nos plus durs efforts ne sont pas toujours couronnés de succès. L’ingénierie d’amorces (prompt engineering), c’est un jeu d’enfant en comparaison. C’est de là que provient toute la valeur de l’IA générative, selon ses promoteurs: elle nous permet d’obtenir des résultats sans passer par le processus de création sous-jacent. Le problème? Ce qui rend l’écriture agréable, c’est justement ce processus et l’effort qu’on y consacre. Avez-vous déjà tapé une ligne de dialogue et réalisé que les mots qui apparaissaient à l’écran n’étaient pas ceux que vous attendiez? Que votre subconscient avait bifurqué dans une direction inattendue et donné à votre personnage quelque chose à dire ou à faire qui était beaucoup plus intéressant que ce qui se retrouvait dans votre synopsis? Y a-t-il une sensation plus excitante? À part peut-être celle de trouver enfin la tournure de phrase ou la figure de style qui apporte à votre oeuvre la touche finale que vous recherchiez? Aucun robot conversationnel ne pourra jamais régurgiter quoi que ce soit d’aussi satisfaisant, parce que le texte produit par l’IA ne vous appartient pas. Au mieux, vous ressentirez le même quasi-plaisir malsain qu’un patron véreux qui s’approprie le travail d’un subordonné pour mieux paraître aux yeux de la haute direction. Est-ce que c’est ça que vous recherchez? Ne méritez-vous pas mieux? Bien sûr, si vous effectuez une belle découverte en cours d’écriture, vous devrez peut-être réviser une scène antérieure en conséquence. Peut-être faudra-t-il même revoir toute la charpente de votre histoire, jusqu’à ce qu’elle trouve un nouvel équilibre. Mais ça aussi, c’est passionnant. Les êtres humains sont des machines à résoudre les problèmes. Laisser un vulgaire algorithme concevoir votre histoire équivaut à engager quelqu’un d’autre pour résoudre vos sudokus à votre place. Quoi de plus futile? L’IA en tant que stratégie d’adaptation La deuxième raison de faire appel à l’IA en cours d’écriture est plus sournoise, parce qu’elle s’ancre dans la nature humaine et parce qu’il n’existe pas de contre-argument aussi direct que celui que je viens d’invoquer. Il s’agit de la peur de l’échec. Dans le triste monde de l’édition, il y a des barrières partout. Les requêtes envoyées aux agents littéraires restent sans réponses. Les magazines n’achètent qu’une infime fraction des histoires proposées. La plupart des manuscrits ne sont jamais publiés ou ne parviennent pas à soutirer plus qu’un haussement collectif d’épaules sur le marché. Un véritable bain de sang. En d’autres termes: pour beaucoup d’entre nous, le plaisir de l’écriture doit constituer sa propre récompense parce qu’il n’y en aura jamais d’autre. (Laissez-moi vous raconter une anecdote déprimante. Le milieu de l’édition savante est reconnu pour être extraordinairement compétitif et cruel. Eh! bien, pendant toutes mes années en milieu universitaire, aucune revue n’a jamais rejeté un de mes manuscrits. Pas une seule fois. Les presses de mon université m’ont même approché elles-mêmes pour offrir de publier ma thèse sous forme de livre, après que j’aie gagné un prix prestigieux, sans que je ne lève le petit doigt. Pourtant, depuis que j’ai replongé dans le milieu de l’édition littéraire, en octobre dernier, après des décennies de succès en tant qu’auteur pour la télévision, la scène, etc., je n’ai essuyé que des refus. Ouais.) Bon, je sais que nous sommes censés nous fabriquer des carapaces et apprendre à vivre avec le rejet. Bullshit. Nommez-moi un auteur à qui cela ne fait pas mal. Un seul. J’attends. Et cette douleur, c’est la fissure à travers laquelle l’IA susurre son poison: “Laisse-moi faire le travail à ta place. Si tu n’investis pas sang et eau dans ton écriture, tu ne souffriras pas autant lorsqu’elle sera rejetée.” C’est un argument épouvantable, mais contre lequel je n’ai pas de réplique. En effet, si ce n’est plus votre premier-né qui se retrouve attaché sur l’autel du sacrifice, mais bien plutôt une sorte de lointain cousin que vous ne reconnaîtriez même pas si vous le croisiez lors d’un mariage, cela ne vous paraîtra peut-être plus aussi grave… Et qu’est-ce qu’on fait, maintenant? En tant que détracteur de l’IA générative en littérature, je me retrouve quelque peu coincé. Invoquer l’argument du plaisir de l’écriture (ou n’importe quelle raison évoquée dans l’introduction de cet essai) pour convaincre autrui de se passer de cette technologie implique que je lui demande aussi d’accepter davantage de souffrance en cas d’échec. Ce qui… n’est pas génial. D’autant plus que les êtres humains sont bâtis pour éviter la douleur. Grosso modo, l’individu lambda n’accepterait un pari équitable que s’il avait la chance de gagner deux dollars pour chaque dollar qu’il risquerait de perdre. (Cela semble bizarre, mais il s’agit de l’un des fondements de la théorie des perspectives, qui a valu à Daniel Kahneman une part du prix Nobel d’économie en 2002.) Donc, non seulement suis-je en train de demander à autrui d’accepter de subir un tort, mais en plus je lui demande d’aller à l’encontre de la nature humaine au passage. Je n’ai pas encore trouvé de solution objectivement satisfaisante à ce dilemme. Tout au plus suis-je parvenu à un compromis temporaire qui me suffit à moi-même, pour le moment. Il repose sur ces trois postulats:
La valeur du paramètre N dépend bien sûr de chaque individu. (Je soupçonne que la mienne sera plus basse que la moyenne.) L’important, c’est de se donner le temps nécessaire pour la déterminer. Un an. C’est le délai que j’ai choisi. Nous verrons bien, à ce moment-là, si la théorie tient debout. En attendant, n’utilisez pas l’IA générative. C’est vraiment de la cochonnerie. |
AuteurFrançois Dominic Laramée est un auteur et historien québécois. Archives
Janvier 2026
Catégories
Tous
Crédit image d'en-tête: Abhi Sharma, Flickr
CC BY 2.0 |
Flux RSS