François Dominic Laramée, PhD
  • Nouvelles
  • Auteur
  • Historien
  • Jeux vidéo
  • Contact
  • English
  • Nouvelles
  • Auteur
  • Historien
  • Jeux vidéo
  • Contact
  • English

Nouvelles

Intelligence artificielle, stupidité stochastique

3/5/2026

0 Commentaires

 
Il y a un peu plus de vingt-cinq ans, alors que j’effectuais des recherches en bibliothèque dans le cadre de mes études de maîtrise en informatique, je suis tombé sur la traduction anglaise d’un curieux petit volume publié par un ingénieur soviétique en 1984. Le sujet: la programmation d’un ordinateur pour jouer aux échecs.

À l’époque, l’approche privilégiée par les chercheurs qui souhaitaient développer un algorithme capable de vaincre les plus grands maîtres était celle de la force brute. En gros, l’algorithme étudiait tous les coups légaux dans une position donnée, puis toutes les répliques possibles à chacun d’entre eux, puis toutes les répliques à ces répliques, et ainsi de suite jusqu’à ce qu’il ait étudié toutes les séquences de coups d’une “profondeur” donnée. Puis, il évaluait les positions que l’on pouvait atteindre par ces innombrables séquences de coups et choisissait le coup qui menait à la position la plus avantageuse. (Ou, plus précisément, celui qui minimiserait les opportunités de l’adversaire si celui-ci jouait de façon optimale. Une stratégie défensive, mais terriblement efficace.)

L’auteur du volume en question, lui, trouvait cette approche détestable. Les grands maîtres des échecs, affirmait-il, n’étudient pas tous les coups possibles, loin de là. Ils se concentrent sur une poignée de coups prometteurs (rarement plus de deux ou trois) et prédisent leurs conséquences cinq, dix ou vingt répliques plus tard. Si l’on voulait que l’ordinateur puisse rivaliser avec les grands maîtres, ne vaudrait-il pas mieux développer un algorithme capable de reproduire leurs raisonnements?

Le problème: personne ne pouvait dire comment les grands maîtres séparaient les coups prometteurs à évaluer des coups médiocres à ignorer. Surtout pas les grands maîtres eux-mêmes. Guidés par un mélange d’instinct et d’expérience, les grands maîtres ne “voyaient” que les meilleures options, c’est tout. Et notre ingénieur soviétique le savait mieux que quiconque, puisqu’il était nul autre que Mikhail Botvinnik, cinq fois champion du monde des échecs!

Botvinnik a consacré de longues années à tenter, sand trop de succès, de codifier ces connaissances informelles qui déterminaient le raisonnement des grands joueurs. A posteriori, on peut expliquer son insuccès par le raisonnement statistique suivant:

  • Admettons qu’il existe, dans une position donnée, une vingtaine de coups légaux. (Le véritable nombre est d’environ 35 en milieu de partie et de huit à dix quand il ne reste que quelques pièces sur l’échiquier, mais 20 constitue une moyenne acceptable.)
  • Admettons aussi qu’il existe un et un seul coup optimal à jouer dans une position donnée.
  • Pour reproduire le processus de raisonnement d’un grand maître, il faudrait, rien qu’en observant une position, identifier les deux coups les plus prometteurs, en espérant que le coup optimal se retrouve parmi ceux-ci, et écarter tous les autres. Mais comment faire?
  • Un algorithme naïf, qui choisirait les deux coups à étudier au hasard parmi la vingtaine de coups légaux, ne “trouverait” parmi ceux-ci le meilleur coup que dans 10% des cas. La stratégie de cet algorithme serait à peine plus sophistiquée que celle d’un enfant de cinq ans à qui on viendrait d’expliquer les règles des échecs.
  • Supposons maintenant que nous développions un algorithme très efficace, qui trouverait le meilleur coup dans 95% des cas. Nettement mieux, n’est-ce pas?
  • Pas si vite. Ce qui fait le succès d’un grand maître, c’est sa capacité à prévoir les conséquences des coups qu’il envisage. Pour qu’un algorithme puisse faire la même chose, il devra identifier, pour chaque coup envisagé, les meilleures répliques de l’adversaire, puis les meilleures répliques à ces répliques, etc.
  • Admettons que l’on souhaite prévoir les conséquences d’un coup quatre répliques plus tard, ce qui est très peu pour un grand maître. Un algorithme qui envisage le coup optimal dans 95% des cas ne trouvera tous les coups optimaux dans une séquence de quatre coups que dans (0,95) * (0,95) * (0,95) * (0,95) des cas, soit 81,4%. Il commettra donc une erreur susceptible de laisser une opportunité à l’adversaire une fois sur cinq, ou entre six et dix fois au cours d’une partie. N’importe quel joueur de club le moindrement dégourdi n’en fera qu’une bouchée.
  • Si l’on souhaite étudier les conséquences d’un coup huit répliques plus tard, la probabilité d’inclure le coup optimal à toutes les étapes de la séquence de huit coups tombe à 66%. L’algorithme commettra donc une bourde une fois sur trois.

Il n’est donc pas étonnant que l’approche de Botvinnik, en apparence plus intelligente que la force brute, n’ait mené à rien. Tandis que la force brute (qui ne rate jamais un bon coup, elle, puisqu’elle étudie toutes les positions imaginables) a fini par vaincre le champion du monde.

Et maintenant?

Transposons ce raisonnement statistique dans le domaine de l’intelligence artificielle générative (IAgen), c’est-à-dire dans celui des modèles de langage comme ChatGPT.

L’IAgen détient une connaissance statistique du langage humain. On l’entraîne avec de grandes quantités de textes, ce qui lui permet de savoir à quelle fréquence le mot X précède le mot Y ou le mot Z dans l’ensemble des productions écrites.

Lorsque l’on demande à l’IAgen d’écrire du texte, elle se fie sur cette connaissance statistique du langage pour générer des séquences de mots qui sont statistiquement plausibles. Par exemple, on obtiendra plus souvent la phrase “Il était une fois” que la séquence “Il orange épingle aurait” parce que le mot “il” précède le mot “était” plus souvent que le mot “orange” dans l’ensemble des textes de langue française, etc.

Le choix du prochain mot à ajouter à un texte en cours de production dépend non seulement de cette connaissance statistique, mais aussi du contexte dans lequel on se trouve. Mais attention: ce contexte, dans le cas d’une IAgen, est beaucoup plus limité que pour un être humain. Il s’agit, en gros, de l’ensemble des N mots qui précèdent et de ce que l’on retrouve dans la question de l’utilisateur. C’est ce qui fait en sorte que les modèles d’IAgen commettent des erreurs bêtes, comme recommander à l’utilisateur de marcher jusqu’à un lave-auto pour économiser de l’essence parce qu’ils ne savent pas qu’il ne sert à rien d’aller visiter un lave-auto à pied.

Maintenant, admettons que l’on puisse développer un modèle de langage si efficace qu’il choisit le mot juste à ajouter à un texte dans 99,9% des cas, quelles que soient les circonstances et quel que soit le contexte. Ce qui, vous vous en doutez bien, est extraordinairement optimiste, puisque les contextes à la disposition de l’ordinateur devraient contenir toute l’information nécessaire pour prendre une décision (y compris à quoi servent les lave-autos) dans tous les cas imaginables.

Eh! bien, il y a à peine une chance sur trois que ce modèle puisse produire un texte de 1 000 mots sans commettre une bourde. En effet, (0,999 * 0,999 * … * 0,999), où 0,999 est multiplié par lui-même mille fois, est égal à un peu moins de 37%.

Pire: un modèle de langage qui choisit le mot optimal dans 99% des cas commettra au moins une erreur au cours de la production d’un paragraphe de 69 mots sur deux.

Certaines de ces erreurs seront faciles à trouver, comme “il orange”. D’autres, non. George Clooney et Denzel Washington sont deux acteurs renommés; si vous demandez à un modèle de langage qui a gagné l’Oscar du meilleur acteur en 2010, saurez-vous si le modèle vous dit la vérité en vous répondant l’un ou l’autre? (Ni l’un ni l’autre: le gagnant était Jeff Bridges.)

Et bien entendu, moins il y a de données pertinentes pour un sujet dans le corpus d’entraînement du modèle, moins celui-ci sera précis et plus il sera tenté de fabuler pour répondre quand même à votre question. J’y reviendrai peut-être un de ces jours.

La leçon

Le cerveau humain recherche constamment des motifs. C’est une question de survie. La littérature populaire sur les neurosciences et l’évolution mentionne parfois l’exemple du serpent caché dans l’herbe: si notre cerveau croit voir un serpent alors qu’il n’y en a pas, nous en serons quittes pour une bonne frousse, mais s’il ne détecte pas un serpent qui est bien présent, nous pourrions en mourir.

Nous cherchons aussi des signes d’intelligence dans ce qui est produit par l’IAgen. Il ne s’agit pourtant que de séquences de mots statistiquement plausibles, ou de l’équivalent visuel dans le cas des modèles qui produisent des images. Rien de plus. Le résultat peut être convaincant, mais le modèle ne peut en aucun cas savoir si ce qu’il dit est vrai ou faux—ce qui constitue la définition-même de la boulechite, selon le philosophe américain Harry G. Frankfurt.

La seule façon de vous assurer que votre texte généré par l’IA n’est pas truffé de bêtises, c’est d’être en mesure de tout contre-vérifier, c’est-à-dire d’avoir fait le travail vous-même au préalable ou de le reproduire après coup. Auquel cas vous n’avez probablement rien gagné en termes d’efficacité.

Connaissez-vous beaucoup de gens qui se donnent cette peine?

Bonne chance…

0 Commentaires

10 suggestions de divertissement pour 2026

1/1/2026

0 Commentaires

 
Voici mon Top 10 de produits culturels autres que des lectures qui ont fait mon bonheur en 2025:

Mentions honorables: PLURIBUS (Apple TV), YOUR FRIENDS AND NEIGHBORS (Netflix), THE RESIDENCE (Netflix), SID MEIER'S CIVILIZATION VII (Jeu vidéo)

10. WOODEN SHAPES, un sextuor à cordes qui jour du rock et du métal au violon, à l'alto, au violoncelle et à la contrebasse. Allez les voir s'ils passent dans votre région; vous les avons vus à la maison de la culture Villebon de Beloeil, qui compte une soixantaine de places bien tassées, alors ils pourraient bien se retrouver tout près de chez vous.

9. MENTEUSE, avec Anne-Élizabeth Bossé. Déjanté à souhait, et peut-être même un peu trop, mais tellement plein de bons flashes comiques.

8. NORTH OF NORTH (CBC/Netflix). Une comédie qui se déroule dans une version fictive d'Iqaluit, au Nunavut. On y met en valeur les cultures du grand nord et on se moque gentiment de la directrice du centre communautaire, une blanche très blanche interprétée par Mary Lynn Rajskub (Chloe dans 24!) qui ne comprend visiblement pas grand chose à ce qui l'entoure.

7. ANDOR (Disney+). J'ai aimé la première saison davantage que la deuxième, mais les moments forts de la deuxième sont supérieurs à ceux de la première. La mise en scène de la façon dont les médias peuvent mentir pour paver la voie au fascisme est à couper le souffle.

6. PARADISE (Disney+). Sterling K. Brown à son meilleur dans la meilleure série de science-fiction dystopique de la décennie. Et ce n'est pas parce qu'il y a un manque de compétition.

5. ADOLESCENCE (Netflix). Tout a été dit sur cet OVNI télévisuel en quatre épisodes sur la violence, les réseaux sociaux et la santé mentale. Je ne reviens pas encore du fait que le terrifiant personnage principal, un ado d'à peine 13 ans dans la vraie vie, n'avait jamais mis le pied sur un plateau de tournage professionnel avant de tourner un épisode en huis clos où sa performance est digne de Jack Nicholson ou d'Hannibal Lector.

4. THE PITT (Crave). Pour qu'une série médicale m'accroche, il faut qu'elle soit extraordinaire. Celle-là l'est.

3. BROADWAY ACROSS CANADA, et en particulier la soufflante représentation de HAMILTON que j'ai vue à la fin de l'été. Les billets sont chers, mais les productions valent chaque dollar.

2. EMPATHIE (Crave). Un tour de force. Réussir à nous attacher à des personnages tout croches, dont certains sont même méchants, dans un hôpital psychiatrique? Wow!

1. LES BLUE JAYS! L'équipe avait fini dernière en 2024, tous les joueurs autonomes que le DG a signés pendant l'hiver ont foiré d'aplomb et/ou ont passé la moitié de l'année blessés, et malgré tout ils sont passés à trois centimètres de gagner le septième match de la Série mondiale. Je n'avais pas eu autant de plaisir à regarder du baseball depuis 1994.
0 Commentaires

11 suggestions de lectures pour 2026

1/1/2026

0 Commentaires

 
J'ai lu 62 livres en 2025, plus des morceaux de plusieurs autres pour fins de recherche. C'est un peu moins que l'année précédente (68) mais plus que l'objectif que je m'étais fixé (50).

Ma liste de lecture a aussi été moins éclectique qu'à l'habitude, puisque j'ai consacré la majeure partie de l'année à chercher des "comparables" pour mon propre roman. Les comparables constituent un outil de marketing incontournable; les lettres de présentation aux agences et aux maisons d'édition doivent toutes contenir quelque chose comme: "Ce livre ressemble à X, mais avec quelques éléments de Y et peut-être de Z", où X, Y et Z sont des ouvrages récents (~2 ans ou moins) qui ont connu du succès dans le même genre que l'oeuvre soumise ou dans un genre connexe, mais pas trop de succès pour que l'auteur qui s'y compare n'ait pas l'air d'avoir la folie des grandeurs. Donc, les trois quarts de ce que j'ai lu en 2025 étaient des romans de fantasy, science-fiction ou romantasy de 2023 ou plus récents, et tous en anglais. Ce sera différent sur tous les points en 2026.

Ceci dit, voici 11 lectures que je vous recommande, dans un ordre arbitraire.

WHAT DOES IT FEEL LIKE? de Sophie Kinsella -- Une fictionalisation du combat de l'autrice contre le cancer, qui l'a emportée en fin d'année. Un livre coup de poing, qui jure évidemment avec le ton léger de la plupart des romans de SK, et qui démontre qu'elle n'avait pas encore fini de nous montrer son talent. Crisse de cancer.

THE RIVER HAS ROOTS d'Amal El-Mohtar. Une fable poétique sur l'amour familial et romantique, dans un univers intensément créatif. Un tout petit livre qui se lit en une soirée mais où chaque phrase, ou presque, apporte un nouveau délice.

OLD MAN'S WAR de John Scalzi. Au lieu de mourir de vieillesse, enrôlez-vous dans l'armée intersidérale. On vous donnera un nouveau corps et une nouvelle vie. Sauf que... Cet ouvrage est un jeune classique; le 6e ou le 7e volume de la série a été lancé cette année. Du bonbon.

ANNIE BOT de Sierra Greer. Une étude (une autre) des limites au-delà desquelles une intelligence artificielle devient humaine. Captivant, et combien pertinent par les temps qui courent.

La trilogie THE INTERDEPENDENCY de John Scalzi. Oui, encore lui! Le réseau de "flot" qui relie les planètes d'un empire galactique où chaque monde est dépendant des autres pour la survie est en train de se désagréger. Un thriller politique amusant, qui exploite à la perfection les dialogues en mitraille qui ont fait le succès de l'auteur. J'ai adoré Kiva Lagos, si mal engueulée que le narrateur à la troisième personne ne cesse de jurer lors des scènes qui la mettent en vedette!

ENSHITTIFICATION de Cory Doctorow. Pourquoi tout va toujours de plus en plus mal dans le monde de la technologie et comment faire pour que ça change. Décourageant par moment, mais tellement pertinent.

MY NAME IS EMILIA DES VALLE d'Isabel Allende. L'histoire d'une journaliste américaine qui part à la recherche de ses origines chiliennes pendant la guerre civile qui déchire ce pays. J'ai vu quelques critiques qui accusent Allende de se répéter par rapport à ses romans précédents; comme c'était ma première expérience avec elle, je ne peux pas me prononcer là-dessus, mais j'ai adoré.

THE GUNCLE de Steven Rowley. Un acteur gai dont la carrière ne va nulle part hérite des enfants de son frère pour trois mois, alors que celui-ci part en cure de désintox après la mort de sa femme (mère des enfants et amie de toujours du personnage principal). Une comédie sur le deuil, ça ne court pas les rues, mais celle-là est extrêmement bien ficelée.

FOURTH WING de Rebecca Yarros. Une jeune femme qui se destine à une carrière de bibliothécaire se retrouve parachutée dans une école de pilotes de dragons. Tout le monde s'attend à ce que ça finisse mal, jusqu'à ce que l'héroïne soit adoptée par deux dragons à la fois (chose inédite): un énorme mâle très puissant et extrêmement sarcastique et un bébé capable d'arrêter le temps. Le troisième volume de cette série a été parmi les plus gros vendeurs de l'année, toutes catégories confondues. L'univers fantastique est convaincant; l'aspect romantasy est plus bancal.

HIGHER MAGIC de Courtney Floyd. Des étudiants en magie aux cycles supérieurs doivent composer avec la pression de réussir, l'anxiété, des handicaps et les préjugés du monde universitaire. Raide et peut-être trop "woke" au goût de certains, mais brillant.

THE INCANDESCENT d'Emily Tesh. La vie dans une école de magiciens pour gosses de riches installée dans la campagne anglaise, du point de vue d'une des profs qui y enseignent.

BABEL, de R.F. Kuang. Un institut de magie à l'Université d'Oxford qui pue le colonialisme et l'exploitation. C'est glauque et parfois un tantinet trop lent, mais captivant.

En fin de compte, j'ai retenu THE INCANDESCENT comme comparable principal et HIGHER MAGIC et l'ensemble de l'oeuvre de John Scalzi comme compléments. BABEL est un peu trop vieux pour servir, mais je m'attaque bientôt à KATABASIS, le dernier ouvrage de Kuang, au cas où j'aurais besoin de réviser mon pitch de vente le mois prochain...
0 Commentaires

IA générative, stratégies d'adaptation et passeports pour nulle part

12/31/2025

0 Commentaires

 
Je ne suis pas de ceux qui haïssent l’intelligence artificielle (IA). Il faudrait que je sois un hypocrite de classe mondiale pour prétendre le contraire.

La dernière fois que j’ai occupé un quasi-emploi à quasi-temps plein, c’était dans une entreprise qui développait des solutions d’IA pour la reconnaissance de la parole—en 1998-99. Les fondations de mon doctorat en histoire numérique sont solidement ancrées dans les statistiques et l’apprentissage automatique. Et si un certain professeur n’était pas parti en sabbatique au pire moment, j’aurais choisi l’IA comme champ de recherche lors de ma première tentative de doctorat, qui remonte aux ténèbres de 1991; qui sait, peut-être aurais-je persévéré et serais-je devenu un chercheur de carrière en informatique plutôt que de m’enfuir pour joindre le cirque du développement de jeux vidéo?

Ceci dit, toutes les IA ne sont pas équivalentes. L’IA générative, qui asphyxie le discours sur la place publique depuis deux ans pour mieux enfler une bulle spéculative boursière qui ne peut que nous éclater au visage, ne représente absolument pas l’apprentissage automatique dans son ensemble. Encore moins la totalité du champ de l’intelligence artificielle.

Pour dire les choses crûment: l’IA est fascinante, mais l’IA générative est une cochonnerie.

Pourquoi ne devrais-je pas être forcé d’écrire cet essai

Au plan éthique, l’IA générative est indéfendable. Vous connaissez déjà les raisons. Les données d’entraînement volées. Le criminel gaspillage d’eau douce et d’énergie. L’emmerdification du travail, qui dégénère un peu plus à chaque fois que l’on doit réparer une bouette d’IA plutôt que de s’attaquer à des tâches utiles. (J’utilise ici l’expression bouette d’IA pour traduire AI slop.) Les hallucinations, c’est-à-dire les mensonges, qui pourrissent les cerveaux et polluent tout ce qu’elles touchent, des brefs juridiques rédigés par des paresseux jusqu’aux rapports gouvernementaux sur… l’éthique de l’IA. Sans parler des personnes vulnérables poussées au suicide par leurs robots conversationnels, ce qui devrait suffire à bannir cette technologie et à faire livrer ses promoteurs à La Haye, pieds et poings liés.

Et pourtant, des “auteurs/autrices” continuent à “écrire” des romans, des nouvelles et des articles avec l’IA générative. Pourquoi?

Ignorons pour le moment les cas pathologiques: les paresseux en phase terminale, les fraudeurs impénitents, etc. Qu’ils aillent au diable! Je m’intéresse ici aux personnes qui utilisent l’IA générative de relativement bonne foi. Et j’ai identifié deux caractéristiques du marché de l’édition qui pourraient être en cause.

Attention: ni l’une, ni l’autre de ces justifications ne me semble bonne. Elles reposent cependant sur un fond de vérité qui exige que l’on s’y attarde.

L’IA est une échelle qui ne mène nulle part

La première raison d’utiliser l’IA, c’est qu’elle facilite le travail. Évidemment; inventer une histoire qui se tient, c’est tout un défi. Fignoler chaque scène, chaque paragraphe, voire chaque mot jusqu’à en faire une oeuvre d’art? Encore pire. Et la compétition est tellement féroce que même nos plus durs efforts ne sont pas toujours couronnés de succès.

L’ingénierie d’amorces (prompt engineering), c’est un jeu d’enfant en comparaison. C’est de là que provient toute la valeur de l’IA générative, selon ses promoteurs: elle nous permet d’obtenir des résultats sans passer par le processus de création sous-jacent.

Le problème? Ce qui rend l’écriture agréable, c’est justement ce processus et l’effort qu’on y consacre.

Avez-vous déjà tapé une ligne de dialogue et réalisé que les mots qui apparaissaient à l’écran n’étaient pas ceux que vous attendiez? Que votre subconscient avait bifurqué dans une direction inattendue et donné à votre personnage quelque chose à dire ou à faire qui était beaucoup plus intéressant que ce qui se retrouvait dans votre synopsis? Y a-t-il une sensation plus excitante? À part peut-être celle de trouver enfin la tournure de phrase ou la figure de style qui apporte à votre oeuvre la touche finale que vous recherchiez?

Aucun robot conversationnel ne pourra jamais régurgiter quoi que ce soit d’aussi satisfaisant, parce que le texte produit par l’IA ne vous appartient pas. Au mieux, vous ressentirez le même quasi-plaisir malsain qu’un patron véreux qui s’approprie le travail d’un subordonné pour mieux paraître aux yeux de la haute direction. Est-ce que c’est ça que vous recherchez? Ne méritez-vous pas mieux?

Bien sûr, si vous effectuez une belle découverte en cours d’écriture, vous devrez peut-être réviser une scène antérieure en conséquence. Peut-être faudra-t-il même revoir toute la charpente de votre histoire, jusqu’à ce qu’elle trouve un nouvel équilibre. Mais ça aussi, c’est passionnant. Les êtres humains sont des machines à résoudre les problèmes. Laisser un vulgaire algorithme concevoir votre histoire équivaut à engager quelqu’un d’autre pour résoudre vos sudokus à votre place. Quoi de plus futile?

L’IA en tant que stratégie d’adaptation

La deuxième raison de faire appel à l’IA en cours d’écriture est plus sournoise, parce qu’elle s’ancre dans la nature humaine et parce qu’il n’existe pas de contre-argument aussi direct que celui que je viens d’invoquer.

Il s’agit de la peur de l’échec.

Dans le triste monde de l’édition, il y a des barrières partout. Les requêtes envoyées aux agents littéraires restent sans réponses. Les magazines n’achètent qu’une infime fraction des histoires proposées. La plupart des manuscrits ne sont jamais publiés ou ne parviennent pas à soutirer plus qu’un haussement collectif d’épaules sur le marché. Un véritable bain de sang.

En d’autres termes: pour beaucoup d’entre nous, le plaisir de l’écriture doit constituer sa propre récompense parce qu’il n’y en aura jamais d’autre.

(Laissez-moi vous raconter une anecdote déprimante. Le milieu de l’édition savante est reconnu pour être extraordinairement compétitif et cruel. Eh! bien, pendant toutes mes années en milieu universitaire, aucune revue n’a jamais rejeté un de mes manuscrits. Pas une seule fois. Les presses de mon université m’ont même approché elles-mêmes pour offrir de publier ma thèse sous forme de livre, après que j’aie gagné un prix prestigieux, sans que je ne lève le petit doigt. Pourtant, depuis que j’ai replongé dans le milieu de l’édition littéraire, en octobre dernier, après des décennies de succès en tant qu’auteur pour la télévision, la scène, etc., je n’ai essuyé que des refus. Ouais.)

Bon, je sais que nous sommes censés nous fabriquer des carapaces et apprendre à vivre avec le rejet.

Bullshit.

Nommez-moi un auteur à qui cela ne fait pas mal. Un seul. J’attends.

Et cette douleur, c’est la fissure à travers laquelle l’IA susurre son poison: “Laisse-moi faire le travail à ta place. Si tu n’investis pas sang et eau dans ton écriture, tu ne souffriras pas autant lorsqu’elle sera rejetée.”

C’est un argument épouvantable, mais contre lequel je n’ai pas de réplique. En effet, si ce n’est plus votre premier-né qui se retrouve attaché sur l’autel du sacrifice, mais bien plutôt une sorte de lointain cousin que vous ne reconnaîtriez même pas si vous le croisiez lors d’un mariage, cela ne vous paraîtra peut-être plus aussi grave…

Et qu’est-ce qu’on fait, maintenant?

En tant que détracteur de l’IA générative en littérature, je me retrouve quelque peu coincé. Invoquer l’argument du plaisir de l’écriture (ou n’importe quelle raison évoquée dans l’introduction de cet essai) pour convaincre autrui de se passer de cette technologie implique que je lui demande aussi d’accepter davantage de souffrance en cas d’échec. Ce qui… n’est pas génial.

D’autant plus que les êtres humains sont bâtis pour éviter la douleur. Grosso modo, l’individu lambda n’accepterait un pari équitable que s’il avait la chance de gagner deux dollars pour chaque dollar qu’il risquerait de perdre. (Cela semble bizarre, mais il s’agit de l’un des fondements de la théorie des perspectives, qui a valu à Daniel Kahneman une part du prix Nobel d’économie en 2002.) Donc, non seulement suis-je en train de demander à autrui d’accepter de subir un tort, mais en plus je lui demande d’aller à l’encontre de la nature humaine au passage.

Je n’ai pas encore trouvé de solution objectivement satisfaisante à ce dilemme. Tout au plus suis-je parvenu à un compromis temporaire qui me suffit à moi-même, pour le moment. Il repose sur ces trois postulats:

  1. La joie suscitée par une seule publication sera plus importante que la peine provoquée par X rejets, pour toutes les valeurs de X inférieures à un paramètre N relativement élevé (mais pas infini).
  2. Il est possible d’augmenter la probabilité de succès, et donc de diminuer la probabilité de rejet, en travaillant sur mon art avec acharnement et en effectuant une mise en marché efficace.
  3. Si jamais X excède N, il sera toujours possible de profiter des joies de l’écriture sans subir les contrecoups de l’échec en cessant de soumettre mon travail pour publication.

La valeur du paramètre N dépend bien sûr de chaque individu. (Je soupçonne que la mienne sera plus basse que la moyenne.) L’important, c’est de se donner le temps nécessaire pour la déterminer.

Un an. C’est le délai que j’ai choisi. Nous verrons bien, à ce moment-là, si la théorie tient debout.

En attendant, n’utilisez pas l’IA générative. C’est vraiment de la cochonnerie.
0 Commentaires
<<Page précédente

    Auteur

    François Dominic Laramée est un auteur et historien québécois.

    Archives

    Janvier 2026
    Décembre 2025
    Septembre 2025
    Janvier 2025
    Octobre 2022
    Juillet 2022
    Septembre 2021
    Décembre 2020
    Juin 2020
    Janvier 2020
    Octobre 2019
    Septembre 2019
    Juin 2019
    Mai 2019
    Février 2019
    Janvier 2019
    Décembre 2018
    Octobre 2018
    Août 2018
    Mai 2018
    Avril 2018
    Mars 2018
    Février 2018
    Janvier 2018
    Décembre 2017
    Octobre 2017
    Août 2017
    Juillet 2017
    Juin 2017
    Mai 2017
    Avril 2017
    Mars 2017
    Février 2017
    Janvier 2017
    Octobre 2016
    Avril 2016
    Mars 2016
    Septembre 2015
    Janvier 2015
    Août 2014

    Catégories

    Tous
    Articles
    Communications
    Conférences
    Édition
    Édition
    Emploi
    Essais
    IA
    Lectures
    N'importe Quoi
    Outils
    PhD
    Recensions
    Service

    Flux RSS

    Crédit image d'en-tête: Abhi Sharma, Flickr
    CC BY 2.0

Propulsé par Créez votre propre site Web à l'aide de modèles personnalisables.