François Dominic Laramée, PhD
  • Nouvelles
  • Auteur
  • Historien
  • Jeux vidéo
  • Contact
  • English
  • Nouvelles
  • Auteur
  • Historien
  • Jeux vidéo
  • Contact
  • English

Nouvelles

Rapport trimestriel du 31 mars 2026

3/31/2026

0 Commentaires

 
Le 1er janvier 2026, j’ai mis la plupart de mes activités professionnelles sous le boisseau pour prendre une semi-retraite que je consacrerai à l’écriture créative. Afin que celle-ci ne dégénère pas trop vite en orgie de paresse, je produirai à la fin de chaque trimestre une reddition de comptes dans laquelle je dévoilerai ce que j’aurai accompli, en matière de création et d’efforts de mise en marché… et les résultats que j’aurai obtenus en retour. Aidez-moi à rester concentré en lisant ce qui suit et en me tenant responsable d’accomplir mes objectifs du prochain trimestre.

Note: Exceptionnellement, ce premier rapport couvre aussi mes activités lors de la période de transition vers la semi-retraite, qui a commencé à la fin octobre 2025.

Fiction courte
  • Oeuvres complétées, catégorie “novelette” (Entre 8 000 et 20 000 mots): 1
  • Oeuvres complétées, catégorie “nouvelle” (1 000 à 10 000 mots): 4
  • Oeuvre en cours de rédaction, longueur indéterminée: 1
  • Longueur totale des oeuvres complétées: 24 700 mots

  • Soumissions à des magazines: 7
  • Soumissions à des anthologies: 1
  • Refus encaissés: 4
  • Soumissions en cours d’évaluation: 4

La compétition est féroce. Un auteur que j’admire beaucoup, Scott Edelman, m’a dit avoir entre 9 et 15 textes en circulation à n’importe quel moment et avoir encaissé jusqu’à 82 refus en une seule année. Il faut garder les dents bien serrées…

Roman #1: Unconquered Magic

Rédaction
  • Manuscrit complété (91 000 mots) en octobre 2025.

Mise en marché: agences littéraires
  • Agences contactées: 36
  • Refus encaissés: 19
  • Propositions caduques, faute de réponse à l’intérieur des délais promis par l’agence: 4
  • Proposition caduque parce que l’agence était fermée aux soumissions même si son site web indiquait le contraire: 1
  • Propositions en cours d’évaluation par les agences: 12

  • Proposition en cours d’évaluation depuis le plus longtemps: soumise le 27 novembre 2025.
  • Proposition en cours d’évaluation depuis le moins longtemps: soumise le 1er mars 2026.
  • Propositions rejetées en moins d’un mois: 12
  • Propositions rejetées en un à trois mois: 3
  • Propositions rejetées après plus de trois mois: 4
  • Record de la proposition rejetée le plus rapidement: 49 minutes, un vendredi sur l’heure du lunch. (Cet agent aurait pu finir son shawarma avant de me fermer la porte au nez, je lui aurais aisément pardonné un tel manque de diligence.)

Lorsqu’une agence tarde à répondre (sans avoir dépassé la date-limite à laquelle le refus devient automatique), c’est plutôt bon signe: la proposition a vraisemblablement franchi la première étape et l’agence évalue s’il y a une possibilité d’intégrer l’ouvrage à son catalogue. Mais ce n’est qu’une première étape; tant que personne n’a demandé à lire le manuscrit complet, on reste loin du compte.

Mise en marché: maisons d’édition (sans agent)
  • Maisons contactées: 6
  • Refus encaissés: 2
  • Propositions en cours d’évaluation par les maisons d’édition: 4

Les comités de lecture de la plupart des maisons d’édition ne répondent qu’après trois à six mois, voire même plus.

Roman #2: Les premières voiles du printemps

Rédaction
  • Choix du thème et du genre (science-fiction/thriller) complétés.
  • Développement de la trame narrative principale: rudiments.
  • Développement de trames narratives secondaires: rudiments.

Autres
  • Essais rédigés, traduits et publiés (gratuitement): 3

Objectifs du prochain trimestre

  • Unconquered Magic: contacter 15 autres agences et 5 autres maisons d’édition, sauf si une des propositions en cours d’évaluation mène à un contrat d’édition au préalable.
  • Premières voiles du printemps: compléter un synopsis; choisir les trames narratives secondaires à inclure dans le roman; choisir les trames narratives secondaires à extraire du roman pour en faire des fictions courtes indépendantes.
  • Fiction courte: compléter le texte en cours de rédaction; rédiger au moins une nouvelle tirée de l’univers narratif des Premières voiles du printemps; soumettre chaque texte complété et chaque texte refusé à une nouvelle publication dans les 30 jours suivant sa mise en disponibilité.
  • Autres: soumettre au moins une proposition de chronique régulière à un média.




0 Commentaires

Élire des humains en votant pour des machines

3/13/2026

0 Commentaires

 
Ces jours-ci, la classe politique et le commentariat observent avec beaucoup d’attention les tractations entre le gouvernement Carney et certains députés élus sous d’autres bannières. Avec raison: les Libéraux de M. Carney, portés au pouvoir l’année dernière avec un mandat minoritaire, semblent sur le point d’accomplir un exploit inédit: acquérir la majorité au Parlement sans provoquer de nouvelles élections générales, rien qu’en attirant des députés de l’Opposition dans leur camp.

Cela ne fait pas l’affaire de tout le monde. Selon un sondage cité dans le balado The Numbers, animé par les aggrégateurs Eric Grenier (The Writ) et Philippe J. Fournier (Qc125.com), bon nombre d’électeurs souhaiteraient qu’un·e député·e soit obligé·e de démissionner et de gagner une élection partielle avant de pouvoir siéger avec un nouveau parti. Une opinion qui est naturellement plus ou moins répandue selon que le parti que l’on favorise profite des changements d’allégeance ou non…

Le contexte

Jusqu’ici, quatre personnes ont rejoint le caucus libéral depuis l’automne: trois anciens députés conservateurs (un d’entre eux le lendemain du party de Noël de son caucus, après avoir empoché son cadeau!) et, tout récemment, Lori Idlout, jusque-là députée néo-démocrate du Nunavut. 

Les décisions des ex-conservateurs sont plus faciles à expliquer. Le chef du PCC, Pierre Poilievre, porte à droite dure, et son impopularité personnelle auprès des électeurs modérés constitue un énorme boulet pour son parti. À l’inverse, Mark Carney fait flèche de tout bois et son programme aurait facilement pu, à une autre époque, être celui d’un gouvernement progressiste-conservateur. Pour les quelques red tories qui restent, passer au rouge constitue à la fois la meilleure chance d’accéder au pouvoir et un choix en accord avec leurs valeurs.

Dans le cas de Mme Idlout, c’est plus compliqué, puisque le gouvernement libéral s’éloigne de plus en plus des valeurs de gauche chères aux néo-démocrates. Mais le Nunavut n’a pas de grande tradition partisane (à l’échelle territoriale, les partis politiques n’existent même pas) et l’ambition du gouvernement Carney de dépenser 32 milliards pour assurer la défense de l’Arctique canadien pèse lourd. Mieux vaut avoir voix au chapitre, pour s’assurer que cet argent serve bien les intérêts des communautés locales, qui sont bien loin d’Ottawa.

Le dilemme

La situation nous rappelle un des grands paradoxes de notre système électoral: nous élisons des individus, mais nous votons pour des partis.

Sauf dans les cas d’une poignée de vedettes (et encore…), l’identité des candidats et candidates n’a pas beaucoup d’influence sur le vote. On appuie un chef ou une cheffe, et on vote pour la personne qui représente son parti à l’échelle locale. Faites l’exercice: si vous avez déjà voté pour un candidat défait ou une candidate défaite, vous rappelez-vous même de son nom? En revanche, élire une personne sous la bannière de notre parti favori et voir celle-ci changer de camp peut inspirer une frustration bien légitime, similaire à celle que vivent les adeptes d’une équipe sportive dont le joueur-vedette signe ailleurs comme agent libre.

Mais du point de vue du système électoral canadien, ces considérations ne sont que des illusions. Nous élisons bel et bien des individus; des personnes qui pensent, qui changent, et qui voient le monde changer autour d’elles. Il n’est donc pas étonnant que leurs réflexions puissent, de temps à autres, les amener à poser des gestes d’une importance considérable, comme changer de parti. C’est normal. Et en votant pour ces gens, nous choisissons de faire confiance à leur jugement. Nul besoin, donc, de les forcer à rendre des comptes lors d’élections partielles. Il sera toujours temps de les sanctionner lors de la prochaine élection générale.

Je sais que cet argument du jugement individuel serait plus convaincant sans l’extraordinaire rigidité des lignes de partis, qui réduisent les député·e·s au rang d’automates dès qu’ils et elles débarquent en Chambre. Mais il s’agit d’une raison pour affaiblir la ligne de parti, et peut-être même pour autoriser des votes secrets dans certaines circonstances particulièrement délicates, pas pour retirer aux individus l’une des rares traces d’autonomie dont ils disposent.
0 Commentaires

Intelligence artificielle, stupidité stochastique

3/5/2026

0 Commentaires

 
Il y a un peu plus de vingt-cinq ans, alors que j’effectuais des recherches en bibliothèque dans le cadre de mes études de maîtrise en informatique, je suis tombé sur la traduction anglaise d’un curieux petit volume publié par un ingénieur soviétique en 1984. Le sujet: la programmation d’un ordinateur pour jouer aux échecs.

À l’époque, l’approche privilégiée par les chercheurs qui souhaitaient développer un algorithme capable de vaincre les plus grands maîtres était celle de la force brute. En gros, l’algorithme étudiait tous les coups légaux dans une position donnée, puis toutes les répliques possibles à chacun d’entre eux, puis toutes les répliques à ces répliques, et ainsi de suite jusqu’à ce qu’il ait étudié toutes les séquences de coups d’une “profondeur” donnée. Puis, il évaluait les positions que l’on pouvait atteindre par ces innombrables séquences de coups et choisissait le coup qui menait à la position la plus avantageuse. (Ou, plus précisément, celui qui minimiserait les opportunités de l’adversaire si celui-ci jouait de façon optimale. Une stratégie défensive, mais terriblement efficace.)

L’auteur du volume en question, lui, trouvait cette approche détestable. Les grands maîtres des échecs, affirmait-il, n’étudient pas tous les coups possibles, loin de là. Ils se concentrent sur une poignée de coups prometteurs (rarement plus de deux ou trois) et prédisent leurs conséquences cinq, dix ou vingt répliques plus tard. Si l’on voulait que l’ordinateur puisse rivaliser avec les grands maîtres, ne vaudrait-il pas mieux développer un algorithme capable de reproduire leurs raisonnements?

Le problème: personne ne pouvait dire comment les grands maîtres séparaient les coups prometteurs à évaluer des coups médiocres à ignorer. Surtout pas les grands maîtres eux-mêmes. Guidés par un mélange d’instinct et d’expérience, les grands maîtres ne “voyaient” que les meilleures options, c’est tout. Et notre ingénieur soviétique le savait mieux que quiconque, puisqu’il était nul autre que Mikhail Botvinnik, cinq fois champion du monde des échecs!

Botvinnik a consacré de longues années à tenter, sand trop de succès, de codifier ces connaissances informelles qui déterminaient le raisonnement des grands joueurs. A posteriori, on peut expliquer son insuccès par le raisonnement statistique suivant:

  • Admettons qu’il existe, dans une position donnée, une vingtaine de coups légaux. (Le véritable nombre est d’environ 35 en milieu de partie et de huit à dix quand il ne reste que quelques pièces sur l’échiquier, mais 20 constitue une moyenne acceptable.)
  • Admettons aussi qu’il existe un et un seul coup optimal à jouer dans une position donnée.
  • Pour reproduire le processus de raisonnement d’un grand maître, il faudrait, rien qu’en observant une position, identifier les deux coups les plus prometteurs, en espérant que le coup optimal se retrouve parmi ceux-ci, et écarter tous les autres. Mais comment faire?
  • Un algorithme naïf, qui choisirait les deux coups à étudier au hasard parmi la vingtaine de coups légaux, ne “trouverait” parmi ceux-ci le meilleur coup que dans 10% des cas. La stratégie de cet algorithme serait à peine plus sophistiquée que celle d’un enfant de cinq ans à qui on viendrait d’expliquer les règles des échecs.
  • Supposons maintenant que nous développions un algorithme très efficace, qui trouverait le meilleur coup dans 95% des cas. Nettement mieux, n’est-ce pas?
  • Pas si vite. Ce qui fait le succès d’un grand maître, c’est sa capacité à prévoir les conséquences des coups qu’il envisage. Pour qu’un algorithme puisse faire la même chose, il devra identifier, pour chaque coup envisagé, les meilleures répliques de l’adversaire, puis les meilleures répliques à ces répliques, etc.
  • Admettons que l’on souhaite prévoir les conséquences d’un coup quatre répliques plus tard, ce qui est très peu pour un grand maître. Un algorithme qui envisage le coup optimal dans 95% des cas ne trouvera tous les coups optimaux dans une séquence de quatre coups que dans (0,95) * (0,95) * (0,95) * (0,95) des cas, soit 81,4%. Il commettra donc une erreur susceptible de laisser une opportunité à l’adversaire une fois sur cinq, ou entre six et dix fois au cours d’une partie. N’importe quel joueur de club le moindrement dégourdi n’en fera qu’une bouchée.
  • Si l’on souhaite étudier les conséquences d’un coup huit répliques plus tard, la probabilité d’inclure le coup optimal à toutes les étapes de la séquence de huit coups tombe à 66%. L’algorithme commettra donc une bourde une fois sur trois.

Il n’est donc pas étonnant que l’approche de Botvinnik, en apparence plus intelligente que la force brute, n’ait mené à rien. Tandis que la force brute (qui ne rate jamais un bon coup, elle, puisqu’elle étudie toutes les positions imaginables) a fini par vaincre le champion du monde.

Et maintenant?

Transposons ce raisonnement statistique dans le domaine de l’intelligence artificielle générative (IAgen), c’est-à-dire dans celui des modèles de langage comme ChatGPT.

L’IAgen détient une connaissance statistique du langage humain. On l’entraîne avec de grandes quantités de textes, ce qui lui permet de savoir à quelle fréquence le mot X précède le mot Y ou le mot Z dans l’ensemble des productions écrites.

Lorsque l’on demande à l’IAgen d’écrire du texte, elle se fie sur cette connaissance statistique du langage pour générer des séquences de mots qui sont statistiquement plausibles. Par exemple, on obtiendra plus souvent la phrase “Il était une fois” que la séquence “Il orange épingle aurait” parce que le mot “il” précède le mot “était” plus souvent que le mot “orange” dans l’ensemble des textes de langue française, etc.

Le choix du prochain mot à ajouter à un texte en cours de production dépend non seulement de cette connaissance statistique, mais aussi du contexte dans lequel on se trouve. Mais attention: ce contexte, dans le cas d’une IAgen, est beaucoup plus limité que pour un être humain. Il s’agit, en gros, de l’ensemble des N mots qui précèdent et de ce que l’on retrouve dans la question de l’utilisateur. C’est ce qui fait en sorte que les modèles d’IAgen commettent des erreurs bêtes, comme recommander à l’utilisateur de marcher jusqu’à un lave-auto pour économiser de l’essence parce qu’ils ne savent pas qu’il ne sert à rien d’aller visiter un lave-auto à pied.

Maintenant, admettons que l’on puisse développer un modèle de langage si efficace qu’il choisit le mot juste à ajouter à un texte dans 99,9% des cas, quelles que soient les circonstances et quel que soit le contexte. Ce qui, vous vous en doutez bien, est extraordinairement optimiste, puisque les contextes à la disposition de l’ordinateur devraient contenir toute l’information nécessaire pour prendre une décision (y compris à quoi servent les lave-autos) dans tous les cas imaginables.

Eh! bien, il y a à peine une chance sur trois que ce modèle puisse produire un texte de 1 000 mots sans commettre une bourde. En effet, (0,999 * 0,999 * … * 0,999), où 0,999 est multiplié par lui-même mille fois, est égal à un peu moins de 37%.

Pire: un modèle de langage qui choisit le mot optimal dans 99% des cas commettra au moins une erreur au cours de la production d’un paragraphe de 69 mots sur deux.

Certaines de ces erreurs seront faciles à trouver, comme “il orange”. D’autres, non. George Clooney et Denzel Washington sont deux acteurs renommés; si vous demandez à un modèle de langage qui a gagné l’Oscar du meilleur acteur en 2010, saurez-vous si le modèle vous dit la vérité en vous répondant l’un ou l’autre? (Ni l’un ni l’autre: le gagnant était Jeff Bridges.)

Et bien entendu, moins il y a de données pertinentes pour un sujet dans le corpus d’entraînement du modèle, moins celui-ci sera précis et plus il sera tenté de fabuler pour répondre quand même à votre question. J’y reviendrai peut-être un de ces jours.

La leçon

Le cerveau humain recherche constamment des motifs. C’est une question de survie. La littérature populaire sur les neurosciences et l’évolution mentionne parfois l’exemple du serpent caché dans l’herbe: si notre cerveau croit voir un serpent alors qu’il n’y en a pas, nous en serons quittes pour une bonne frousse, mais s’il ne détecte pas un serpent qui est bien présent, nous pourrions en mourir.

Nous cherchons aussi des signes d’intelligence dans ce qui est produit par l’IAgen. Il ne s’agit pourtant que de séquences de mots statistiquement plausibles, ou de l’équivalent visuel dans le cas des modèles qui produisent des images. Rien de plus. Le résultat peut être convaincant, mais le modèle ne peut en aucun cas savoir si ce qu’il dit est vrai ou faux—ce qui constitue la définition-même de la boulechite, selon le philosophe américain Harry G. Frankfurt.

La seule façon de vous assurer que votre texte généré par l’IA n’est pas truffé de bêtises, c’est d’être en mesure de tout contre-vérifier, c’est-à-dire d’avoir fait le travail vous-même au préalable ou de le reproduire après coup. Auquel cas vous n’avez probablement rien gagné en termes d’efficacité.

Connaissez-vous beaucoup de gens qui se donnent cette peine?

Bonne chance…

0 Commentaires

10 suggestions de divertissement pour 2026

1/1/2026

0 Commentaires

 
Voici mon Top 10 de produits culturels autres que des lectures qui ont fait mon bonheur en 2025:

Mentions honorables: PLURIBUS (Apple TV), YOUR FRIENDS AND NEIGHBORS (Netflix), THE RESIDENCE (Netflix), SID MEIER'S CIVILIZATION VII (Jeu vidéo)

10. WOODEN SHAPES, un sextuor à cordes qui jour du rock et du métal au violon, à l'alto, au violoncelle et à la contrebasse. Allez les voir s'ils passent dans votre région; vous les avons vus à la maison de la culture Villebon de Beloeil, qui compte une soixantaine de places bien tassées, alors ils pourraient bien se retrouver tout près de chez vous.

9. MENTEUSE, avec Anne-Élizabeth Bossé. Déjanté à souhait, et peut-être même un peu trop, mais tellement plein de bons flashes comiques.

8. NORTH OF NORTH (CBC/Netflix). Une comédie qui se déroule dans une version fictive d'Iqaluit, au Nunavut. On y met en valeur les cultures du grand nord et on se moque gentiment de la directrice du centre communautaire, une blanche très blanche interprétée par Mary Lynn Rajskub (Chloe dans 24!) qui ne comprend visiblement pas grand chose à ce qui l'entoure.

7. ANDOR (Disney+). J'ai aimé la première saison davantage que la deuxième, mais les moments forts de la deuxième sont supérieurs à ceux de la première. La mise en scène de la façon dont les médias peuvent mentir pour paver la voie au fascisme est à couper le souffle.

6. PARADISE (Disney+). Sterling K. Brown à son meilleur dans la meilleure série de science-fiction dystopique de la décennie. Et ce n'est pas parce qu'il y a un manque de compétition.

5. ADOLESCENCE (Netflix). Tout a été dit sur cet OVNI télévisuel en quatre épisodes sur la violence, les réseaux sociaux et la santé mentale. Je ne reviens pas encore du fait que le terrifiant personnage principal, un ado d'à peine 13 ans dans la vraie vie, n'avait jamais mis le pied sur un plateau de tournage professionnel avant de tourner un épisode en huis clos où sa performance est digne de Jack Nicholson ou d'Hannibal Lector.

4. THE PITT (Crave). Pour qu'une série médicale m'accroche, il faut qu'elle soit extraordinaire. Celle-là l'est.

3. BROADWAY ACROSS CANADA, et en particulier la soufflante représentation de HAMILTON que j'ai vue à la fin de l'été. Les billets sont chers, mais les productions valent chaque dollar.

2. EMPATHIE (Crave). Un tour de force. Réussir à nous attacher à des personnages tout croches, dont certains sont même méchants, dans un hôpital psychiatrique? Wow!

1. LES BLUE JAYS! L'équipe avait fini dernière en 2024, tous les joueurs autonomes que le DG a signés pendant l'hiver ont foiré d'aplomb et/ou ont passé la moitié de l'année blessés, et malgré tout ils sont passés à trois centimètres de gagner le septième match de la Série mondiale. Je n'avais pas eu autant de plaisir à regarder du baseball depuis 1994.
0 Commentaires
<<Page précédente

    Auteur

    François Dominic Laramée est un auteur et historien québécois.

    Archives

    Mars 2026
    Janvier 2026
    Décembre 2025
    Septembre 2025
    Janvier 2025
    Octobre 2022
    Juillet 2022
    Septembre 2021
    Décembre 2020
    Juin 2020
    Janvier 2020
    Octobre 2019
    Septembre 2019
    Juin 2019
    Mai 2019
    Février 2019
    Janvier 2019
    Décembre 2018
    Octobre 2018
    Août 2018
    Mai 2018
    Avril 2018
    Mars 2018
    Février 2018
    Janvier 2018
    Décembre 2017
    Octobre 2017
    Août 2017
    Juillet 2017
    Juin 2017
    Mai 2017
    Avril 2017
    Mars 2017
    Février 2017
    Janvier 2017
    Octobre 2016
    Avril 2016
    Mars 2016
    Septembre 2015
    Janvier 2015
    Août 2014

    Catégories

    Tous
    Articles
    Communications
    Conférences
    Édition
    Édition
    Emploi
    Essais
    IA
    Lectures
    N'importe Quoi
    Outils
    PhD
    Rapports Trimestriels
    Recensions
    Service

    Flux RSS

    Crédit image d'en-tête: Abhi Sharma, Flickr
    CC BY 2.0

Propulsé par Créez votre propre site Web à l'aide de modèles personnalisables.