La diète au bromure et la sagesse du gros bon sens

 Par Suzy Wong

Vive les nouvelles du JDM : 



Quand l'intelligence artificielle n'a pas de gros bon sens

Mon pauvre Earl, 60 ans et aussi allumé qu'un sapin de Noël en mars, s'est levé un matin avec une idée de génie. « Le sel, c’est le diable! » a-t-il déclaré à son chat. Au lieu de se fier aux médecins, cette bande de péquenauds qui n’ont même pas leur Facebook à jour, il a consulté le seul gourou qu’il respectait : le grand, l’omniscient, le divin ChatGPT.

« Dis-moi, Grand Maître du web, » a-t-il tapé solennellement, « comment je peux faire un dégât de sel sans me ramasser avec de la haute pression? » ChatGPT, avec la sagesse d’un algorithme qui n’a jamais mangé de poutine, lui a chuchoté le nom magique : le bromure de sodium. Pour Earl, ça sonnait comme une potion magique, une poussière d’étoiles qui allait le rendre immortel. « Bromure... ça fait comme 'brume', c'est un signe! » s'est-il exclamé en commandant un sac de 2 kilos sur Amazon.

Il en a mis partout! Sur ses rôties, ses œufs, même dans son bol de céréales. Il baptisait sa bouffe de cette poudre blanche, convaincu de devenir le premier humain à transcender la science de la saveur. Au début, tout était parfait. Puis, tranquillement, la vie d'Earl a déraillé.

Le frigidaire s’est mis à lui chanter des tounes de Claude Dubois avec une voix de robot, le chat lui a avoué qu'il était en fait un espion du gouvernement, et il a commencé à voir des flocons de sel miniatures, équipés de mini-tuques et brandissant des bâtons de hockey, qui le poursuivaient en criant: « T'as pas le droit de nous laisser tomber! »

Quand les voisins l'ont retrouvé en train de négocier un traité de paix avec la sécheuse, l'amenant à l'hôpital. Les docteurs, eux, étaient pas mal mêlés. C'est quand un résident un peu trop allumé a vu le sac de bromure de sodium dans le coffre d'Earl qu'ils ont compris. Le verdict fut sans appel : « Psychose au bromure ».

Malgré tout, notre héros, ligoté sur sa civière, a gardé la foi. Il a chuchoté à l’infirmière : « C'est un complot, j'ai démasqué le sel! » Et c'est là que le médecin chef, qui avait vu neiger, a lâché la bombe : « Écoute, mon coco, si ChatGPT avait un diplôme en médecine, ce serait un doctorat en urgence et en psychiatrie. » 

Moralité de l’histoire : l'intelligence artificielle n'a peut-être pas fait la faculté de médecine, mais elle est très douée pour vous y envoyer.


Commentaires

Sylvie Brazeau a dit…
Non, mais vraiment?!?! C'est comme la jeune qui s'est fiée à Google Maps, il y a des années de cela, et s'est retrouvée littéralement dans le fin fond des bois. J'utilise beaucoup Word et je me fie plus au correcteur automatique...c'est tout IA maintenant et il y a tellement d'erreurs dans les suggestions

Messages les plus consultés