La diète au bromure et la sagesse du gros bon sens
Par Suzy Wong Vive les nouvelles du JDM : Paranoïa et hallucinations: un homme s’empoisonne en suivant les conseils médicaux de ChatGPT Quand l'intelligence artificielle n'a pas de gros bon sens Mon pauvre Earl, 60 ans et aussi allumé qu'un sapin de Noël en mars, s'est levé un matin avec une idée de génie. « Le sel, c’est le diable! » a-t-il déclaré à son chat. Au lieu de se fier aux médecins, cette bande de péquenauds qui n’ont même pas leur Facebook à jour, il a consulté le seul gourou qu’il respectait : le grand, l’omniscient, le divin ChatGPT. « Dis-moi, Grand Maître du web, » a-t-il tapé solennellement, « comment je peux faire un dégât de sel sans me ramasser avec de la haute pression? » ChatGPT, avec la sagesse d’un algorithme qui n’a jamais mangé de poutine, lui a chuchoté le nom magique : le bromure de sodium. Pour Earl, ça sonnait comme une potion magique, une poussière d’étoiles qui allait le rendre immortel. « Bromure... ça fait comme 'brume', c...