Les fausses références de ChatGPT

Au courant du printemps 2023, un tribunal américain a été saisi d’une cause où un plaignant poursuivait une compagnie aérienne pour une blessure accidentelle subie lors d’un vol.

Dans le mémoire déposé par les avocats du plaignant, on citait plusieurs jugements antérieurs qui établissaient une jurisprudence favorable à leur client. Hélas, ni le juge ni les avocats de la défense ne purent trouver trace de ces jugements dans les archives et bases de données légales. Et pour cause, la firme d’avocats du plaignant ayant utilisé ChatGPT, on s’est ensuite aperçu, à la grande honte des avocats en cause, que ChatGPT avait créé de toutes pièces les références juridiques dont il avait besoin…

L’incident, rapporté par la Presse le 2 juin dernier, avait initialement été signalé par le New York Times. (L’article existe, nous avons vérifié…)

« Le programme semble avoir discerné le style labyrinthique d’un argument juridique écrit, mais l’a peuplé de noms et de faits tirés d’une bouillabaisse de vrais jugements. »

On pourrait croire à un incident isolé, mais cela ne semble pas tout à fait le cas. Par exemple, les bibliothécaires du SDIS reçoivent depuis quelques temps des demandes pour retracer et obtenir les documents de références scientifiques qui s’avèrent complètement fictives…

Un billet du blogue TECHE de Macquarie University offre une fort bonne explication à cette situation: https://teche.mq.edu.au/2023/02/why-does-chatgpt-generate-fake-references/

« It is important to outline that ChatGPT is a ‘large language model’ designed to output human-like text based on the context of the user’s prompt. It uses a statistical model to guess, based on probability, the next word, sentence and paragraph to match the context provided by the user. The size of the source data for the language model is such that ‘compression’ was necessary and this resulted in a loss of fidelity in the final statistical model. This means that even if truthful statements were present in the original data, the ‘lossiness’ in the model produces a ‘fuzziness’ that results in the model instead producing the most ‘plausible’ statement. In short, the model has no ability to evaluate if the output it is producing equates to a truthful statement or not. » (extrait de TECHE)

Bref, en exagérant un poil, c’est un peu comme du Nostradamus..

Institut national de la recherche scientifique (INRS)
CourrielPour nous écrire
TextoTexto 514 613-7347 (514-613-SDIS)
SDIS-AFSB
531, boul. des Prairies
Laval (Québec) H7V 1B7
Telephone 450 687-5010
SDIS-EMT
Place Bonaventure
800, rue de La Gauchetière
Portail Nord-Ouest, bureau 6900
Montréal (Québec) H5A 1K6
Telephone 514 228-7009
SDIS-ETE
490, rue de la Couronne
Québec (Québec) G1K 9A9
Telephone 418 654-2577
SDIS-UCS
385, rue Sherbrooke Est
Montréal (Québec) H2X 1E3
Telephone  514 499-4018