Learn - Gratuit, tous les mardis

🤖 "ChatGPT, dans quoi je devrais investir ? No mistake"

Pourquoi c'est (souvent) une très mauvaise idée

Le 24/02/2026

par 

 ❤️

👩‍🏫

Ce que vous allez apprendre dans cet article

🤖 Pourquoi faire confiance aveuglément à ChatGPT pour vos finances peut vous coûter cher : selon une étude, 46 % des Américains utilisent déjà l'IA pour gérer leur argent, mais plus de la moitié ont pris de mauvaises décisions. ⚠️ Les vrais dangers des IA génératives : hallucinations fiscales, données obsolètes, erreurs de calcul et conseils juridiques totalement inventés qui peuvent mener à des pénalités. 💸 Des pertes bien réelles : 19 % des Américains ayant suivi un conseil financier d'une IA ont perdu plus de 100 $, et ce chiffre monte à 27 % chez la Gen Z. ✅ Comment utiliser l'IA intelligemment pour vos finances : les bons usages (apprendre des concepts, préparer un rendez-vous) vs les pièges à éviter (choisir des investissements, optimiser sa fiscalité). 🛡️ Pourquoi Money Buddy n'utilise pas (encore) d'IA : découvrez pourquoi Snowball privilégie l'expertise humaine plutôt que des algorithmes probabilistes pour votre stratégie d'investissement. 🔐 Les réflexes essentiels à adopter pour protéger vos données et vérifier systématiquement chaque information financière donnée par une IA.

👩‍🏫 Learn : 4 fois par mois, nous creusons un sujet des finances personnelles pour vous aider à mieux le comprendre.

Cette newsletter est gratuite pour tous (toutes) les abonné(e)s.

⏱️ Temps de lecture : 15 minutes

Hey Snowballers,

J'espère que vous passez un bon début de semaine !

J'adore les outils IA, je trouve ça fascinant depuis la toute première fois que j'ai utilisé ChatGPT fin 2022. Aujourd'hui, j'utilise des dizaines d'outils, de façon plus ou moins intensive, au quotidien.

Cela dit, quand nous avons lancé Money Buddy, notre dernier produit qui vous aide à créer une stratégie d'investissement, nous avons décidé de laisser l'IA de côté pour l'instant et cette édition va vous expliquer (en partie) pourquoi. Mais en un petit screenshot :

En effet, le taux est désormais de 31,4 % depuis le 1er janvier et non pas de 30 % selon ChatGPT…

Aujourd'hui, nous allons explorer pourquoi faire confiance aveuglément à une IA générative peut être dangereux, même si elle reste extrêmement utile.

Ceci étant dit, avant de nous lancer, place à un partenaire qui pourrait intéresser celles et ceux qui veulent investir dans l'immobilier l'esprit tranquille…

Comme je le disais au début, les IA génératives peuvent non seulement ne pas avoir les bonnes infos en mémoire (comme le cas de la flat tax sur les plus-values qui a changé depuis janvier 2026), car elles ont été entraînées sur de vieilles datas, mais elles peuvent aussi avoir plein de dysfonctionnements liés à leur fonctionnement interne (et ce n'est pas prêt d'évoluer selon moi). Et tout ça, alors que le taux d'utilisation de ces IA est en train d'exploser.

En effet, selon une étude FNBO publiée en 2025, 46 % des Américains ont déjà utilisé un chatbot IA (ChatGPT, Gemini, Claude…) pour gérer leurs finances personnelles. Chez les millennials et la Gen Z, ce chiffre grimpe à 82 %. En France, la tendance est la même : on pose des questions sur nos impôts, nos investissements, notre budget à une IA comme on le ferait à un pote qui "s'y connaît" (comme les IA, attentions aux potes aussi 😅).

Sauf que ce pote invente parfois des choses. Il confond les lois de 2023 avec celles de 2026. Il se trompe dans ses calculs. Et il peut même parfois inventer des choses qui n'existent tout simplement pas.

Le plus flippant ? Selon un sondage Intuit Credit Karma de septembre 2025, 66 % des Américains utilisant l'IA générative s'en servaient pour des questions financières. Et parmi eux – c'est là que ça devient intéressant – plus de la moitié reconnaissaient avoir pris au moins une mauvaise décision basée sur les réponses d'un chatbot.

Aujourd'hui, je voulais vous montrer concrètement pourquoi les LLM (les modèles de langage comme ChatGPT, Gemini ou Claude) peuvent être des outils formidables pour apprendre, mais aussi de véritables pièges quand il s'agit de décisions financières.

Avant tout, il faut comprendre un truc crucial. Quand vous posez une question à ChatGPT, il ne "sait" pas la réponse. Il prédit le mot suivant le plus probable, encore et encore, jusqu'à former une réponse qui a l'air cohérente. Et parfois, ben il est à côté de la plaque.

C'est ce qu'on appelle les hallucinations : l'IA invente des faits, des chiffres, voire des lois fiscales, avec une assurance déconcertante. Selon une étude du site Investing in the Web, 35 % des réponses de ChatGPT à des questions financières étaient incorrectes, et un tiers d'entre elles étaient purement hallucinées, c'est-à-dire inventées de toutes pièces (bon, l'étude date de début 2025, donc peut-être que ChatGPT s'est amélioré depuis).

Les LLM ne sont pas des calculatrices. Gardez ça en tête.

  • Finance Reasoning Benchmark (2026) : benchmark de raisonnement quantitatif. Sur 238 questions difficiles nécessitant un raisonnement quantitatif multi-étapes avec des formules financières, le meilleur modèle (GPT-5) atteint 88,23 % de précision. Pas mal, mais 12 % d'erreur, c'est loin d'être rien.
  • Une étude à lire sur Taylor & Francis (2025) : focus finances personnelles. Les chercheurs ont évalué ChatGPT, Gemini, Claude et LlaMA sur des questions de finance perso (hypothèques, impôts, prêts, investissements). Les modèles atteignent environ 70 % de précision en moyenne, avec des performances qui varient significativement selon la complexité du sujet.

⚠️ Un autre piège courant : un utilisateur de Grok (le chatbot de xAI) a demandé une estimation de ses impôts trimestriels. L'IA a fourni un calcul détaillé et convaincant, sauf qu'elle utilisait les tranches fiscales de 2024 au lieu de 2025. L'utilisateur ne s'en est rendu compte qu'en vérifiant manuellement. Quand il a demandé à Microsoft Copilot le même calcul, il a obtenu un résultat différent. Aucun des deux n'était parfaitement juste.

Exactement le même problème que dans ma capture d'écran avec une flat tax erronée. Et justement…

Chaque LLM a une "date de coupure" au-delà de laquelle il ne connaît plus l'actualité (sauf s'il va chercher sur le net). Claude s'arrête à mai 2025 environ et Gemini à début 2025. Et même avec la recherche web activée, les résultats ne sont pas toujours fiables (elle était activée quand j'ai demandé mon taux d'imposition sur la plus-value).

⚠️ Un exemple parlant : en novembre 2025, une enquête de l'association de consommateurs britannique Which?, relayée par MoneyWeek, a montré que ChatGPT, Copilot, Gemini et Meta AI recommandaient tous de dépasser le plafond légal de versement sur les ISA (l'équivalent britannique du PEA/assurance-vie) fixé à 20 000 £. Certains chatbots suggéraient d'investir jusqu'à 25 000 £. Sauf que dépasser ce plafond entraîne des pénalités immédiates du fisc britannique (HMRC) et la perte des avantages fiscaux. Ouch.

Transposé en France, imaginez une IA qui vous conseille de verser 180 000 € sur votre PEA parce qu'elle ne connaît pas le plafond actuel de 150 000 €. Ou qui vous parle d'un dispositif fiscal supprimé depuis 2 ans.

Je tiens à nuancer, car je trouve que les IA se sont grandement améliorées, mais les erreurs restent nombreuses et si vous n'avez pas les connaissances pour les détecter, cela peut vite devenir problématique (idem du côté médical).

Avant de passer à la suite, place à notre second partenaire du jour qui pourrait intéresser les freelances et entrepreneurs qui ont de la trésorerie à investir.

Les LLM peuvent inventer des lois, des jurisprudences ou des dispositifs fiscaux qui n'existent tout simplement pas. Au Royaume-Uni, des contribuables se sont présentés devant des tribunaux fiscaux en citant des "précédents juridiques" générés par ChatGPT… qui étaient totalement fictifs. Aux États-Unis, des avocats ont été sanctionnés pour avoir cité dans leurs conclusions des décisions de justice inventées par l'IA.

En matière fiscale, des chatbots intégrés dans les plateformes de déclaration américaines (TurboTax, H&R Block) ont donné des réponses incorrectes dans près de la moitié des cas sur des questions complexes : application de règles obsolètes, confusion entre législation fédérale et locale, invention de clauses inexistantes. Conséquence : des pénalités de plusieurs centaines de dollars et des audits fiscaux pour les utilisateurs.

Les principales IA génératives, sont très US-centric avec des entraînements effectués sur beaucoup de données américaines. De ce fait, elles peuvent avoir tendance à être biaisées. Par exemple :

Medicare, coûts aux États-Unis, Medigap, etc. On peut parfois se retrouver avec des réponses fortement influencées par les données américaines.

Ce ne sont pas que des erreurs théoriques. Selon une enquête de Pearl.com publiée en septembre 2025, 19 % des Américains ayant suivi un conseil financier d'une IA ont perdu plus de 100 $. Chez la Gen Z, ce chiffre monte à 27 %. Les pertes proviennent principalement de conseils d'investissement non contextualisés, de recommandations cryptos sans analyse de risque et de stratégies budgétaires inadaptées.

Et plus de la moitié (54 %) des utilisateurs d'IA générative pour leurs finances reconnaissaient avoir pris au moins une mauvaise décision financière basée sur les informations reçues d'un chatbot, selon un sondage Intuit Credit Karma.

Quand vous décrivez votre situation financière à ChatGPT, donc vos revenus, votre patrimoine, vos dettes, vos objectifs, etc., ces informations sont envoyées sur des serveurs. Par défaut, la plupart des plateformes conservent vos conversations et peuvent les utiliser pour entraîner leurs modèles, sauf si vous désactivez explicitement cette option (faites-le).

En février 2025, un hacker a exfiltré 30 000 adresses email et 34 millions de lignes de messages de la plateforme OmniGPT. En janvier 2025, une base de données DeepSeek AI mal configurée a exposé plus d'un million de logs incluant des historiques de chat et des clés API. ChatGPT, Claude, etc. sont très bien sécurisées certes, mais limitez tout de même votre exposition. Oui, on a déjà vu des banques se faire hacker et elles ont des infos sensibles, mais ce n'est pas une raison valide pour ne pas faire attention.

⚠️ Et il y a un risque encore plus sournois : les scams boostés à l'IA. Les fraudeurs utilisent désormais les LLM pour générer des messages d'hameçonnage ultra-convaincants, imitant parfaitement le style de votre banque ou d'un conseiller financier (voire même des faux appels de proches !). Rien qu'en 2024 (donc il y a déjà un moment), les pertes liées aux arnaques utilisant l'IA ont dépassé 10 milliards de dollars aux États-Unis.

Ce n'est pas tout noir. Loiiiiiiiin de là. Les LLM peuvent être de vrais alliés si vous les utilisez correctement (j'avais d'ailleurs rédigé une édition sur le sujet ici).

  • Pour apprendre et comprendre des concepts. "Explique-moi la différence entre un ETF capitalisant et un ETF distribuant" ou encore "Comment fonctionnent les intérêts composés ?".
  • Pour brainstormer et structurer votre réflexion. "Quels critères devrais-je regarder avant de choisir une assurance-vie ?". L'IA peut vous donner une checklist de départ utile, mais pas complète.
  • Pour préparer un rendez-vous avec un conseiller. "Quelles questions poser à un CGP lors d'un premier rendez-vous ?".
  • Pour décrypter un document financier (avec vérifications). Vous pouvez copier-coller les conditions générales d'un contrat d'assurance-vie et demander : "Résume-moi les frais et les conditions de sortie de ce contrat en langage simple." L'IA excelle dans ce type de résumé et de vulgarisation, mais vérifiez bien en demandant sur quelle page l'IA a trouvé telle ou telle info.

En revanche, ne faites pas confiance aveuglément à une IA pour :

  • choisir des investissements spécifiques (actions, ETF, cryptos) ;
  • optimiser votre fiscalité (les règles changent chaque année et varient selon votre situation) ;
  • prendre une décision patrimoniale importante (achat immobilier, transmission, etc.) ;
  • comparer des produits financiers en détail (les calculs sont parfois faux) ;
  • créer une stratégie d'investissement complète.

⚠️ Un dernier danger souvent sous-estimé : l'effet chambre d'écho. Un journaliste financier du Motley Fool a remarqué que ChatGPT lui recommandait des actions qu'il avait déjà achetées, parce que le chatbot piochait dans l'historique de ses conversations pour "personnaliser" ses réponses. Au lieu de diversifier, l'IA renforçait ses biais existants. C'est l'inverse de ce que ferait un bon conseiller, qui challengerait vos choix. Alors oui, vous pouvez configurer votre IA pour être plus dans le challenge, mais je suis persuadé que 98 % des utilisatrices et utilisateurs ne le font pas…

  1. Vérifiez systématiquement. Chaque information financière donnée par une IA doit être recoupée avec une source officielle (impots.gouv.fr, amf-france.org, le site de votre banque).
  2. Ne partagez jamais de données sensibles. Pas de numéro de compte, pas de revenus exacts, pas de numéro fiscal. Utilisez des scénarios et documents anonymisés.
  3. Vérifiez la date. Demandez toujours à l'IA quelle est sa date de coupure et si l'information qu'elle vous donne est à jour. Même avec la recherche web activée, les résultats peuvent être mal interprétés.
  4. Consultez un humain pour les décisions importantes. Un conseiller en investissement financier (CIF) certifié par l'AMF a une obligation légale d'agir dans votre intérêt (bon, pas toutes et tous malheureusement). Pas une IA.
  5. Utilisez l'IA comme point de départ, jamais comme point d'arrivée. C'est un outil de recherche et d'apprentissage, pas un conseiller.

Si vous n'avez pas vu passer l'info, nous avons récemment lancé Money Buddy, notre dernier produit qui vous aide à obtenir une recommandation de stratégie d'investissement en moins de 48 heures et bientôt bien plus.

Et on nous pose souvent la question : "Pourquoi vous n'intégrez pas ChatGPT ou un autre LLM dans Money Buddy pour automatiser les stratégies d'investissement ou ajouter d'autres fonctionnalités ?"

La réponse est simple : parce que vos finances sont trop importantes pour être confiées à un système probabiliste. Nous avons testé en interne des formats LLM et pour canaliser ces derniers, l'énergie à fournir était encore trop élevée (guardrails, bien guider les utilisateurs, conserver le contexte, etc.).

Money Buddy, c'est donc un audit de votre situation et une stratégie d'investissement personnalisée qui est validée par un expert humain certifié, conseiller en investissement financier agréé par l'Autorité des marchés financiers. Chaque recommandation a donc été validée par un vrai regard humain. Et nous avons créé un accès à une hotline WhatsApp avec de vrais humains derrière (moi pour l'instant) pour poser vos questions, car on sait que les situations personnelles peuvent être très différentes les unes des autres (plus l'aspect psychologique qui est extrêmement important et un LLM ne peut pas encore exceller ici).

On aurait pu coller un chatbot et baisser les coûts. Mais un chatbot ne vous demandera pas forcément si vous dormez bien la nuit quand les marchés baissent et ne détectera pas des subtilités qu'un humain peut détecter.

Est-ce que l'IA est un champ de recherche pour améliorer Money Buddy à l'avenir ? Absolument, c'est évident ! On pourrait accélérer certaines analyses, créer des agents proactifs avec beaucoup de contexte (le tout anonymisé et sécurisé côté Snowball) ou enrichir nos outils pédagogiques. Mais toujours avec un humain dans la boucle, et toujours avec la rigueur que vos finances méritent. Pas de raccourci. On préfère y aller doucement, quitte à mettre de côté le buzz IA qui permet parfois de mieux vendre.

En attendant, zéro IA dans la production de vos stratégies. Zéro rétrocommission. Zéro biais algorithmique. Juste des humains qualifiés qui bossent pour vous et qui font de leur mieux. :)

🤑

Découvrez Money Buddy, votre stratégie d’investissement personnalisée, validée par un expert.

Le seul service garanti satisfait ou remboursé qui vous propose un audit de votre situation, une stratégie sur mesure validée par un expert et une hotline WhatsApp avec de vrais humains.

L'IA générative est un outil extraordinaire. Mais pour vos finances personnelles, cet outil doit rester un assistant, pas un décideur. La prudence, la vérification et l'humain restent vos meilleurs alliés (jusqu'à preuve du contraire).

D'ailleurs, Eve Bodnia cofondatrice et PDG de Logical Intelligence, une entreprise qui développe des modèles de raisonnement basés sur l'énergie (EBM) comme alternative aux LLM, pense que ces derniers sont structurellement incapables de véritable raisonnement. Son interview dispo ici est super intéressante.

Comme toujours, si vous souhaitez réagir ou si vous avez des questions, n'hésitez pas à répondre à ce mail.

Excellente soirée !

Yoann ❤️