Image
Banner -  Artificial Intelligence and Retail Investing: Scams and Effective Countermeasures

Intelligence artificielle et l’investissement de détail: Escroqueries et contre-mesures efficaces

Résumé

On constate une augmentation significative de l’ampleur et de la portée des applications d’intelligence artificielle (IA) dans l’investissement de détail. Bien que ces technologies soient prometteuses pour les investisseurs particuliers, elles présentent de nouveaux risques, en particulier le risque que l’IA augmente la vulnérabilité des investisseurs aux escroqueries. Les termes escroqueries et fraudes sont souvent utilisés de manière interchangeable. Toutefois, aux fins de ce rapport, nous les définissons comme suit :

  1. Escroqueries : Des stratagèmes frauduleux visant à manipuler des individus pour qu’ils fournissent volontairement des renseignements ou de l’argent.
  2. Fraudes : Des stratagèmes trompeurs visant à obtenir un accès non autorisé à des renseignements personnels ou à de l’argent, et ce, sans que les personnes ciblées en aient connaissance ou ne consentent. Également défini comme un terme juridique plus large couvrant les activités intentionnelles malhonnêtes, notamment les escroqueries.

Le développement et le déploiement de systèmes d’IA sur les marchés financiers soulèvent d’importantes questions réglementaires. La CVMO adopte une approche globale pour évaluer les répercussions des systèmes d’IA sur les marchés financiers. Il convient notamment de comprendre les avantages que les acteurs du marché retirent de l’utilisation des systèmes d’IA ainsi que les risques liés à leur utilisation. Cela comprend également l’analyse de la manière dont leur utilisation affecte différemment les acteurs du marché, qu’il s’agisse d’investisseurs, de marchés, de conseillers, de courtiers, de fonds d’investissement, etc. Nous espérons que notre travail d’identification des escroqueries et de mise à disposition de techniques d’atténuation s’ajoutera à notre corpus croissant de publications relatives au déploiement de systèmes d’IA, qui comprend :

  • L’IA au sein des marchés financiers – explorer les cas d’utilisation en Ontario (10 octobre 2023)[1]
  • L’IA et l’investissement de détail (publié le 11 septembre 2024)

Cette recherche a été menée par l’équipe Research and Behavioural Insights de la CVMO avec l’aide des experts-conseils de l’équipe Behavioural Insights (BIT) du Canada. Notre recherche est structurée en deux volets :

  1. Une analyse de la documentation et de l’environnement pour comprendre les tendances actuelles en matière d’escroqueries en ligne assistées par l’IA, ainsi qu’un examen des stratégies d’atténuation au niveau du système et des individus pour la protection des investisseurs particuliers.
  2. Une expérience de science comportementale afin d’évaluer l’efficacité de deux types de stratégies d’atténuation visant à réduire la vulnérabilité aux escroqueries à l’investissement assistées par l’IA. Cette expérience visait également à évaluer si les technologies d’IA augmentent la vulnérabilité des investisseurs aux escroqueries.

La documentation et l’analyse de l’environnement ont révélé que des acteurs malveillants exploitent les capacités de l’IA pour tromper plus efficacement les investisseurs, orchestrer des stratagèmes frauduleux et manipuler les marchés, posant ainsi des risques importants pour la protection des investisseurs et l’intégrité des marchés financiers. Les technologies d’IA générative « suralimentent » les escroqueries courantes en matière d’investissement en augmentant leur portée, leur efficience et leur efficacité. De nouveaux types d’escroqueries émergent également et qui étaient impossibles sans l’IA (comme les hypertrucages et le clonage vocal) ou qui exploitent les promesse de l’IA par de fausses allégations de possibilités d’investissement « assistées par l’IA ». Ensemble, ces nouveaux types d’escroqueries créent un paysage d’investissement où les escroqueries sont plus répandues et préjudiciables, ainsi que plus difficiles à détecter.

Pour lutter contre ces risques accrus, nous avons exploré des stratégies éprouvées et prometteuses pour atténuer les préjudices associés aux escroqueries liées à l’investissement utilisant l’IA. Nous avons identifié deux ensembles de mesures d’atténuation : les mesures d’atténuation systémiques, limitant le risque d’escroqueries pour tous les investisseurs (ou pour la plupart d’entre eux), et les mesures d'atténuation individuelles, renforçant et aidant les investisseurs particuliers à détecter ainsi qu’à éviter les escroqueries. Au niveau individuel, nous avons trouvé prometteuses les stratégies d’atténuation innovantes plus couramment utilisées pour lutter contre la désinformation politique, telles que les interventions liées à l’« inoculation ».

BIT Canada et l’équipe Research and Behavioural Insights de la CVMO ont mené un essai contrôlé randomisé (ECR) en ligne pour tester l’efficacité de stratégies d’atténuation prometteuses, ainsi que pour mieux justifier les dommages associés à l’utilisation de l’IA générative par les fraudeurs. Dans cette expérience, plus de 2 000 participants canadiens ont investi un montant hypothétique de 10 000 $ dans six possibilités d’investissement dans un environnement de médias sociaux simulé. Les possibilités d'investissement faisaient la promotion des FNB, des cryptomonnaies, ainsi que des services de conseil en investissement (comme des conseils automatisés ou des algorithmes de transaction utilisant l’IA) et comprenaient une combinaison de possibilités d’investissement légitimes, d’escroqueries conventionnelles ou d’arnaques améliorées par l’IA. Nous avons ensuite observé comment les participants répartissaient leurs fonds entre les possibilités d’investissement. Certains participants ont été exposés à l’une des deux techniques d’atténuation suivantes :

  1. Inoculation : une technique qui fournit des conseils de haut niveau sur la sensibilisation aux escroqueries avant l’exposition aux possibilités d’investissement;
  2. Un plugiciel de fureteur Web simulé qui signalait des possibilités potentiellement « à haut risque ».

Nous avons trouvé que :

  • Les escroqueries utilisant l’IA présentent beaucoup plus de risques pour les investisseurs que les escroqueries conventionnelles. Les participants ont investi 22 % de plus dans les escroqueries assistées par l’IA que dans les escroqueries conventionnelles. Les conclusions suggèrent que l’utilisation d’outils d’IA générative largement disponibles pour améliorer les documents frauduleux peut rendre les escroqueries beaucoup plus convaincantes.
  • La technique « Inoculation » et les plugiciels de fureteur Web peuvent réduire considérablement l’ampleur des dommages causés par les escroqueries assistées par l’IA. Les deux stratégies d’atténuation testées se sont révélées efficaces pour réduire la vulnérabilité aux escroqueries assistées par l’IA, mesurée en termes de dollars investis. La stratégie « Inoculation » a réduit les investissements dans les possibilités frauduleuses de 10 %, tandis que le plugiciel de fureteur Web a réduit les investissements de 31 %.

À la lumière des résultats de l’expérience, de la documentation existante et de l’analyse de l'environnement, nous parvenons à conclure que :

  • Les outils d’IA générative largement disponibles peuvent facilement multiplier les documents frauduleux liés aux possibilités d’investissement illégitimes – et ces améliorations de l’IA peuvent accroître l’attrait de ces opportunités.
  • Des mesures d’atténuation systématiques, suivies de mesures d’atténuation individuelles sont nécessaires pour protéger les investisseurs particuliers contre les escroqueries assistées par l’IA.
  • Les mesures d’atténuation individuelles comme la technique « inoculation » et les plugiciels de fureteur Web peuvent être des outils efficaces pour réduire la vulnérabilité des investisseurs particuliers aux escroqueries assistées par l’IA.

[1] https://oscinnovation.ca/resources/Report-20231010-artificial-intelligence-in-capital-markets.pdf

Introduction

The rapid escalation in the scale and application of artificial intelligence (AI) has resulted in a critical challenge for retail investor protection against investment scams. To promote retail investor protection, we must understand how AI is enabling and generating investment scams, how investors are responding to these threats, and which mitigation strategies are effective. Consequently, we examined:

  1. The use of artificial intelligence to conduct financial scams and other fraudulent activities, including:
    • How scammers use AI to increase the efficacy of their financial scams;
    • How AI distorts information and promotes disinformation and/or misinformation;
    • How effectively people distinguish accurate information from AI-generated disinformation and/or misinformation; and,
    • How the promise of AI products and services are used to scam and defraud retail investors.
  2. The mitigation techniques that can be used to inhibit financial scams and other fraudulent activities that use AI at the system level and individual level.

Our report includes a mixed-methods research approach to explore each of these key areas:

  1. A literature and environmental scan to understand current trends in AI-enabled online scams, and a review of system and individual-level mitigation strategies to protect consumers. This included a review of 50 publications and “grey” literature (e.g., reports, white papers, proceedings, papers by government agencies, private companies, etc.) sources and 28 media sources. This scan yielded two prominent trends in AI-enabled scams: (1) Using generative AI to ‘turbocharge’ existing scams; and (2) Selling the promise of ‘AI-enhanced’ investment opportunities. This scan also summarized current system- and individual-level mitigation techniques. 
  2. A behavioural science experiment to assess the effectiveness of two types of mitigation strategies in reducing susceptibility to AI-enhanced investment scams. This experiment also sought to quantify

Desk Research

Experimental Research

To further our research, we conducted an experiment to examine 1) whether AI-enhanced scams are more harmful to retail investors than conventional scams, and 2) whether mitigation strategies can reduce the adverse effects of AI-enhanced scams by improving investors' ability to detect and avoid them.

Conclusion

The use of AI in the retail investing space is rapidly expanding. While AI as a technology is neither inherently good nor bad from an investor protection perspective, the use of AI could bring new threats to investor welfare when applied to scams. Malicious actors are exploiting the advanced capabilities of AI to manipulate markets, deceive investors, and orchestrate fraudulent schemes—posing significant risks to the integrity of financial markets. This concern is further amplified when considering the findings from our previous report on Artificial Intelligence and Retail Investing[115], which noted that retail investors adhered to advice from AI advisors similarly to human advisors. If retail investors trust AI advice as much as they do human advice, then poor, misleading, and/or manipulative AI advice could present substantial retail investor protection concerns.

The current research report was designed to assess the current level of risk associated with AI-enabled scams, and determine a responsive, evidence-based path forward for investor protection. Our research was conducted in two phases. First, we conducted desk research, which revealed they various ways AI capabilities could be exploited by malicious actors to more effectively deceive investors. Generative AI technologies are “turbocharging” common investment scams by increasing their reach, efficiency, and effectiveness. New scams are also being developed that were impossible without AI (e.g., deepfakes and voice cloning) or that exploit thepromise of AI through false claims of ‘AI-enhanced’ investment opportunities. Together, these enhanced and new types of investment scams are creating an investment landscape where they are more pervasive, harder to detect, and potentially more damaging.

We also explored evidence-based strategies to mitigate the harms associated with AI-enhanced or AI-related investment scams. We explored two sets of mitigations: system-level mitigations, which are designed to limit the risk of scams across all (or a large pool of) investors, and individual-level mitigations, which are designed to empower or support individual investors in detecting and avoiding scams. Drawing from research in various online contexts, including targeting misinformation/disinformation, we identified specific measures tailored for AI-enhanced scams, as well as broader strategies applicable to this domain and others.

In the second phase of our research, we built an online investment simulation to empirically test investors’ susceptibility to fraudulent investment opportunities and the effectiveness of mitigation strategies designed to protect investors from these harms. The experiment generated critical, novel, and policy-relevant insights:

  • AI-enhanced scams pose significantly more risk to investors compared to conventional scams. Participants invested 22% more in AI-enhanced scams than in conventional scams. This finding suggests that using widely available generative AI tools to enhance materials can make scams much more compelling. These findings reinforce the critical and escalating threat posed to investors by the availability of generative AI tools in executing scams.
  • Mitigations can reduce the magnitude of harm posed by AI-enhanced scams. In particular, a web browser plug-in that flags potential scams could quite effective. Both mitigation strategies we tested were effective at reducing susceptibility to AI-enabled scams. The ‘“inoculation” strategy reduced the amount invested in fraudulent opportunities by 5pp (10% decrease) while the web-browser plug-in reduced investments by 17pp (31% decrease).

    These results suggest that relevant, clear educational materials provided before people review investment opportunities can reduce the magnitude of harm posed by (AI-enhanced) investment scams. This inoculation technique could be implemented as an advertisement within social media platforms, such as Instagram or X.

    We also present significant empirical and theoretical support for the development of a browser or app-based, AI-driven scam detection tool. Beyond labelling potential scams in situ, this type of messaging could be used within education materials and within advertisements in response to certain search results. For example, these types of warnings could appear as Google search ads when users search for investments that have already been identified as scams.


 


[115] Ontario Securities Commission (2024), Artificial Intelligence and Retail Investing: Use Cases and Experimental Research.

Authors

Ontario Securities Commission:

Matthew Kan
Senior Advisor, Behavioural Insights 
[email protected]

Patrick Di Fonzo
Senior Advisor, Behavioural Insights 
[email protected]

Meera Paleja 
Program Head, Behavioural Insights
[email protected]

Kevin Fine
Senior Vice President, Thought Leadership
[email protected]

Behavioural Insights Team (BIT):

Amna Raza
Senior Advisor 
[email protected]

Riona Carriaga
Associate Advisor
[email protected]

Sasha Tregebov
Director
[email protected]