talon ChatGPT arrive dans la finance, alors parlons des risques et des récompenses - Unite.AI
Suivez nous sur

Des leaders d'opinion

ChatGPT arrive dans la finance, parlons donc des risques et des récompenses

mm

Publié le

 on

Le lancement de ChatGPT a envoyé le monde dans une frénésie. Cinq jours après son lancement, il comptait plus d'un million d'utilisateurs. Dans les deux mois, il a battu des records comme l'application grand public à la croissance la plus rapide de l'histoire, avec 100 millions d'utilisateurs. Pour la perspective, il a fallu TikTok neuf mois et Instagram 2.5 ans pour atteindre ce jalon.

Depuis sa sortie, l'IA générative a atteint son paroxysme dans presque tous les secteurs, y compris la finance. BloombergGPT a été annoncé fin mars, et ses capacités comprennent l'analyse des sentiments, l'évaluation des risques, la détection des fraudes et la classification des documents, ainsi que d'autres tâches NLP financières.

Maintenant que la boîte de Pandore est ouverte, impossible de revenir en arrière. Nous verrons l'IA générative et les LLM jouer un rôle plus important dans le secteur financier, ce qui conduira probablement des experts en investissement à occuper de nouveaux postes mettant l'accent sur l'ingénierie rapide et l'analyse contextuelle.

Étant donné que le changement est inévitable, la prochaine étape logique consiste à déboguer le système, pour ainsi dire, en examinant les risques potentiels et en envisageant des moyens de les atténuer.

Risque : biais de confirmation et dépendance excessive à l'« expertise » de la machine

Actuellement, les marchés financiers connaissent balançoires sérieuses qui laissent tous sauf les investisseurs les plus au ventre de fer ressentir le mal des transports. Voyons maintenant ce qui pourrait arriver si nous ajoutions une cohorte substantielle de conseillers financiers qui dépendent fortement de l'IA pour donner des conseils en investissement.

Il est vrai que nous savons tous que l'IA est sujette aux biais ; nous savons également que la nature humaine nous rend beaucoup plus susceptibles de faire trop confiance aux machines, en particulier celles qui semblent très intelligentes. Ce biais – appelé «heuristique de la machine» – pourrait trop facilement devenir incontrôlable si les professionnels commençaient à trop se fier aux prédictions de l'IA et à ne pas vérifier les résultats par rapport à leurs propres connaissances et expériences.

L'itération actuelle de ChatGPT est essentiellement d'accord avec tout ce que vous dites, donc si les gens commencent à poser des questions à ChatGPT sur les marchés financiers sur la base d'informations peu claires, partielles ou fausses, ils obtiendront des réponses qui confirmeront leurs idées, même si elles se trompent. Il est facile de voir comment cela pourrait conduire à un désastre, en particulier lorsque des préjugés humains ou un peu de vérification paresseuse des faits sont ajoutés au mélange.

Récompense : Efficacité, productivité, gestion des risques et satisfaction client améliorées

Les fonds spéculatifs comme Citadelle et des monolithes bancaires comme Morgan Stanley adoptent déjà cette technologie en tant que ressource de connaissances car elle est si habile à accomplir des tâches de routine comme l'organisation des données et l'évaluation des risques. Lorsqu'il est intégré en tant qu'outil dans une boîte à outils des professionnels de l'investissement, il peut aider les gestionnaires financiers à prendre de meilleures décisions en moins de temps, les libérant pour faire les parties du travail axées sur l'expertise qu'ils apprécient le plus.

Il est également capable de analyser les données financières en temps réel, identifier les transactions frauduleuses et prendre des mesures immédiates pour prévenir les pertes. La détection de ces schémas de fraude serait difficile, voire impossible, à repérer avec les méthodes traditionnelles. Les institutions financières aux États-Unis ont perdu plus de 4.5 milliard de dollars à la fraude en 2022, c'est donc une énorme récompense pour les banques.

De plus, l'IA générative permet à des assistants virtuels plus intelligents de fournir un service client personnalisé et efficace 24h/7 et XNUMXj/XNUMX. Par exemple, l'Inde Fonds commun de placement Tata s'est associé à la plate-forme d'intelligence artificielle conversationnelle Haptik pour créer un chatbot afin d'aider les clients pour les requêtes de base sur les comptes et de fournir des conseils financiers, ce qui a entraîné une baisse de 70 % du volume d'appels et une meilleure satisfaction des clients.

Risque : réglementations de conformité insuffisantes

C'est difficile à imaginer, mais l'incroyable puissance de GPT en est encore à ses balbutiements. L'avenir verra sans aucun doute une itération si sophistiquée que nous ne pouvons pas encore saisir pleinement ses capacités. Pour cette raison, la communauté mondiale doit établir des cadres réglementaires stricts et complets qui garantissent son utilisation équitable et éthique. Sinon, il est probable que nous verrons pratiques discriminatoires résultent de données biaisées, intentionnelles ou non.

À l'heure actuelle, des contrôles cohérents font cruellement défaut, laissant les entreprises et les pays se démener pour décider comment gérer cette technologie et à quel point leurs restrictions doivent être strictes. Par exemple, dans les secteurs qui traitent des données hautement sensibles, comme la finance, la santé et le gouvernement, de nombreuses organisations ont carrément interdit toute utilisation de ChatGPT car ils ne savent pas à quel point leurs données seront sécurisées. Amazon, Verizon, JPMorgan Chase, Accenture et Goldman Sachs en sont tous des exemples. interdiction générale.

À plus grande échelle, les pays sont dans le même vide réglementaire, certains, comme Allemagne ainsi que le Italie, émettant des interdictions temporaires jusqu'à ce qu'ils puissent s'assurer que cela n'incitera pas à des violations du RGPD. Il s'agit d'une grave préoccupation pour tous les membres de l'UE, en particulier à la suite de fuites de données déjà signalé par OpenAI.

Malheureusement, les régulateurs sont déjà assez loin derrière la courbe lorsqu'il s'agit de développer des cadres juridiques solides pour cette technologie. Pourtant, une fois qu'ils auront rattrapé leur retard, nous pouvons nous attendre à voir GPT prendre sa place dans tous les secteurs de la communauté mondiale.

Récompense : une meilleure réglementation signifie une adoption plus rapide

Le manque de contrôles sur la technologie GPT est un goulot d'étranglement majeur pour une adoption plus généralisée. Oui, c'est une nouveauté à la mode en ce moment, mais elle ne peut être considérée comme un élément sérieux d'une stratégie d'entreprise à long terme sans règles et directives complètes sur son utilisation.

Une fois que la communauté mondiale aura développé et mis en œuvre des cadres appropriés, les entreprises se sentiront plus à l'aise d'investir dans cette technologie, ouvrant une toute nouvelle vague de cas d'utilisation, même dans les secteurs les plus avancés en matière de cybersécurité comme les soins de santé et le gouvernement.

Risque : inonder les marchés financiers d'amateurs

Plus tôt, j'ai mentionné le problème de l'IA générative qui ne peut donner des sorties qu'en fonction de ses entrées. Ce problème a des implications plus larges que de permettre aux professionnels chevronnés d'être un peu paresseux. Au moins, les vétérans de l'industrie ont l'expérience et les compétences nécessaires pour contextualiser les données qui leur sont fournies, ce qui est plus que ce que l'on peut dire pour les amateurs qui pensent pouvoir se faire passer pour des conseillers professionnels en apprenant à utiliser ChatGPT.

Il n'y a rien de mal à être un investisseur autonome, surtout si vous aimez explorer les marchés financiers et expérimenter le risque à vos propres frais. Le problème est lorsque ces personnes relativement peu qualifiées avec un peu d'argent et beaucoup de temps libre décident qu'elles sont plus compétentes qu'elles ne le sont réellement à cause de l'IA et décident de se faire connaître en tant que professionnels. Leur manque d'expérience dans le monde réel et de formation formelle entraînera probablement une bonne quantité de chaos à court terme et mettra un stress supplémentaire sur les vrais professionnels.

Récompense : ChatGPT peut donner aux professionnels une réputation à long terme et démocratiser les conseils financiers

La bonne nouvelle ici est que si les vrais vétérans peuvent surmonter les inconvénients d'un marché temporairement inondé, ils verront à quelle vitesse les gens se lassent d'entendre conseils génériques ils auraient pu lire sur Yahoo Finance et regarder les amateurs quitter le marché aussi vite qu'ils y sont entrés, ne laissant que les conseillers chevronnés chercher les clients désormais sans conseiller souhaitant payer l'aide d'un expert de quelqu'un qui peut fournir de vrais résultats.

De l'autre côté de l'équation, ChatGPT peut également jouer un rôle dans la réduction de l'écart en littératie financière et aider ceux qui n'ont pas accès à un conseiller professionnel à apprendre certaines stratégies de base pour optimiser leur argent. Sa capacité à générer des conseils d'investissement de base utiles signifie qu'il est désormais possible de commencer à rendre l'éducation financière plus accessible, même à ceux qui n'étaient auparavant pas en mesure de payer pour des services financiers professionnels.

La réduction des obstacles à une meilleure stabilité financière est un avantage extrêmement important de cette technologie car, actuellement, seuls un adulte sur trois dans la communauté mondiale ont des connaissances financières.

Mikhaïl Taver est le fondateur et associé directeur de Delaware-based Capitale de la taverne, un fonds de capital-risque international axé sur l'investissement dans des sociétés mondiales d'intelligence artificielle. En 20 ans de postes de direction au sein de grands groupes financiers et d'entreprises industrielles, Mikhail a conclu plus de 250 opérations de fusions-acquisitions et de capital-investissement. Il détient les certifications CFA, ACMA et CGMA.