Robots financiers et I.A.
Aspects pratiques et éthiques
finROBOT01afp.indb 1finROBOT01afp.indb 108/02/2022 18:46:0308/02/2022 18:46:03
© Éditions Arnaud Franel 2022
Tous droits réservés
ISBN : 9782896038 01 5
Dépôt légal : bibliothèque et archives nationales du Québec 2022
Bibliothèque de France 2022
Imprimé en France en 2022.
Arnaud Franel Éditions Inc.
79 de Montmagny - Boucherville (Qc) J4B 4H9 - Canada Inc.
Arnaud Franel Éditions France
27-29, rue Raffet - 750156 Paris
Tél : 01 47 79 07 64 - Fax : 01 47 79 07 61
www.arnaudfranel.com
finROBOT01afp.indb 2finROBOT01afp.indb 208/02/2022 18:46:0308/02/2022 18:46:03
M M
Robots financiers et I.A.
finROBOT01afp.indb 3finROBOT01afp.indb 308/02/2022 18:46:0308/02/2022 18:46:03
À Phuong Anh et Sophia Anh
finROBOT01afp.indb 4finROBOT01afp.indb 408/02/2022 18:46:0308/02/2022 18:46:03
S
I ...........................................................................................................................
L’ ......................................................................................................................................
P
LES FONDAMENTAUX ........................................................................................
C
N, .........................................................................
1.1.L’agence morale ..................................................................................................................... 26
1.2.L’algorithme ................................................................................................................................ 29
1.3.Les robots ..................................................................................................................................... 31
1.4.Les robots financiers ......................................................................................................... 34
1.5.Le cube ............................................................................................................................................ 36
C
L’ .....................................................................
2.1. Une définition .......................................................................................................................... 45
2.2. La cadence ................................................................................................................................... 45
2.3. Définir l’intelligence artificielle ? .......................................................................... 47
2.4. La mise en œuvre des obligations morales ................................................ 48
2.5. L’apprentissage automatique .................................................................................... 52
2.6. L’apprentissage profond ............................................................................................... 54
C
L .............................................................
3.1. Le tandem littératie-numératie ............................................................................ 57
3.2. Les définitions des niveaux 3 ................................................................................... 58
3.3. Le trio des compétences .............................................................................................. 60
P
LES TROIS AXES ..............................................................................................................
C
L’ ..............................................................................................................................
4.1. Le déontologisme ................................................................................................................. 72
4.2. Le conséquentialisme ....................................................................................................... 75
4.3. L’éthique de la vertu ........................................................................................................... 79
4.4. La perspective .......................................................................................................................... 81
5
finROBOT01afp.indb 5finROBOT01afp.indb 508/02/2022 18:46:0308/02/2022 18:46:03
C
’ ................................................................................................
5.1. Le mandat ................................................................................................................................... 86
5.2. Le profil client .......................................................................................................................... 87
5.3. Les objectifs du client et besoins induits ..................................................... 88
5.4. L’analyse .......................................................................................................................................... 89
5.5. L’évaluation ................................................................................................................................. 91
5.6. Le plan financier .................................................................................................................... 93
5.7. La présentation ....................................................................................................................... 94
5.8. La mise en œuvre ................................................................................................................. 94
C
’ ...............................................................................................................
6.1. les aspects déontologiques ..................................................................................... 101
6.2. Les aspects contextuels .............................................................................................. 106
6.3. L’holisme .................................................................................................................................... 109
P
LES CHOIX ...........................................................................................................................
C
L ...............................................................
7.1. Le mandat ................................................................................................................................. 119
7.2. L’asymétrie ............................................................................................................................... 120
7.3. L’obligation fiduciaire ................................................................................................... 123
7.4. Le conflit d’intérêts ......................................................................................................... 124
7.5 La compétence ...................................................................................................................... 127
7.6. La révolution ......................................................................................................................... 127
7.7. Les futurs classiques ...................................................................................................... 128
C
L .........................................................
8.1. Le consensus ........................................................................................................................ 134
8.2. Asilomar ..................................................................................................................................... 136
8.3. Boatright .................................................................................................................................... 137
8.4. Les principes éthiques pour les robots ...................................................... 140
6
R I.A. - A
finROBOT01afp.indb 6finROBOT01afp.indb 608/02/2022 18:46:0308/02/2022 18:46:03
P
LES COBOTS .......................................................................................................................
C
..................................................................
9.1. Les savoirs du futur
4
..................................................................................................................................................................................
150
9.2. La taxonomie de Bloom ............................................................................................ 150
9.3. Les savoirs de base .......................................................................................................... 152
9.4. Les savoir-faire ................................................................................................................... 153
9.5. Les savoir-être ...................................................................................................................... 156
C
L ............................................
10.1. Les différences sociales ........................................................................................... 159
10.2. La sécurité financière ................................................................................................ 162
10.3. Le placement ...................................................................................................................... 165
10.4 L’immobilier ......................................................................................................................... 167
10.5. Le crédit .................................................................................................................................. 168
10.6. le soutien expert ........................................................................................................... 169
10.7. Réflexions sur l’enjeu des savoirs ................................................................. 170
C
L ....................................
11.1. Les mutations .................................................................................................................... 175
11.2. Les secteurs ......................................................................................................................... 177
11.3. La chaîne de valeur ...................................................................................................... 178
C É ........................................................................
S
finROBOT01afp.indb 7finROBOT01afp.indb 708/02/2022 18:46:0308/02/2022 18:46:03
8
D
finROBOT01afp.indb 8finROBOT01afp.indb 808/02/2022 18:46:0308/02/2022 18:46:03
I
Voir les robots financiers, à la fois sous la loupe de la philosophie et
dans une perspective pratique, voilà les perspectives de ce livre.
Au niveau philosophique, nous poserons les bases établies à travers
les morales normatives classiques. Deux questions s’imposeront !
Ces morales ont-elles une influence sur la chose financière ? Et si oui,
sont-elles présentes dans les algorithmes actuels ?
Influence sur la chose financière ? Historiquement, les morales reli-
gieuses ont eu une très forte influence sur la vie financière. Un rapide
survol dans l’histoire de ces morales nous le rappelle ! Depuis l’édit de
GrégoireIXqui interdisait le prêt usuraire en 1234, le monde finan-
cier est soumis à une certaine moralité.
Si l’assurance maritime est la première assurance sous sa forme
moderne, d’autres types d’assurance sont apparus par la suite, et
notamment l’assurance vieau XVII
e
et XVIII
e
siècle. Ce mouve-
ment existe alors à travers le monde, en France, en Angleterre et en
Amérique.
En France ce sont lestontines. Le financier italienLorenzo
Tonticrée en1652une forme de contrat d’assurance sur un mode
opératoire proche de l’assurance vie quoiqu’en en formant l’antithèse
de l’assurance décès - on récompense ainsi la survie. Chaque sous-
cripteur verse une somme dans un fonds. Au bout d’un certain temps,
les survivants se répartissent le capital.
En Angleterre, les premiers contrats d’assurance vie ont été sous-
crits, quelques années plus tard, au début du XVIIIesiècle. La
première société à proposer une assurance vie est l’Amicable Society
for a Perpetual Assurance Office, fondée à Londres en 1706.
Le premier contrat d’assurance décès fonctionnait de la manière
suivante. Chaque membre payait un montant annuel fixe par action
en fonction de son âge de douze à cinquante-cinq ans. À la fin de
l’année, une partie de la « contribution à l’amiable » était répartie
entre les épouses et les enfants des membres décédés en fonction du
nombre d’actions.
Revenons en France où c’est en 1787, que laCompagnie royale d’as-
surance vieest créée. La Révolution française a freiné ce mouvement.
9
finROBOT01afp.indb 9finROBOT01afp.indb 908/02/2022 18:46:0308/02/2022 18:46:03
Ce ne sera qu’en 1818que le Conseil d’État autorisera, de nouveau,
l’assurance sur la vie.
En Amérique, on réfère souvent à l’histoire de Michael J. McGivney.
En juin 1873, Michael, un séminariste chez les Jésuites de Montréal,
a reçu des nouvelles tristes et inattendues de sa famille dans le
Connecticut. Son père décédait à l’âge de 48ans. En son absence,
la famille McGivney devra survivre grâce à la foi, à la charité et au
travail des enfants plus âgés.
« L’avancement et l’amélioration mutuelle des jeunes hommes de
notre race » étaient leurs buts déclarés, et ils essayaient « de tendre
une main secourable aux frères dans le besoin, et de les aider dans les
moments de maladie et de mort ».
À travers une nouvelle fraternelle, on venait de créer une assurance
décès
1
et une assurance maladie, les premières dans un contexte
catholique. Il y a à peine 140ans.
On retrouve, dans le reste de la chrétienté, nommément chez les
calvinistes, des positions différentes illustrées par une citation de
Calvin. C’est l’approbation la plus explicite de l’intérêt, même si elle
est liée à certaines conditions. L’acceptation de l’« usure » ou des
paiements d’intérêts, selon la définition moderne, peut être trouvée
dans son Praelectiones in Libris Prophetiarum Jeremmaie, Epistolae
et Responsa
2
(1575)
3
.
Les mêmes exercices pourraient s’appliquer aussi à deux autres
grandes religions que sont l’islam et le judaïsme. Elles aussi traitent
de l’assurance et des intérêts quoiqu’avec des perspectives différentes.
Voilà pour ce bref survol de certains éléments philosophiques induits
par les religions.
Les principes moraux nous proviennent aussi des écoles classiques
de philosophie.
L’éthique normative, ou éthique substantielle, regroupe les travaux
philosophiques qui développent, analysent ou évaluent de manière
critique différentes conceptions de la morale. On la nomme ainsi du
fait que ces travaux portent sur le contenu — donc sur la « substance »
1. Remarquez qu’on ne parlera pas d’assurance sur la vie, considérée alors comme une gageure
sur la vie.
2. Qu’on pourrait traduire librement par «Lecture critique du livre du prophète Jérémie, lettres
et réponses» !
3. La première société à proposer une assurance vie à l’époque moderne est la Amicable Society
for a Perpetual Assurance Office, fondée à Londres en 1706. On constate ici l’influence profonde
de la doctrine religieuse sur les institutions financières.
10
R - A
finROBOT01afp.indb 10finROBOT01afp.indb 1008/02/2022 18:46:0408/02/2022 18:46:04
— de la morale, et prennent position sur des questions normatives,
c’est-à-dire sur ce qui « doit être » en matière d’action humaine.
Depuis plus de deux mille ans, les philosophes ont défendu de
nombreuses conceptions de la morale. Toutefois, trois approches
dominent en éthique normative: l’éthique conséquentialiste (ou
conséquentialisme), l’éthique déontologique (ou déontologisme) et
l’éthique de la vertu.
L’éthique conséquentialiste ou le conséquentialisme met l’accent
sur les conséquences de nos actions. Pour déterminer le caractère
moral d’une action, il faut s’intéresser à l’ensemble de ses consé-
quences. Une action est moralement bonne du fait qu’elle a des
conséquences qui sont bonnes ou, dans un dilemme, meilleures que
celles des autres actions possibles.
Le déontologisme ou l’éthique déontologique met plutôt l’accent
sur les notions de devoir, d’obligation et d’impératif moral. Pour
déterminer la moralité d’une action, il faut se référer au devoir moral
de l’agent. Un acte est moralement bon du fait qu’il satisfait à certains
devoirs ou obligations morales, et ce, peu importe ses conséquences.
C’est la morale dominante du moment.
La dernière approche en éthique, l’éthique de la vertu, met l’accent
sur les traits de caractère dont témoignent les actions: pour déter-
miner la moralité d’une action, il faut regarder le trait de caractère
qui est généralement associé à un tel acte. Est-ce une vertu ou un
vice ? Un acte est moralement bon du fait qu’il correspond à ce que
ferait quelqu’un de vertueux. C’est, littéralement, une conception du
bien !
Le conséquentialisme, le déontologisme et l’éthique de la vertu
proposent des règles pour évaluer une action d’un point de vue
moral. Mais ces approches en tant que telles ne permettent pas de
déterminer, entre deux actions, laquelle est moralement meilleure.
Par exemple, même si le conséquentialisme me dit que l’action mora-
lement bonne est celle qui a les meilleures conséquences, il ne me
dit pas comment déterminer quelles conséquences sont meilleures.
Quel type de conséquences dois-je privilégier ? De même, le déonto-
logisme me dit que l’action moralement bonne est celle qui satisfait à
mes obligations morales. Mais quelles sont mes obligations morales ?
L’éthique de la vertu me dit que l’action moralement bonne est celle
qui correspond à ce que ferait quelqu’un de vertueux, mais comment
savoir quelles vertus primeraient chez cette personne ?
11
I
finROBOT01afp.indb 11finROBOT01afp.indb 1108/02/2022 18:46:0408/02/2022 18:46:04
Pour répondre à ces questions, il faut quelque chose de plus, que
l’on pourrait appeler une conception du bien. En effet, que l’on adopte
une approche conséquentialiste, déontologique ou de l’éthique de la
vertu, il faut s’appuyer sur une conception des bonnes conséquences,
des devoirs moraux fondamentaux, ou des vertus à privilégier, selon
le cas. C’est là qu’interviennent différentes théories morales incluses
dans ces trois grandes approches.
Au niveau pratique, nous avons opté, à chaque fois où cela était
possible, pour des références internationales. Par exemple, nous
utilisons la normeISO-22222: 2005 Conseil en gestion de patri-
moine. Cette norme décrit la pratique de la gestion patrimoniale et
sa nature holistique. En effet, cette norme englobe tous les aspects
de la gestion avec des clients particuliers. Bien que les éléments ne
soient pas tous intégrés, les éléments discutés seront toujours inclus
dans la norme. Les questions que posent les robots financiers sont
nombreuses. Avons-nous, dans le marché actuel, de vrais robots
financiers à l’œuvre ? Devrions-nous craindre que les robots finan-
ciers remplacent les professionnels ? Les investisseurs auront-ils à
craindre la perte de contrôle de leurs avoirs ? Quelles sont les ques-
tions à poser AVANT l’utilisation d’un robot financier ? Nous tente-
rons de répondre à ces questions tout au long de cet ouvrage.
L’intervenant comme le conseiller en gestion patrimoniale offre des
services financiers qui sont parfois automatisés. Parfois, on utilisera,
dans le marché, certains progiciels de calcul ou d’aide à la décision.
Ce sont des moyens efficients de gérer les placements et optimiser les
rendements. La théorie de gestion des portefeuilles avec sa frontière
efficiente fonctionne adéquatement. Ces progiciels d’optimisation ne
sont pourtant pas des robots !
Tentons une première définition d’un robot financier. Le robot
financier pourrait se définir comme suit: ensemble de progiciels inté-
grés pouvant interagir de manière intelligente avec des humains et
doté d’un jugement susceptible de remettre les éléments factuels et
émotifs en perspective, en fonction des besoins du client, afin de livrer
une solution financière optimale en fonction des normes consensuelles
de pratique. Ce robot n’existe pas… encore. Existera-t-il bientôt ?
Il est plus que plausible d’y croire. Quand ? On l’ignore, mais il est
probable que cela soit possible dans un avenir rapproché !
12
Robots financiers et I.A. - Aspects pratiques et éthiques
finROBOT01afp.indb 12finROBOT01afp.indb 1208/02/2022 18:46:0408/02/2022 18:46:04
Une théorie intéressante a été développée par Nassim Nicholas
Taleb
4
pour tenter d’expliquer les grands bouleversements soudains
et imprévisibles: le cygne noir ou la tempête parfaite. Nous avons
subi une démonstration affligeante en 2020 avec la pandémie de la
Covid-19.
Nous croyons que la situation des robots financiers telle que nous
venons de la décrire présente des signes similaires à une situation de
tempête parfaite.
Il est impossible de calculer ou de prévoir en termes de probabilités
le moment où il y aurait un point de bascule
5
et quel évènement le
provoquerait. Il y a cependant un terreau fertile à ce bouleversement.
Ces catalyseurs de changements sontles contraintes de conformité,
les faibles niveaux de compétence des clients, la montée en puissance
des changements de moyens technologiques et leur appropriation
par les millénariaux, les modes de rémunération des intervenants et
les apprentissages issus de la finance comportementale. L’ensemble
de ces cinq lignes de force constituent un terreau fertile.
Un terreau fertile dans lequel se retrouvent de nouveaux enjeux qui
forcent une profonde réflexion. Tout change de manière accélérée.
Les contraintes réglementaires obligent des changements dans les
approches d’affaires et les comportements des professionnels et de leurs
clients. Les faibles niveaux de compétence accroissent le besoin d’inte-
raction entre les consommateurs et les professionnels. Simultanément,
des nouvelles générations de moyens et de clients s’approprient les
nouvelles perspectives. Les enseignements de la finance comportemen-
tale établissent, peu à peu, de nouveaux paradigmes.
Mais aussi une grande force d’inertie générée par les contrecoups.
Les contraintes réglementaires cristallisent des façons de faire même
si celles-ci deviennent lourdes. Quant aux clients avec de faibles
niveaux de compétence, la protection par des panoplies de règles,
certes nécessaires dans plusieurs cas, peut scléroser les approches.
La distanciation, qu’elle soit induite par la santé publique ou par la
technologie, a des effets d’encadrement que personne ne soupçonnait
encore hier. Enfin, la rémunération génère de nouveaux modèles. On
doit les bâtir, souvent à tâtons, à travers des moyens empiriques et
incertains.
4. TALEB, Nasim Nicholas, Le cygne noir, 2007, Éditions Transcontinental.
5. GLADWELL, Malcom, Le point de bascule, 2000, Éditions Transcontinental.
13
I
finROBOT01afp.indb 13finROBOT01afp.indb 1308/02/2022 18:46:0408/02/2022 18:46:04
Les contraintes de conformité revêtent une importance de plus
en plus grande depuis une vingtaine d’années et, encore plus, dans
le domaine financier. Cette conformité galopante impose aussi une
sérieuse réflexion. Dans des systèmes où la primauté du droit est
supérieure à la moralité des gestes posés, la réponse à une défail-
lance comme les fraudes ou envers l’intérêt légitime du client est trop
souvent réglementaire. Le système est en panne de morale.
Les faibles niveaux de compétence des clients accroissent les besoins
de conseils éclairés accompagnés d’une pédagogie élaborée face aux
clients lambda. Les investisseurs qualifiés
6
, selon les définitions tech-
niques, ne sont avisés que par leur richesse ! Souvent et malheureu-
sement, les personnes détentrices de capital sont plus âgées. Si elles
sont riches par leur capital retraite, elles sont souvent pauvres par
leurs revenus. Cette situation les fragilise et les rend, ainsi, moins
susceptibles de surmonter les chocs dans les marchés.
Ce sont donc certains grands traits qui soutiendront les éléments
philosophiques qui sont l’essence de cet ouvrage sur les robots finan-
ciers.
Notre approche vise les éléments moraux particulièrement absents
des documents d’experts, des publicités des grandes firmes ou des
discours officiels. Loin d’être discordante, cette vision se veut complé-
mentaire aux enjeux multidimensionnels qui sont ici nécessaires.
Cette vision philosophique est issue de mon travail dans le domaine
financier depuis le début de ma carrière. Ayant été à la fois, un des
initiateurs et instigateurs de la planification financière au Canada
7
et au Québec
8
, ces enjeux sont au centre de ma pratique. De plus,
j’œuvre en conformité financière depuis le début des années2000.
Si on avait à établir un début à la vague déontologique qui nous
submerge encore aujourd’hui, j’estime que c’est justement depuis ce
moment que les interventions réglementaires se sont multipliées.
Les principaux jalons, tant au niveau canadien qu’au niveau inter-
national, débutent par la crise financièreen 2000, celle des point-
coms. Souvenons-nous de la folie des investisseurs à propos des
firmes technologiques en rapport avec la toile en 2000. La moindre
6. Directive 45-106 des Autorités canadiennes en valeurs mobilières (ACVM).
7. À titre de membre du comité directeur sur la planification financière de l’Association des
banquiers canadiens (ABC).
8. À titre de membre fondateur, de membre du conseil et ayant présidé les destinées de l’Ins-
titut québécois de planification financière, organisme qui encadre les planificateurs financiers
au Québec.
14
Robots financiers et I.A. - Aspects pratiques et éthiques
finROBOT01afp.indb 14finROBOT01afp.indb 1408/02/2022 18:46:0408/02/2022 18:46:04
entreprise en démarrage faisait l’objet de toutes les convoitises. Des
ratios cours-bénéfice au-dessus de 100 ! Et, au Canada, un géant aux
pieds d’argile: Nortel.
Septembre 2001 a probablement été un de ces points de bascule de
l’Histoire. Le massacre de milliers d’innocents dans un contexte où
personne n’avait pu le prévoir a stimulé le renforcement des lois et
règles dans la lutte au blanchiment des capitaux et du financement
du terrorisme.
Ces mêmes années, de grands scandales financiers ont eu lieu. 2001
pour le scandale Enron et 2002 pour celui de WorldCom. Si on tente
de la résumer sommairement, la loi Sarbanes-Oxley de 2002 réprime
la fraude des entreprises. Elle a créé le Public Company Accounting
Oversight Board pour superviser le secteur de la comptabilité. Elle a
interdit les prêts aux dirigeants d’entreprise et a accordé une protec-
tion de l’emploi aux dénonciateurs. La loi renforce l’indépendance et
les compétences financières des conseils d’administration des entre-
prises. Elle tient les PDG personnellement responsables des erreurs
commises lors des audits comptables. Mais elle ne parle pas des
dérives morales de certains de nos dirigeants.
La crise des prêts hypothécaires à risque (subprime) s’est produite
lorsque les banques ont vendu trop de prêts hypothécaires pour
alimenter la demande de titres adossés à des créances hypothécaires
vendus sur le marché secondaire. Lorsque les prix de l’immobilier
ont chuté en 2006, cela a déclenché des défaillances. Le risque s’est
propagé aux fonds communs de placement, aux fonds de pension et
aux entreprises qui détenaient ces produits dérivés. La crise bancaire
qui a suivi en 2007 et la crise financière de 2008 ont produit la pire
récession depuis la Grande Dépression.
La loi Dodd-Frank en réponse à cette crise a réorganisé le système
de réglementation financière des États-Unis. Limitons-nous à
survoler les éléments qui portent sur la réglementation des particu-
liers et ayant un impact potentiel sur les sujets traités ici.
Le Consumer Financial Protection Bureau (CFPB) a été chargé de
protéger les consommateurs contre les abus liés aux cartes de crédit,
aux hypothèques et aux autres produits financiers.
Le Foreign Account Tax Compliance Act (FATCA) a été créé à cette
occasion. Cette législation, dirigée vers l’évasion fiscale des citoyens
américains, impose à toutes les juridictions le dictat américain. Ceci
a donné lieu, quelques années plus tard, à la réplique des autres pays
15
I
finROBOT01afp.indb 15finROBOT01afp.indb 1508/02/2022 18:46:0408/02/2022 18:46:04
introduisant une norme réciproque la Norme commune de décla-
ration en 2017, sous l’égide de l’Organisation de coopération et de
développement économique.
Les fraudes et les vols de données se multiplient de façon exponen-
tielle. Plus les impacts ou les dommages sont grands, plus les régula-
teurs et les gouvernements interviennent, avec raison. LeRèglement
général sur la protection des données(RGPD), entré en vigueur en
mai 2018, en est une illustration par certains aspects. Plus il y a d’in-
tervention, plus les problèmes de conformité risquent d’être grands:
les différentes interrelations seront plus complexes et il faudra des
systèmes experts pour arriver à comprendre toutes les interactions.
D’où l’arrivée plausible des robots experts en conformité
9
.
L’accroissement des contraintes devenait un point d’accélération
pour l’introduction des robots. En effet, la multiplicité croissante des
règles rend plus complexes les décisions.
Les réformes des diverses lois financières à travers le monde, dont
celle du Québec, implantées en 2019, ont amorcé un relâchement,
comme un lâcher-prise, de certaines contraintes réglementaires
ouvrant ainsi, encore plus, la voie aux robots financiers. J’ai pour
exemple la grande percée du conseil sans représentant. Mais ceci a
un effet inverse en créant de nouvelles façons de faire exposer juste-
ment à l’ubérisation des approches.
Le point de départ a probablement été la disparition d’un autre
grand pan du Dodd-Frank qui a été effacé par un décret présiden-
tiel au début du mandat de Donald J. Trump
10
. Il s’agissait du devoir
fiduciaire.
« La règle finale du Département du travail intitulée, Définition du
terme “Fiduciaire” ; Règle de conflit d’intérêts — Conseil d’investissement
pour la retraite, 81 Fed. Reg. 20 946 (8avril 2016) (Fiduciary Duty Rule
or Rule), peut modifier de manière significative la manière dont les
Américains peuvent recevoir des conseils financiers, et peut ne pas être
conforme aux politiques de mon administration. » Le train est passé
par cet abandon de la présidence américaine.
Un peu partout, on peut obtenir des devis en ligne. Et quid du
conseil ? On peut maintenant, au Canada, faire sa propre planification
financière, dit-on, sur des sites financiers reconnussans intervention
9. Ces robots existent d’ores et déjà dans l’industrie financière.
10. Extrait du Presidential Memorandum on Fiduciary Duty Rule, le3 février2017. Traduction
de l’auteur.
16
Robots financiers et I.A. - Aspects pratiques et éthiques
finROBOT01afp.indb 16finROBOT01afp.indb 1608/02/2022 18:46:0408/02/2022 18:46:04
d’un professionnel ! Et quid de la compétence ? L’enjeu devient alors
la capacité de l’utilisateur et, ultimement, la responsabilité des parties
impliquées.
La pandémie a débuté, au niveau financier sur des chapeaux de
roue. Deux jours noirs, les 9 et 12mars 2020. La chape du confine-
ment a frappé toutes les économies dans le monde rendant ainsi obli-
gatoire la distanciation physique, le dernier épouvantail du domaine
financier.
Notons au passage qu’unépouvantailest un mannequin recouvert
de haillons de manière à ressembler à un être humain, que l’on dresse
dans un jardin ou dans un champ pour effrayer les oiseaux et les
empêcher ainsi de dévorer les graines et les fruits. Un épouvantail
financier est le fait de considérer comme acquis que le conseil
financier passe nécessairement par une rencontre physique entre le
client et un expert… humain
11
.
Nous venons de prouver qu’il est possible, pas nécessairement
agréable, ni même aussi efficient, de faire des affaires en respectant
la distanciation physique. On avait peut-être confondu distanciation
physique avec distanciation sociale !
Tous ces éléments sont des accélérateurs objectifs en ce sens qu’ils
augmentent la pression à la venue des robots financiers
12
.
www.arnaudfranel.comwww.collegedesprofessionsfinancieres.ca
11. Voir à cet effet les notions d’apprentissage profond au chapitre 2.
12. Nous n’aborderons pas, dans le présent cadre, les dérapages «experts» qui surgissent de
manière récurrente, les Pandora Papers suivant les Panama Papers.
17
I
finROBOT01afp.indb 17finROBOT01afp.indb 1708/02/2022 18:46:0408/02/2022 18:46:04
18
finROBOT01afp.indb 18finROBOT01afp.indb 1808/02/2022 18:46:0408/02/2022 18:46:04
L’
L’ouvrage se divise en quatre grands thèmes ; les éléments fonda-
mentaux, les axes robotiques, les choix philosophiques et les cobots.
Dans les enjeux fondamentaux, avant d’examiner en profondeur
des aspects philosophiques, nous prendrons connaissance de la situa-
tion technique globale, des origines aux plus récentes avancées. Des
enjeux technologiques réglés au quart de tour à coup d’algorithmes.
L’édifice se lézarde peu à peu, nous laissant entrevoir un scénario à
la Kuhn
13
. Dans ce monde, on constate un manque d’encadrement
philosophique.
Nous aborderons les enjeux à partir des trois volets qui devraient
constituer les robots financiers. Le terme est ici descriptif: il s’agit
ici des morceaux de robots. Ils sont à la fois indépendants et tous
profondément intégrés entre eux. Nous les étudierons ici, surtout,
dans la perspective d’éléments indépendants.
Les enjeux périphériques implicites sont présents dans toutes les
facettes de la présente section. Il s’agit de l’Homme. L’évaluation du
risque en est le cas patent. Que ce soit pour l’analyse des besoins
financiers [ABF] ou du profil d’investisseur, sa subjectivité vient
influencer les résultats. S’il est déjà techniquement possible d’évaluer
de manière précise cette aversion aux risques, cela ne concorde pas
nécessairement avec les besoins du consommateur ou la perception
qu’il a de lui-même.
Enfin, la dernière partie portera sur les enjeux conséquents à l’in-
troduction des robots financiers plus précisément pour les profes-
sionnels qui gèrent la relation client. Elle représente la convergence
rapide du virtuel des intelligences artificielles basées sur les concep-
tions numériques et de la relation avec la réalité des intervenants, des
produits et des clients.
Certains intervenants de l’industrie voudraient encore, en 2021,
remettre en question la présence des robots financiers. La ques-
tion n’est déjà plus de savoir si les robots seront présents, ils y sont
déjà ! Les questions auxquelles nous tenterons de répondre seront
les suivantes. Comment le robot financier fonctionne-t-il ? Comment
13. KUHN, omas S. e structure of scientific revolutions, 2012, University of Chicago, dont
nous reparlerons au fil des pages.
19
finROBOT01afp.indb 19finROBOT01afp.indb 1908/02/2022 18:46:0408/02/2022 18:46:04
devrait-il fonctionner ? Comment nos tâches-conseils seront-elles
impactées ? Quel sera le partage de responsabilités ? Quel sera le degré
de transparence ?
Les conclusions seront aussi multiples en s’adressant à des publics
qui pourront sembler éclectiques.
Aux clients consommateurs de conseils financiers lesquels ont
toujours été au centre de nos préoccupations professionnelles dédiées
à l’éthique dans le monde financier. Pour vous, le livre devrait être un
gage qui fixe vos exigences quant à l’utilisation des robots qui inter-
viendront dans la gestion de votre patrimoine. Ne l’oubliez jamais,
vous êtes le décideur !
Aux intervenants patrimoniaux, consœurs et confrères avec qui
j’ai partagé le boulot durant de nombreuses années. Pour vous, l’ou-
vrage devrait décrire un premier partage des rôles et une nouvelle
périphérie de travail. Vous êtes ce trait d’union et le demeurerez.
Aux enseignants et étudiants, aux premières loges de la transmis-
sion des savoirs et au progrès de nos sociétés. Pour vous, un premier
compendium de cette fusion technico-philosophique. Vous êtes ce
réservoir de réflexion et de remise en question des us et coutumes.
Aux concepteurs de ces robots, ces experts en intelligence arti-
ficielle qui créent de nouveaux instruments puissants. Pour vous,
des pistes de travail sur des idées que vous avez à intégrer dans ces
nouvelles approches. Vous êtes ceux qui fourniront de nouveaux
instruments de pointe.
Aux régulateurs qui protègent les clients et assurent la discipline
des marchés. Pour vous, la description de nouveaux enjeux qui intro-
duisent de véritables défis pour les prochaines années. Pour vous,
une première lecture orientée vers une vision plus philosophique.
Vous êtes les garde-fous des pratiques éthiques.
Bonne lecture !
Michel Mailloux
20
Robots financiers et I.A. - Aspects pratiques et éthiques
finROBOT01afp.indb 20finROBOT01afp.indb 2008/02/2022 18:46:0508/02/2022 18:46:05
21
finROBOT01afp.indb 21finROBOT01afp.indb 2108/02/2022 18:46:0508/02/2022 18:46:05
Remerciements particuliers
J’aimerais remercier les nombreux confrères et consœurs qui ont nourri mes
réflexions sur ce livre ou, plus généralement sur la chose financière depuis
mes lointains débuts. Certains seront étonnés de l’influence qu’ils ont exercée
sur moi. Au premier chef, Denis Gobeille mon associé et ami au sein du
Collège des professions financières; Robert Pouliot, professeur à l’École des
sciences de la gestion à l’Université du Québec à Montréal; Komlan Szedro,
professeur ayant assumé antérieurement les postes de doyen et de directeur
du programme de maîtrise en finances, à l’École des sciences de la gestion
à l’Université du Québec à Montréal; Anne-Marie Girard-Plouffe, Guy
Jasmin, Robert McLaughlin et Robert Lafond et aux compagnons d’armes
de la première heure dans l’implantation de la planification financière
au Québec; Jacques Hébert, Mary Muldowney, Yves Bonneau et Priscilla
Franken pour leurs apports à mes publications; et aussi et surtout à celle
qui m’accompagne dans ce parcours et partage ma vie depuis plus de 25 ans,
Phuong Anh Ho Huu.
22
R - A
finROBOT01afp.indb 22finROBOT01afp.indb 2208/02/2022 18:46:0508/02/2022 18:46:05
P
LES FONDAMENTAUX
01000110 01001111 01001110 01000100 01000001 01001101
01000101 01001110 01010100 01000001 01010101 01011000
14
Avant d’examiner en profondeur les enjeux générés par les robots
financiers, nous devons réaliser un bref parcours initiatique. Nous
nous retrouverons confrontés aux nécessités philosophiques trop
souvent, sinon totalement, absentes des enjeux qu’on nous présente
dans le monde financier. Nous survolerons les bases de l’intelligence
artificielle en mesurant ainsi les conséquences éthiques de l’appren-
tissage profond. Enfin, nous apprécierons la compétence des clients
dans ce vaste univers financier. Ce sera cette première partie du
chemin qui nous donnera une vision globale du parcours résiduel qui
sera exploré par la suite.
14. Signifie «Fondamentaux» en écriture binaire.
23
N
finROBOT01afp.indb 23finROBOT01afp.indb 2308/02/2022 18:46:0508/02/2022 18:46:05
24
R - A
finROBOT01afp.indb 24finROBOT01afp.indb 2408/02/2022 18:46:0508/02/2022 18:46:05
C
N,
Les balbutiements de la robotique trouvent leur origine dans la
reconnaissance des capacités de calcul des ordinateurs avec, entre
autres, Alan Turning dans les années40. Loin de ces bases mathé-
matiques, dès 1950, on voit naître l’œuvre d’Isaac Assimov, I Robot.
Cutie, le robot vedette, pose dès lors les limites morales. Il évoque
quatre lois. Ces principes s’imposent comme la réponse aux fonc-
tions purement mathématiques. Cette médaille possède alors un
avers (côté mathématique) et un revers (côté philosophique).
Dans les documents de référence sur les robots en général et plus
particulièrement sur les robots financiers, on retrouve, de temps à
autre, des considérations basiques en éthiques. Les notions morales,
sont de nos jours, marginales. Si on fait exception de l’étude du M.I.T.
sur la morale de la conduite automobile
15
, il n’y a pas une pléthore
d’études sur le sujet.
Débutons en décrivant le monde des robots que nous connaissons
tous: des ordinateurs dotés de fonctions physiques ou qui influencent
des actions physiques, comme, à titre d’exemple, le robot qui contrôle
une machine-outil. Il y aura une seconde classe de robots, ceux qui
dotés de capacités similaires aux premiers ne seront pas nécessai-
rement liés à des fonctions physiques. En lançant des robots dits
« complets », nous serons en mesure de constater les différences qui
pourraient exister.
Que le robot appartienne à l’une ou l’autre de ces deux classes nous
importe peu, les notions morales devraient s’y rattacher. Tout au
plus, les conséquences pourraient être différentes.
La question de base demeure, à ce stade « Est-ce que les robots
doivent être dotés de fonctions morales ? ». Si oui, de quelle morale
devrons-nous parler ?
Dans la littérature en général sur les robots, on retrouve une forte
empreinte philosophique. Dans les faits, depuis Turing, avec les
premiers pas de la robotique, la préoccupation existe. Ceci est proba-
blement dû au fait que le robot est vu comme un fac-similé des capa-
15. Voir les éléments de la Moral Machine, chapitre4.
25
N
finROBOT01afp.indb 25finROBOT01afp.indb 2508/02/2022 18:46:0508/02/2022 18:46:05
cités d’action des humains. Ainsi, étant susceptible de faire comme
l’humain, il devrait pouvoir être encadré par des normes morales,
comme tous les humains. Pour les contemporains de Turing, on
parlera de l’âme des robots.
Rappelons-le: l’âme est la partie des humains considérée comme
immatérielle, immortelle, séparable du corps à la mort, capable de
jugement moral et susceptible de connaître le bonheur ou la misère
dans un état futur.
16
Remis dans des termes plus restreints, on pour-
rait plutôt parler aujourd’hui de conscience. Toujours selon le même
dictionnaire, une conscience serait celle de la moralité en ce qui
concerne le comportement ou un sens du bien et du mal qui pousse
à agir moralement, ou encore une source de jugement ou de décla-
ration morale ou éthique, ou une conformité à son propre sens de la
conduite juste.
Une chose sur laquelle la majorité des scientifiques s’entendent,
aujourd’hui, c’est l’absence d’un principe ou d’une force externe pour
expliquer le phénomène de la conscience. Les théories dualistes
voulant que la conscience soit d’une autre essence que le corps maté-
riel ont été abandonnées. « La conscience est tout simplement un
effet du cerveau, le produit de l’activité neuronale, affirme Luc-Alain
Giraldeau. Il n’y a pas, comme le croyait Descartes, une âme ou un
esprit séparé du corps — un petit homoncule assis dans le cerveau
— qui pilote la machine. » En fait, contrairement à ce que l’on a long-
temps cru, il n’y aurait même pas un centre de contrôle dans le cerveau
où siégerait la conscience. « La conscience serait plutôt le résultat de
l’activité macroscopique du cerveau, de l’interaction d’innombrables
groupes de neurones », soutient le professeur Pierre Poirier.
17
Si la perception de Poirier s’avérait juste, ce n’est qu’une ques-
tion de temps pour que les robots soient capables de conscience.
L’apprentissage profond nous en rapproche.
..L’
Le premier objet à déterminer est de savoir si un robot peut être
moral. Il ne viendrait à l’idée de personne de prétendre qu’un marteau
ou un couteau a une morale. C’est un objet passif qui prendra toute sa
raison d’être comme outil manipulé par une personne morale.
16. Définition du dictionnaire America Heritagede Soul : https://ahdictionary.com/word/
search.html ?q=soul
17. Pierre Poirier est professeur du Département de philosophie de l’Université du Québec à
Montréal. Tiré de Actualités UQAM, 15avril 2013.
26
Robots financiers et I.A. - Aspects pratiques et éthiques
finROBOT01afp.indb 26finROBOT01afp.indb 2608/02/2022 18:46:0508/02/2022 18:46:05
Descartes
18
décrivait ce phénomène dans les termes suivants.
« C’est aussi une chose fort remarquable que, bien qu’il y ait plusieurs
animaux qui témoignent plus d’industrie que nous en quelques-unes
de leurs actions, on voit toutefois que les mêmes n’en témoignent point
du tout en beaucoup d’autres: de façon que ce qu’ils font mieux que
nous ne prouve pas qu’ils ont de l’esprit, car à ce compte ils en auraient
plus qu’aucun de nous et feraient mieux en toute autre chose ; mais
plutôt qu’ils n’en ont point, et que c’est la nature qui agit en eux selon
la disposition de leurs organes: ainsi qu’on voit qu’une horloge, qui
n’est composée que de roues et de ressorts, peut compter les heures et
mesurer le temps plus justement que nous avec toute notre prudence.
J’avais décrit après cela l’âme raisonnable, et fait voir qu’elle ne peut
aucunement être tirée de la puissance de la matière, ainsi que les autres
choses dont j’avais parlé, mais qu’elle doit expressément être créée… »
Pour lui, seul l’homme est doté d’une âme, siège de la morale créé
par Dieu. Nous retrouverons des considérations similaires dans les
commentaires d’Alan Turing à propos de ses machines informa-
tiques, 300ans plus tard. À travers des instruments similaires, la
préoccupation demeure virtuellement intacte.
Alan Turing, dans son article publié en 1950, Computing Machinery
and Intelligence, avait déjà jeté les bases du questionnement sur l’in-
telligence artificielle.
«On peut espérer que les machines finiront par concurrencer les
hommes dans tous les domaines purement intellectuels.»
19
. Cette
position était exceptionnelle. À la fin des années 40, on utilisait
des arguments théologiques pour démontrer que les machines ne
pouvaient pas penser.
Voyons ce que pense Turing des aspects philosophiques
20
de la pensée
des robots. «La pensée est une fonction de l’âme immortelle de l’homme.
Dieu a donné une âme immortelle à chaque homme et femme, mais
pas à un autre animal ni à des machines. Aucun animal ou machine ne
peut donc penser.... En essayant de construire de telles machines, nous
ne devrions pas usurper irrévérencieusement Son pouvoir de créer des
âmes, pas plus que nous ne sommes dans la procréation d’enfants : nous
sommes plutôt, dans les deux cas, des instruments de Sa volonté four-
nissant des demeures aux âmes qu’Il crée.»
18. DESCARTES, René, Discours de la méthode (1637) Édition électronique (ePub) v.: 1,0: Les
Échos du Maquis, 2011. Pages35 et 36.
19. https://academic.oup.com/mind/article/LIX/236/433/986238.
20. Revue Mind, VOL. LIX. NO. 236.] [October, 1950, page 443.
27
C - N,
finROBOT01afp.indb 27finROBOT01afp.indb 2708/02/2022 18:46:0508/02/2022 18:46:05
L’ordinateur ou la « machine informatique » a évolué à vitesse grand
V depuis la Seconde Guerre mondiale. On a mieux défini sa nature par
des algorithmes plus complexes. Ils automatisent les diverses tâches
à accomplir. En ajoutant des pièces mobiles, c’est le programme de
l’ordinateur qui manipulera le marteau. Mais il demeure que ni l’ordi-
nateur ni le marteau ne seront dotés d’une morale.
Si le marteau frappe une personne, il s’agira soit d’un bris méca-
nique, soit une erreur de programmation. Or si l’erreur venait de
l’humain (le programmeur), qui devrait être tenu responsable ?
On vient ici de toucher l’essence des enjeux auxquels nous faisons
face. L’ordinateur n’est pas responsable. Il a été mal programmé. Le
marteau n’est pas responsable puisqu’il a été guidé par l’algorithme.
Ni le marteau (instrument simple) ni l’ordinateur (instrument sophis-
tiqué) ne seront responsables.
Dans ce contexte, nous constatons donc les mêmes enjeux décrits
par Descartes. Les objets aussi complexes soient-ils ne sont pas
des agents moraux. Une même dichotomie ! Mais qu’est donc cette
agence morale dont on parle en éthique ?
Comme on aurait pu s’y attendre dans le domaine financier, il aurait
pu s’agir de la théorie de l’agence. Celle-ci s’établit dans le cadre d’une
relation entre un intervenant financier (agent) et son client (prin-
cipal), ce dernier mandatera l’intervenant pour gérer au mieux les
fonds confiés
21
. Ce n’est pas de cette théorie dont nous parlerons à ce
stade mais nous y reviendrons.
Donnons une définition simple de l’agence morale. L’agence morale
indique une capacité de discerner le bien du mal
22
. De ce fait, cet
agent pourra être tenu responsable de ses propres actions. En
d’autres termes, l’agent moral a la responsabilité morale de ne pas
causer de préjudice injustifié. Cette définition implique elle-même
deux concepts maîtres, ceux de la morale et de l’intention.
Lorsqu’on parle de discerner le bien du mal, on doit nécessairement
définir ce que sont ces deux concepts. Une proposition, une action,
un conseil sont-ils bien ou mal ? Si on suggère à un client de poser un
geste, comment peut-on juger celui-ci ? La seule façon de le juger sera
de définir une référence qui permettra de juger cette action.
21. Nous retrouverons ici quatre grands types d’enjeux: le mandat de nature implicite, l’asymé-
trie d’information, volontaire ou non, l’aléa moral et le principe de la sélection adverse.
22. GUNKEL, David J. e machine question, 2012, e MIT Press, page19.
28
Robots financiers et I.A. - Aspects pratiques et éthiques
finROBOT01afp.indb 28finROBOT01afp.indb 2808/02/2022 18:46:0508/02/2022 18:46:05
Ces références seront les différentes écoles de morale. Ce choix
entre les différentes écoles devient le centre des choix moraux qu’on
devrait retrouver dans la logique définie dans la programmation du
robot. Ces choix moraux seront d’autant plus importants que, selon le
choix, une action pourrait être trouvée bonne ou mauvaise. La situa-
tion demeurerait inconciliable si on n’intégrait pas ces notions dans
la logique du robot. On peut et on doit ajouter des règles morales
dans les algorithmes ou même composer des algorithmes particu-
liers pour gérer ces aspects cruciaux. Nous traiterons de ces choix
dans le chapitre sur l’axe moral
23
.
Ainsi on peut répondre à une partie de nos interrogations sur l’agent
moral. On peut choisir une série de critères moraux en les intégrant
aux algorithmes. Ceci lai