Intelligence
Artificielle : point de vue d'une petite française...
(Durée de lecture : ~15 min.)
A peine sorti, le Rapport Villani sur l'Intelligence Artificielle a fait l'objet de nombreuses critiques et des articles pointant du doigt ses lacunes. Cependant, peu de ces articles fournissent une analyse systémique et proposent d'actions concrètes.
Malgré
tout, je pense que ce rapport est un pas en avant et va dans le bon
sens. Et il est plus intéressant de prendre ce plan et d'essayer de
l'améliorer en continu avec des propositions constructives et
pragmatiques.
Je
me sens complètement concernée par l'IA et par le débat autour de
l'éthique. C'est une technologie qui va complètement bouleverser
nos modes de vie et à laquelle il faut se préparer.
Dans
la suite de ce billet, je vous propose d'élargir l'analyse et de
revenir sur certains points qui me semblent importants :
-
Réintégrer dans l'analyse les dimensions politique et
environnementale.
-
Ne pas se focaliser uniquement sur les US et la Chine et ne pas
négliger le potentiel de situation que peut nous offrir l'Europe
et l'Afrique.
-
Faire un focus sur le rôle des grands groupes français, et leurs
partenariats avec nos startups.
-
Arrêter de suivre, et construire notre propre modèle mental.
-
Expliquer les raisons pour lesquelles il est important d'intégrer
l'éthique dès la conception d'une IA et la nécessité de redonner
confiance aux utilisateurs. #EthicbyDesign
-
Revaloriser la voix du client qui n'a été mentionnée
dans aucun des articles sur le Rapport Villani que j'ai lus.
Moins
de visions, plus d'actions concrètes et immédiates :
Prenons
l'exemple
de l'article
d'Olivier
Ezratty (consultant et auteur) « Ce
que révèle le Rapport Villani » : il fournit une
analyse très intéressante et de nombreux constats justes. Je suis
d'accord avec lui sur le fait que la priorité n'est pas d'investir
davantage dans des instituts de recherche mais de favoriser
l'innovation pour trouver des nouveaux services créateurs de
valeurs.
Cependant,
son article offre finalement très peu de propositions
opérationnelles et d'actions immédiates. Il réaffirme que nous
devons créer un leader mondial. Très bien, mais comment ?
D'après
lui : « Comment attaquer le marché US est le principal
problème à traiter. L'Asie ensuite. », oui mais comment
attaquer les marchés américains et chinois alors que les US et
la Chine jouent à fond la carte du protectionnisme en favorisant des
entreprises nationales et que même les GAFA ont échoué à
pénétrer le marché chinois ?Conférer les articles suivants :
1)
La
Chine prêche la mondialisation mais pratique le protectionnisme,
accuse un responsable du FMI.
Car
en plus d'être un problème business, d'innovation, d'écosystème
technologique, il s'agit aussi d'un problème politique.
Alors
que faut-il faire ? Les forcer à changer leur politique protectionniste avec le risque de provoquer l'effet inverse
escompté ? Et cela risque de prendre beaucoup de temps. Opérer
la même stratégie qu'eux quitte à nous isoler ? Ou alors agir
avec ce que nous avons sous la main dès maintenant et lancer des
actions immédiates en travaillant progressivement à débloquer ces
points ?
Agissons
avec ce que nous avons sous la main et tirons parti des
circonstances :
Rappelons
nous que certains GAFA ont commencé dans un garage ou une chambre
d'étudiant avec très peu de capital et un ciblage local. Comme
l'explique Philippe Silberzahn (Professeur
d'entrepreneuriat, de stratégie et d'innovation à EMLYON Business
School)
dans sa présentation du
« leadership effectual »,
un entrepreneur se lance sans se dire qu'il va attaquer le marché
mondial, agit avec ce qu'il a sous la main et tire parti des
circonstances.
Alors
commençons avec ce que nous avons, en
premier lieu avec notre marché « franco-français ».
Essayons déjà de capter nos 68 millions d'utilisateurs potentiels
pour expérimenter nos produits et services innovants, les éprouver
et essayer d'en tirer des modèles disruptifs. Il faut arrêter de
cracher dans la soupe, 68 millions de consommateurs, ce n'est pas
rien et de nombreuses entreprises en rêveraient !
Avant
de devenir un leader mondial, créons
déjà des leaders nationaux pour faire contrepoids face aux GAFA sur
notre propre territoire
comme le mentionne si bien Nicolas Colin (entrepreneur français)
dans son article « Emmanuel
Macron’s artificial intelligence pitch risks falling short. ».
L'Afrique
un potentiel immense, renforçons notre partenariat :
Pourquoi
se fixer des plans stratégiques focalisés sur les US et l'Asie
comme le suggère Olivier Ezratty? Et pourquoi l'Europe et l'Afrique
ne pourraient-ils pas s'avérer de véritables opportunités ?
L'Union Européenne n'a-t-elle pas pour objectif de favoriser les
échanges ? N'avons-nous pas une relation privilégiée avec
l'Afrique ? L'Europe est le premier partenaire commercial de
l'Afrique. Les besoins en Afrique autour des grandes fonctions
régaliennes que sont la santé, l'environnement, l'éducation et
le transport sont immenses et des modèles différents émergent.
Et nous avons les mêmes préoccupations. Alors pourquoi ne pas tirer
davantage parti de ces circonstances, utiliser nos compétences sur
l'IA pour améliorer les conditions de vie en Afrique voire même
apprendre de leurs nouveaux modèles?
Gilles
Babinet, Digital Champion et co-fondateur d'Africa 4 tech nous
explique très bien pourquoi il faut accélérer les partenariats de
nos entreprises avec les entreprises africaines et qu'une meilleure
coordination des états doit permettre d'optimiser. Conférer les
articles suivants :
Attaquons
tous les marchés et voyons où les circonstances et les opportunités
nous emmènent.
Mobilisons
nos grands groupes français et utilisons les comme des ponts vers
l'international :
Tous
les plans d'investissements ne peuvent pas venir de l'Etat. Comme le
précise Olivier Ezratty en parlant du plan de financement d'1,5 Mds
pour l'IA annoncé par le gouvernement français : « Ces
montants annoncés paraissent ridicules quand on les met en regard
des $15B annoncés par Alibaba, mais il faudrait les comparer aux
investissements publics d’autres pays européens. Dans ce cadre,
les annonces d’Emmanuel Macron sont de bon niveau... On ne peut pas
demander à l’Etat d’investir autant que des mastodontes privés.
Nous nous n’en avons chez nous ! Et au passage, les $15B d’Alibaba
comprennent surtout une grosse réserve pour des acquisitions. Ils ne
prévoient de recruter que 100 chercheurs en IA, ce qui est modeste
au regard de leur nombre dans le secteur public dans tous les pays
occidentaux. Évitons donc de tomber dans le piège de la sidération
face à ces annonces toujours ampoulées qui mélangent des choux
(M&A, développement produits) et des carottes (recherche
fondamentale) sur une longue période ! ».
Même
si nous n'avons pas de mastodontes comme Alibaba (du moins pas
encore), n'oublions pas que nous avons un très beau panel de grandes
entreprises françaises privées. Je pense que nous devons les
convaincre d'investir davantage sur l'IA et les utiliser comme
des ponts vers l'international.
Parmi
tous les plus grands groupes privés français tels que Total,
L'Oréal, LVMH et j'en passe, comment ont-ils investi pour développer
l'IA en France ? Que font-ils alors que des sociétés comme
Microsoft accélère sur l'IA en France à travers un partenariat
avec l'Inria, le programme AI Factory à Station F qui accueille
plusieurs startups spécialisées sur l'IA et envisage d'investir 30
millions de dollars sur trois ans en France pour sensibiliser, former
et créer de nouvelles opportunités dans le numérique en France?
Que font-ils alors que Samsung envisage de créer un centre de
recherche dédié à l'IA en France ?
L'alliance
Renault-Nissan-Mitsubishi a annoncé la création d'un fonds
d'investissement de 1 Mds de dollars sur 5 ans pour l'innovation. Il a
réalisé un premier investissement dans une startup américaine.
Espérons qu'une partie permettra de développer l'IA en France (réf.
article : L’alliance
Renault-Nissan va investir 1 milliard de dollars dans des startups
d’ici 2022.).
L'Oréal
vient
de
racheter
une société canadienne ModiFace spécialisée dans la réalité
augmentée et l'intelligence artificielle (réf. article : L'Oréal
s'offre une entreprise de la Tech.).
Néanmoins,
les investissements restent hétérogènes puisque d'autres grands
groupes comme LVMH préfèrent nouer des partenariats plutôt que
d'investir dans des startups ou de les incuber.
Ces
mêmes premiers grands groupes français sont également très bien
implantés à l'international et peuvent être des ponts efficaces
pour justement nous développer à l'international.
Pa exemple, L'Oréal est très largement implanté dans 4 continents.
RATP Dev opère et maintient des réseaux de transport sur 4
continents. Orange continue sa croissance en Afrique. Ces groupes
pourraient exporter nos produits par le biais des services qu'ils
offrent à l'international.
Alors
pourquoi ces initiatives ne sont-elles pas reprises par tous nos
grands groupes français ? Leurs investissements en France dans
ce domaine restent insuffisants. Il faut les convaincre de participer
davantage à développer le leadership français dans le domaine de
l'IA.
Favorisons
les partenariats entre grandes entreprises et startups françaises :
Les
partenariats entre grandes entreprises françaises et startups sont
également hétérogènes en France. Un partenariat est plus que de
juxtaposer son label sur un produit. Nous devons développer les
partenariats entre ces acteurs de l'écosystème :
-
Donner la chance aux solutions proposées par nos startups
face à de grands éditeurs étrangers.
-
Faciliter l'intégration des solutions de ces startups dans
l'écosystème digital de l'entreprise en préparant son organisation
entière à l'accueillir. De très nombreux ouvrages détaillent
ces points liés à la transformation digitale des entreprises, la
transformation agile, l'intrapreneuriat, l'open data, l'exposition
sécurisée des données à l'extérieur. Donc, je ne m'y attarderai
pas plus que cela.
-
Ouvrir notre patrimoine de données tout en respectant les données
personnelles de nos clients, leurs consentements
et la sécurité de l'entreprise.
-
Profiter de ces partenariats pour développer les compétences sur
l'IA en interne.
Rachat
des startups : fin d'un modèle ? => Créer notre
modèle mental.
Un
point sur lequel tous nos experts convergent est la nécessité de
favoriser l'innovation et développer les idées disruptives au
travers de nos entrepreneurs.
Cependant,
comme le mentionne cet article « Start-up
: la fin du modèle américain », la majorité des startups
américaines qui fonctionnent comme Whatsapp, Waze ou Deepmind se
font racheter par les GAFA. A
l'instar de Recast.ai, startup
française spécialisée dans les bots, qui
a été rachetée
par
SAP en janvier 2018. SAP a intégré la solution Recast.ai dans son
offre SAP Leonardo et la propose désormais à ses clients. Ces
startups choisissent, de plein gré ou non, de se faire racheter
plutôt que de croître. Alors comment faire pour que ces startups à
potentiel veuillent et puissent continuer à se développer et
contribuer au leadership français ?
J'irai
plus loin dans ma réflexion : comme le dit Philippe
Silberzahn, l'innovation
ne se planifie pas et peut prendre du temps. Les GAFAM et les BATX
ont pris du temps et ont
essuyé
beaucoup d'échecs avant de devenir ce qu'ils sont. Dans
cette course, il
est difficile de passer leader en continuant à suivre les modèles
des autres. Il est peut-être temps de créer
notre
propre
modèle
mental.
Cela
nous amène aux
chapitres
suivants.
« Accepter
l'idée qu'une collaboration entre des communautés diverses puisse
avoir des résultats extraordinaires » (Gilles
Babinet) :
Comme
l'explique très bien l'article « Intelligence
artificielle : être suiveur ou devenir leader ? » de
Gilles Babinet, il est nécessaire de booster le partage et la
collaboration entre des communautés diverses (chercheurs et
entrepreneurs dans le domaine de l'IA mais également grandes
entreprises, institutions publiques, utilisateurs finaux, etc.) au
travers de plateformes collaboratives comme GitHub ou TensorFlow pour
favoriser la sérendipité
et l'innovation.
Je
pense que ces plateformes
collaboratives phygitales
(points de rencontres physiques et digitaux) doivent également
permettre de démocratiser l'IA et de l'aborder sous les
différents angles :
-
Business ;
-
Innovation, nouveaux
modèles, besoins,
usages, expériences clients, etc ;
-
Recherche ;
-
Formation ;
-
Partenariats ;
-
Politique ;
-
Ethique ;
-
Développement
durable ;
-
Bonnes
pratiques ;
-
Etc.
Et
j'irai même plus loin, ces plateformes peuvent avoir un vrai rôle
d'intermédiation
pour construire
des
vraies équipes organisées et autonomes composées d'acteurs de
communautés diverses
(chercheur , entrepreneur , groupe, investisseur).
Co-designer
les « next big things» :
Une
des pistes de réflexion soulevée par Olivier Ezratty est de
« Formuler
des rêves
et des ambitions de
domaines scientifiques à résoudre et de besoins concrets à traiter
grâce à l’IA. Penser
aux “next big things”. Identifier des “moonshots”. ».
La
création de plateformes collaboratives phygitales pourrait permettre
de favoriser
les échanges, la collaboration entre
diverses communautés afin
d'identifier
des besoins, des cas d'usage concrets et
des nouveaux services innovants à
traiter grâce à l'IA.
Selon
moi, il faut repenser
une certaine transversalité des produits et des services et
co-designer
les « next big things » à l'intersection de la
désirabilité (humain), la faisabilité (technologie), la viabilité
(business) et la circularité (environnement) grâce à des équipes
auto-organisées
d'acteurs de divers horizons
permettant de profiter des expertises sur chacun de ces domaines.
#AIForHumanity
#EthicbyDesign :
Le
positionnement de l'éthique dans le Rapport
Villani fait débat. Cf. articles d'Olivier Ezratty sus-mentionné
ou le billet « IA
et éthique: le contresens navrant de Cédric Villani » de
Philippe Silberzahn.
L'IA
soulève également d'autres questions éthiques que
synthétise bien l'article suivant : Les
neuf questions d’éthique majeures soulevées par l’IA. Et
je rajouterai une dernière question sur
le
développement durable et notamment
la gouvernance
des ressources naturelles limitées
et nécessaires
à l'expansion technologique.
L'IA
est affichée dans le Rapport Villani comme mise au service du bien
commun et de la société et pas uniquement un enjeu business.
En
tant que citoyenne, je suis en phase avec cette démarche car elle
rappelle la raison même du progrès technologique. Je ne suis pas
pour l'innovation à tout prix mais pour le progrès technologique
qui
améliore les conditions de vie, qui respecte notre humanité et
notre environnement.
Je ne veux pas d'un monde technologique qui déshumanise. Je
suis contente de savoir qu'on va me demander mon consentement avant
de collecter des informations personnelles me concernant. Je suis
contente de pouvoir avoir le droit à l'oubli si je le souhaite. Je
serais contente de savoir que mes enfants pourront vivre dans un
monde qui protégera leur liberté. Combien de personnes sont morts
pour nous donner accès à ces droits? Certes, je pourrais me dire
que ce choix n'empêchera peut-être pas les autres pays d'avancer
dans une autre voie. Et je peux aussi me dire que j'aurais essayé de
faire autrement en alignement avec mes valeurs.
Ce n'est pas dire non au progrès ni à l'innovation que de vouloir
une technologie qui sert l'homme et non qui l'asservit.
Philippe
Silberzahn explique dans son post que nous ne pouvons pas prédire ce
qui va se passer et que si nous nous étions mis des réglementations
éthiques nous n'aurions pas inventé l'automobile qui tuerait 1
million de personnes dans le monde par an. Tout d'abord, ce n'est pas
l'automobile qui tue mais majoritairement la conduite en état
d'ivresse, les infractions au code de la route ou l'absence de code
justement.
Si nous n'avions pas mieux cadré la conduite automobile avec un
code, nous aurions probablement plus de morts. Et
la
réglementation routière en
France date
de 1804, bien
avant la commercialisation de l'automobile. Par
ailleurs, l'automobile et l'IA ne sont pas comparables car
l'automobile reste sous la responsabilité du conducteur alors que
cette
responsabilité
reste à clarifier
concernant l'IA qui
tend à devenir autonome.
Philippe
Silberzahn prend également l'exemple des dérives dans l'utilisation
de l'échographie en Chine suivies
d'impacts
démographiques pour illustrer que nous ne pouvons pas prédire
l'avenir et tous les impacts d'une nouvelle technologie. Certes, nous
ne pouvons pas prédire l'avenir.
Et peut-être que ce problème s'est produit en Chine par manque de
garde-fous et
d'encadrement justement.
La
dérive ne réside pas dans la technologie mais dans la
finalité et la manière de l'utiliser.
L'objectif
n'est pas de planifier ou de prédire mais de cadrer.
C'est
ce que permet la réglementation GDPR qui fait préciser la finalité
et permet de s'assurer que l'ensemble des traitements sont conformes
à cette finalité.
Pour
reprendre les propos très
pertinents de
Pascal Poulhe (consultant innovation et transformation) sur un réseau
social : « Le profit est le résultat d'une performance
d'exécution d'une mission
donnée, focalisée
sur « des problèmes »
qu'ont les gens et non le préalable. C'est le fameux Why popularisé
par S. Sinek… Peut-être que le rappeler et l'ancrer plus fortement
dans les formations qui délivrent nos « élites »
managériales serait plus utile. ».
Il
y a d'ailleurs une
intéressante
contradiction
chez
certains experts qui clament que la réglementation GDPR
est un frein au développement de l'IA
et qui en même temps utilisent le critère PrivacybyDesign
comme argument marketing pour vendre leurs applications. Ces mêmes
personnes seraient
certainement les premiers à s'insurger si leurs données médicales
ou leurs messages privés étaient
étalés en public. Et qui le souhaite vraiment ? Faut-il
attendre qu'il
y ait des abus graves
comme
l'affaire Cambridge Analytica
pour réagir ?
N'est-ce
pas ce
manque de cadrage
de la Chine concernant
l'environnement qui plonge actuellement des millions de chinois dans
la pollution totale
les obligeant à circuler
avec des masques et
qui oblige le gouvernement chinois à prendre des mesures urgentes
pour essayer de réparer ? Et
ça continue avec l'IA utilisé pour affecter
une note sociale aux
personnes et
interdire certains services en fonction de cette dernière
(cf. article :
En
Chine, les personnes avec une faible "note sociale" ne
pourront plus prendre l'avion ou le train).
Regardez
Facebook avec l'affaire Cambridge Analytica
de siphonnage de données personnelles sans
consentement des utilisateurs
et de manipulation lors des élections (cf. article :
Cambridge
Analytica : 87 millions de comptes Facebook concernés.). Suite
à cette affaire, Mark Zuckerberg a dû présenter ses excuses,
suspendre son projet
de
collecte des données médicales de patients et
va rendre des comptes au Congrès.
Est-ce
vraiment ce modèle que nous voulons suivre ? Comme
disait Einstein, « La
définition de la folie, c'est de refaire toujours la même chose, et
d'attendre des résultats différents. ».
Et
malgré
tout ce remue-ménage :
-
Des
startups comme Zelros continue
de
travailler sur la conception d'IA éthique,
transparente
(qui fournit des recommandations mais explique ses choix à
l'utilisateur) et sécurisée
(qui respecte la confidentialité des conversations).
-
Des
entrepreneurs comme eelo construisent des projets
sociétaux
: « eelo
is more than tech, it’s a societal project for Freedom and
Democracy. ».
-
Des
entreprises comme Microsoft annonce un plan de financement en faveur
d'une IA éthique et de confiance (cf. annonce :
Microsoft
France announces $30 million commitment towards the development of
ethical and trusted Artificial Intelligence.).
-
Des
entreprises comme Orange s'engage « pour une #IA
responsable,
qui permet d'innover au service des clients et des citoyens, tout en
protégeant leurs données. ».
-
Ce
qui montre qu'allier innovation et éthique est possible.
#PrivacybyDesign :
Certes,
la mise en conformité aux directives GDPR
et ePrivacy nécessitent des charges
supplémentaires
pour
les entreprises et notamment
les PME
mais elle permet d'éviter ce genre de dérives et
est indispensable
pour
la protection des utilisateurs.
Selon
Loïc Rivière, DG de Tech in
France, « Le
RGPD représente plutôt un bon équilibre entre l'indispensable
protection des données utilisateurs et les intérêts des
entreprises. Il ne devrait pas nuire à l'innovation mais la cadrer,
car celle-ci doit désormais être « privacy by design »,
c'est-à-dire intégrer dès l'origine les principes du RGPD »
(cf. "Le
RGPD ne va pas aider les PME, ni même les entreprises européennes"
(Loïc Rivière, DG Tech in France)).
Il
indique également : « Nous
pensons que ePrivacy représente un danger car il casse l'équilibre
trouvé par le RGPD, auquel il est pour l'instant mal articulé. Nous
avons démontré que ces modalités appliquées au "machine to
machine" (M2M) allaient bloquer de nombreuses innovations
dans le domaine de l'IoT [Internet des objets], comme
dans l'agri-tech ou les voitures connectées par exemple. La
directive, qui rend possible pour l'internaute de ne pas accepter
les cookies de navigation, menace aussi tout l'écosystème
de la publicité en ligne, à commencer par les médias. La levée de
boucliers des entreprises du numérique est légitime. ».
Au
contraire, je pense que
ces réglementations
permettent
d'établir
une transparence et de
redonner la confiance aux utilisateurs à
l'égard des
applications numériques et
des entreprises.
Et
les choses changent comme le montre cet article : « To
comply with GDPR, Google asks publishers to manage user-data consent
for ad targeting in EU. »
Vers
une approche business gagnante – gagnante :
Selon
moi, l'objectif n'est pas d'interdire la collecte de données
indispensables aux modèles d'apprentissage artificiel mais de
l'accompagner notamment par le consentement du client et de
s'orienter vers une approche business gagnante-gagnante où le client
pourrait choisir les données qu'il estime être sensible pour
lui et qu'il accepte de partager en échange de service à
valeurs ajoutées.
Par
ailleurs, avec
l'explicabilité des algorithmes, j'attends de l'IA qu'elle
m'explique ses choix surtout si je dois porter la responsabilité de
ses choix. Car avec
l'IA
vient
la question
de
la responsabilité des choix et des actes réalisés par un agent
intelligent
surtout s'ils peuvent avoir des répercussions sur
des
vies humaines comme dans le domaine de la santé.
Et
la
voix du client
dans tout ça ?
Rares
sont les articles relatifs
au Rapport Villani
qui mentionnent la voix du client alors
qu'il fait bel et bien parti de l'écosystème.
Pourtant, le
succès d'un produit dépend de son adoption par les clients.
L'adoption
de l'IA par les clients est primordiale pour développer son usage.
Comme tout produit, cela passe par la création de services de
valeurs pour l'usager, des services efficaces et utiles, une
expérience utilisateur agréable, etc. Mais dans le cas d'une IA
autonome, d'autres critères rentrent en jeu : la confiance à
l'égard de cette IA dans le traitement des données personnelles et
dans la compréhension des choix proposées et actions réalisées
par cet
agent
intelligent. Si vous prenez l'exemple d'un
assistant personnel intelligent, il sera susceptible d'avoir accès à
diverses données privées
de son utilisateur et
d'organiser sa vie.
La
base d'une telle relation est la confiance. Et ce n'est pas le cas actuellement. En
effet :
Selon
une étude d'In Moment, « 75%
des Américains ont peur de la personnalisation. ».
Et 22 % des consommateurs cherchent à trouver une entreprise
concurrente lorsqu'ils ont eu une expérience désagréable avec une
marque qui a collecté trop de données personnelles à leur goût.
Selon
un autre sondage ComRes pour Global pour ForgeRock, « Seuls
33 % se disent prêts à partager leurs données avec des tiers en
échange d’un service personnalisé. Un internaute sur deux ne le
souhaite pas. ».
Cf. article complet : Données
personnelles : des clients ambivalents face aux marques.
Selon
le sondage : « 9
Français sur 10 attendent plus de sanctions pour les entreprises qui
exposent leur vie privée. ».
Du
côté de nos amis anglais, un sondage présente une méfiance de
plus d'un quart des utilisateurs concernant la collecte de leurs
données personnelles. Cf. article suivant : Consumers
do not trust companies with personal data, survey shows.
Cela
montre bien que tous les utilisateurs ne sont pas prêts à accepter la
collecte abusive de leurs données personnelles ou
l'exposition de leurs vies privées sans
leurs
consentements.
D'où
la nécessité de tendre vers une approche business
gagnante-gagnante.
Je
vous propose également de consulter le dernier sondage de PWC :
What
people value most in their customer experience. Ce sondage
indique
que les clients
valorisent davantage un service efficace, utile et compétent
qu'une nouvelle technologie ou un service personnalisé.
Et
justement,
pour
l'instant, l'efficacité des solutions IA ne fait
pas l'unanimité comme le montrent les articles
suivants :
-
L'IA
destinée à trouver des solutions afin de personnaliser les
traitements en cancérologie est pour le moment décevante.
Cf. extrait :
« On
compte 700.000 articles en médecine par an. De plus en plus de
publications n'ont pas de valeur, car des équipes publient pour
publier, ce qui pollue énormément les résultats. La machine n'est
pas capable aujourd'hui de faire la différence entre ce qui ne vaut
rien et un article intéressant », analyse
Guy Vallancien, chirurgien et auteur de La
Médecine sans médecin ?
(Gallimard).
-
Un
temps d'apprentissage jugé trop long. Cf. extrait :
« Le
temps nécessaire pour obtenir des premiers résultats était plus
long qu'attendu, et surtout les équipes métier ont découvert le
travail considérable à réaliser en amont pour rassembler le corpus
documentaire indispensable au paramétrage de la machine.».
A
ces points, s'ajoutent également des difficultés
liées à l'intégration de ces solutions dans l'écosystème
informatique des entreprises
et la crainte
persistante d'être remplacés par une machine intelligente et de
perdre son poste,
comme j'ai pu le constater dans des expérimentations que j'ai
menées.
Rétablir
la confiance
et créer
de services efficaces répondant à des vrais « problèmes »
clients,
qui
leur donnent envie de consommer, sont
nécessaires pour faire décoller les demandes autour des produits
basés sur l'IA. Et sans usages, peu de collecte de données
nécessaires à développer l'IA.
En
conclusion, l'IA n'est pas la propriété exclusive d'une agence
nationale ou européenne en particulier. Elle est l'affaire de
tous.
Nous
n'avons pas besoin d'attendre que cela soit écrit dans un Rapport
Villani ou de le parfaire pour agir dans notre périmètre et avancer
avec ce que nous avons sous la main. Et c'est peut-être la somme
des initiatives locales coordonnées, et facilitées
par l’État, qui feront de la France un leader mondial
dans ce domaine.
Si
nous ne voulons pas être des suiveurs, arrêtons de vouloir
reproduire les modèles américains ou chinois et construisons
notre propre modèle mental.
Cela
nécessite de repenser une certaine transversalité, de
favoriser la collaboration, de créer des
équipes auto-organisées de communautés diverses pour
co-designer et réaliser les nouveaux services
innovants, utiles et efficaces basés sur
l'IA.
L'éthique
rappelle le « pourquoi » de l'innovation technologique,
elle doit favoriser le progrès des conditions de vie des hommes.
L'innovation technologique doit nous servir, pas nous asservir. Elle
permet de cadrer car l'IA peut être une puissance curative dans
la mesure et une puissance destructive dans la démesure.
Tendre
vers une approche business gagnante-gagnante permettrait de
répondre aux valeurs éthiques des clients, de protéger leurs vies
privées, de leur redonner confiance tout en permettant la collecte
des données nécessaires aux modèles d'apprentissage artificiel et
pourrait devenir un critère différenciateur à terme.
-- Agnès Vugier
-- Agnès Vugier
Aucun commentaire:
Enregistrer un commentaire