lundi 9 avril 2018

Intelligence Artificielle : point de vue d'une petite française




Intelligence Artificielle : point de vue d'une petite française...

(Durée de lecture : ~15 min.)


A peine sorti, le Rapport Villani sur l'Intelligence Artificielle a fait l'objet de nombreuses critiques et des articles pointant du doigt ses lacunes. Cependant, peu de ces articles fournissent une analyse systémique et proposent d'actions concrètes.

Malgré tout, je pense que ce rapport est un pas en avant et va dans le bon sens. Et il est plus intéressant de prendre ce plan et d'essayer de l'améliorer en continu avec des propositions constructives et pragmatiques.

Je me sens complètement concernée par l'IA et par le débat autour de l'éthique. C'est une technologie qui va complètement bouleverser nos modes de vie et à laquelle il faut se préparer.

Dans la suite de ce billet, je vous propose d'élargir l'analyse et de revenir sur certains points qui me semblent importants :

- Réintégrer dans l'analyse les dimensions politique et environnementale.
- Ne pas se focaliser uniquement sur les US et la Chine et ne pas négliger le potentiel de situation que peut nous offrir l'Europe et l'Afrique.
- Faire un focus sur le rôle des grands groupes français, et leurs partenariats avec nos startups.
- Arrêter de suivre, et construire notre propre modèle mental.
- Expliquer les raisons pour lesquelles il est important d'intégrer l'éthique dès la conception d'une IA et la nécessité de redonner confiance aux utilisateurs. #EthicbyDesign
- Revaloriser la voix du client qui n'a été mentionnée dans aucun des articles sur le Rapport Villani que j'ai lus.


Moins de visions, plus d'actions concrètes et immédiates :

Prenons l'exemple de l'article d'Olivier Ezratty (consultant et auteur) « Ce que révèle le Rapport Villani » : il fournit une analyse très intéressante et de nombreux constats justes. Je suis d'accord avec lui sur le fait que la priorité n'est pas d'investir davantage dans des instituts de recherche mais de favoriser l'innovation pour trouver des nouveaux services créateurs de valeurs.

Cependant, son article offre finalement très peu de propositions opérationnelles et d'actions immédiates. Il réaffirme que nous devons créer un leader mondial. Très bien, mais comment ?
D'après lui : « Comment attaquer le marché US est le principal problème à traiter. L'Asie ensuite. », oui mais comment attaquer les marchés américains et chinois alors que les US et la Chine jouent à fond la carte du protectionnisme en favorisant des entreprises nationales et que même les GAFA ont échoué à pénétrer le marché chinois ?Conférer les articles suivants :


Car en plus d'être un problème business, d'innovation, d'écosystème technologique, il s'agit aussi d'un problème politique.
Alors que faut-il faire ? Les forcer à changer leur politique protectionniste avec le risque de provoquer l'effet inverse escompté ? Et cela risque de prendre beaucoup de temps. Opérer la même stratégie qu'eux quitte à nous isoler ? Ou alors agir avec ce que nous avons sous la main dès maintenant et lancer des actions immédiates en travaillant progressivement à débloquer ces points ?

Agissons avec ce que nous avons sous la main et tirons parti des circonstances :

Rappelons nous que certains GAFA ont commencé dans un garage ou une chambre d'étudiant avec très peu de capital et un ciblage local. Comme l'explique Philippe Silberzahn (Professeur d'entrepreneuriat, de stratégie et d'innovation à EMLYON Business School) dans sa présentation du « leadership effectual », un entrepreneur se lance sans se dire qu'il va attaquer le marché mondial, agit avec ce qu'il a sous la main et tire parti des circonstances.

Alors commençons avec ce que nous avons, en premier lieu avec notre marché « franco-français ». Essayons déjà de capter nos 68 millions d'utilisateurs potentiels pour expérimenter nos produits et services innovants, les éprouver et essayer d'en tirer des modèles disruptifs. Il faut arrêter de cracher dans la soupe, 68 millions de consommateurs, ce n'est pas rien et de nombreuses entreprises en rêveraient !

Avant de devenir un leader mondial, créons déjà des leaders nationaux pour faire contrepoids face aux GAFA sur notre propre territoire comme le mentionne si bien Nicolas Colin (entrepreneur français) dans son article « Emmanuel Macron’s artificial intelligence pitch risks falling short. ».

L'Afrique un potentiel immense, renforçons notre partenariat :

Pourquoi se fixer des plans stratégiques focalisés sur les US et l'Asie comme le suggère Olivier Ezratty? Et pourquoi l'Europe et l'Afrique ne pourraient-ils pas s'avérer de véritables opportunités ? L'Union Européenne n'a-t-elle pas pour objectif de favoriser les échanges ? N'avons-nous pas une relation privilégiée avec l'Afrique ? L'Europe est le premier partenaire commercial de l'Afrique. Les besoins en Afrique autour des grandes fonctions régaliennes que sont la santé, l'environnement, l'éducation et le transport sont immenses et des modèles différents émergent. Et nous avons les mêmes préoccupations. Alors pourquoi ne pas tirer davantage parti de ces circonstances, utiliser nos compétences sur l'IA pour améliorer les conditions de vie en Afrique voire même apprendre de leurs nouveaux modèles?

Gilles Babinet, Digital Champion et co-fondateur d'Africa 4 tech nous explique très bien pourquoi il faut accélérer les partenariats de nos entreprises avec les entreprises africaines et qu'une meilleure coordination des états doit permettre d'optimiser. Conférer les articles suivants :


Attaquons tous les marchés et voyons où les circonstances et les opportunités nous emmènent.

Mobilisons nos grands groupes français et utilisons les comme des ponts vers l'international :

Tous les plans d'investissements ne peuvent pas venir de l'Etat. Comme le précise Olivier Ezratty en parlant du plan de financement d'1,5 Mds pour l'IA annoncé par le gouvernement français : « Ces montants annoncés paraissent ridicules quand on les met en regard des $15B annoncés par Alibaba, mais il faudrait les comparer aux investissements publics d’autres pays européens. Dans ce cadre, les annonces d’Emmanuel Macron sont de bon niveau... On ne peut pas demander à l’Etat d’investir autant que des mastodontes privés. Nous nous n’en avons chez nous ! Et au passage, les $15B d’Alibaba comprennent surtout une grosse réserve pour des acquisitions. Ils ne prévoient de recruter que 100 chercheurs en IA, ce qui est modeste au regard de leur nombre dans le secteur public dans tous les pays occidentaux. Évitons donc de tomber dans le piège de la sidération face à ces annonces toujours ampoulées qui mélangent des choux (M&A, développement produits) et des carottes (recherche fondamentale) sur une longue période ! ».

Même si nous n'avons pas de mastodontes comme Alibaba (du moins pas encore), n'oublions pas que nous avons un très beau panel de grandes entreprises françaises privées. Je pense que nous devons les convaincre d'investir davantage sur l'IA et les utiliser comme des ponts vers l'international.

Parmi tous les plus grands groupes privés français tels que Total, L'Oréal, LVMH et j'en passe, comment ont-ils investi pour développer l'IA en France ? Que font-ils alors que des sociétés comme Microsoft accélère sur l'IA en France à travers un partenariat avec l'Inria, le programme AI Factory à Station F qui accueille plusieurs startups spécialisées sur l'IA et envisage d'investir 30 millions de dollars sur trois ans en France pour sensibiliser, former et créer de nouvelles opportunités dans le numérique en France? Que font-ils alors que Samsung envisage de créer un centre de recherche dédié à l'IA en France ?

L'alliance Renault-Nissan-Mitsubishi a annoncé la création d'un fonds d'investissement de 1 Mds de dollars sur 5 ans pour l'innovation. Il a réalisé un premier investissement dans une startup américaine. Espérons qu'une partie permettra de développer l'IA en France (réf. article : L’alliance Renault-Nissan va investir 1 milliard de dollars dans des startups d’ici 2022.).
L'Oréal vient de racheter une société canadienne ModiFace spécialisée dans la réalité augmentée et l'intelligence artificielle (réf. article : L'Oréal s'offre une entreprise de la Tech.).

Néanmoins, les investissements restent hétérogènes puisque d'autres grands groupes comme LVMH préfèrent nouer des partenariats plutôt que d'investir dans des startups ou de les incuber.

Ces mêmes premiers grands groupes français sont également très bien implantés à l'international et peuvent être des ponts efficaces pour justement nous développer à l'international. Pa exemple, L'Oréal est très largement implanté dans 4 continents. RATP Dev opère et maintient des réseaux de transport sur 4 continents. Orange continue sa croissance en Afrique. Ces groupes pourraient exporter nos produits par le biais des services qu'ils offrent à l'international.

Alors pourquoi ces initiatives ne sont-elles pas reprises par tous nos grands groupes français ? Leurs investissements en France dans ce domaine restent insuffisants. Il faut les convaincre de participer davantage à développer le leadership français dans le domaine de l'IA.

Favorisons les partenariats entre grandes entreprises et startups françaises :

Les partenariats entre grandes entreprises françaises et startups sont également hétérogènes en France. Un partenariat est plus que de juxtaposer son label sur un produit. Nous devons développer les partenariats entre ces acteurs de l'écosystème :

- Donner la chance aux solutions proposées par nos startups face à de grands éditeurs étrangers.
- Faciliter l'intégration des solutions de ces startups dans l'écosystème digital de l'entreprise en préparant son organisation entière à l'accueillir. De très nombreux ouvrages détaillent ces points liés à la transformation digitale des entreprises, la transformation agile, l'intrapreneuriat, l'open data, l'exposition sécurisée des données à l'extérieur. Donc, je ne m'y attarderai pas plus que cela.
- Ouvrir notre patrimoine de données tout en respectant les données personnelles de nos clients, leurs consentements et la sécurité de l'entreprise.
- Profiter de ces partenariats pour développer les compétences sur l'IA en interne.

Rachat des startups : fin d'un modèle ? => Créer notre modèle mental.

Un point sur lequel tous nos experts convergent est la nécessité de favoriser l'innovation et développer les idées disruptives au travers de nos entrepreneurs.

Cependant, comme le mentionne cet article « Start-up : la fin du modèle américain », la majorité des startups américaines qui fonctionnent comme Whatsapp, Waze ou Deepmind se font racheter par les GAFA. A l'instar de Recast.ai, startup française spécialisée dans les bots, qui a été rachetée par SAP en janvier 2018. SAP a intégré la solution Recast.ai dans son offre SAP Leonardo et la propose désormais à ses clients. Ces startups choisissent, de plein gré ou non, de se faire racheter plutôt que de croître. Alors comment faire pour que ces startups à potentiel veuillent et puissent continuer à se développer et contribuer au leadership français ?

J'irai plus loin dans ma réflexion : comme le dit Philippe Silberzahn, l'innovation ne se planifie pas et peut prendre du temps. Les GAFAM et les BATX ont pris du temps et ont essuyé beaucoup d'échecs avant de devenir ce qu'ils sont. Dans cette course, il est difficile de passer leader en continuant à suivre les modèles des autres. Il est peut-être temps de créer notre propre modèle mental. Cela nous amène aux chapitres suivants.

« Accepter l'idée qu'une collaboration entre des communautés diverses puisse avoir des résultats extraordinaires » (Gilles Babinet) :

Comme l'explique très bien l'article « Intelligence artificielle : être suiveur ou devenir leader ? » de Gilles Babinet, il est nécessaire de booster le partage et la collaboration entre des communautés diverses (chercheurs et entrepreneurs dans le domaine de l'IA mais également grandes entreprises, institutions publiques, utilisateurs finaux, etc.) au travers de plateformes collaboratives comme GitHub ou TensorFlow pour favoriser la sérendipité et l'innovation.

Je pense que ces plateformes collaboratives phygitales (points de rencontres physiques et digitaux) doivent également permettre de démocratiser l'IA et de l'aborder sous les différents angles :

- Business ;
- Innovation, nouveaux modèles, besoins, usages, expériences clients, etc ;
- Recherche ;
- Formation ;
- Partenariats ;
- Politique ;
- Ethique ;
- Développement durable ;
- Bonnes pratiques ;
- Etc.

Et j'irai même plus loin, ces plateformes peuvent avoir un vrai rôle d'intermédiation pour construire des vraies équipes organisées et autonomes composées d'acteurs de communautés diverses (chercheur , entrepreneur , groupe, investisseur).

Co-designer les « next big things» :

Une des pistes de réflexion soulevée par Olivier Ezratty est de « Formuler des rêves et des ambitions de domaines scientifiques à résoudre et de besoins concrets à traiter grâce à l’IA. Penser aux “next big things”. Identifier des “moonshots”. ».

La création de plateformes collaboratives phygitales pourrait permettre de favoriser les échanges, la collaboration entre diverses communautés afin d'identifier des besoins, des cas d'usage concrets et des nouveaux services innovants à traiter grâce à l'IA.

Selon moi, il faut repenser une certaine transversalité des produits et des services et co-designer les « next big things » à l'intersection de la désirabilité (humain), la faisabilité (technologie), la viabilité (business) et la circularité (environnement) grâce à des équipes auto-organisées d'acteurs de divers horizons permettant de profiter des expertises sur chacun de ces domaines.

#AIForHumanity #EthicbyDesign :

Le positionnement de l'éthique dans le Rapport Villani fait débat. Cf. articles d'Olivier Ezratty sus-mentionné ou le billet « IA et éthique: le contresens navrant de Cédric Villani » de Philippe Silberzahn.

L'IA soulève également d'autres questions éthiques que synthétise bien l'article suivant : Les neuf questions d’éthique majeures soulevées par l’IA. Et je rajouterai une dernière question sur le développement durable et notamment la gouvernance des ressources naturelles limitées et nécessaires à l'expansion technologique.

L'IA est affichée dans le Rapport Villani comme mise au service du bien commun et de la société et pas uniquement un enjeu business.

En tant que citoyenne, je suis en phase avec cette démarche car elle rappelle la raison même du progrès technologique. Je ne suis pas pour l'innovation à tout prix mais pour le progrès technologique qui améliore les conditions de vie, qui respecte notre humanité et notre environnement. Je ne veux pas d'un monde technologique qui déshumanise. Je suis contente de savoir qu'on va me demander mon consentement avant de collecter des informations personnelles me concernant. Je suis contente de pouvoir avoir le droit à l'oubli si je le souhaite. Je serais contente de savoir que mes enfants pourront vivre dans un monde qui protégera leur liberté. Combien de personnes sont morts pour nous donner accès à ces droits? Certes, je pourrais me dire que ce choix n'empêchera peut-être pas les autres pays d'avancer dans une autre voie. Et je peux aussi me dire que j'aurais essayé de faire autrement en alignement avec mes valeurs. Ce n'est pas dire non au progrès ni à l'innovation que de vouloir une technologie qui sert l'homme et non qui l'asservit.

Philippe Silberzahn explique dans son post que nous ne pouvons pas prédire ce qui va se passer et que si nous nous étions mis des réglementations éthiques nous n'aurions pas inventé l'automobile qui tuerait 1 million de personnes dans le monde par an. Tout d'abord, ce n'est pas l'automobile qui tue mais majoritairement la conduite en état d'ivresse, les infractions au code de la route ou l'absence de code justement. Si nous n'avions pas mieux cadré la conduite automobile avec un code, nous aurions probablement plus de morts. Et la réglementation routière en France date de 1804, bien avant la commercialisation de l'automobile. Par ailleurs, l'automobile et l'IA ne sont pas comparables car l'automobile reste sous la responsabilité du conducteur alors que cette responsabilité reste à clarifier concernant l'IA qui tend à devenir autonome.

Philippe Silberzahn prend également l'exemple des dérives dans l'utilisation de l'échographie en Chine suivies d'impacts démographiques pour illustrer que nous ne pouvons pas prédire l'avenir et tous les impacts d'une nouvelle technologie. Certes, nous ne pouvons pas prédire l'avenir. Et peut-être que ce problème s'est produit en Chine par manque de garde-fous et d'encadrement justement. La dérive ne réside pas dans la technologie mais dans la finalité et la manière de l'utiliser.
L'objectif n'est pas de planifier ou de prédire mais de cadrer. C'est ce que permet la réglementation GDPR qui fait préciser la finalité et permet de s'assurer que l'ensemble des traitements sont conformes à cette finalité.

Pour reprendre les propos très pertinents de Pascal Poulhe (consultant innovation et transformation) sur un réseau social : « Le profit est le résultat d'une performance d'exécution d'une mission donnée, focalisée sur « des problèmes » qu'ont les gens et non le préalable. C'est le fameux Why popularisé par S. Sinek… Peut-être que le rappeler et l'ancrer plus fortement dans les formations qui délivrent nos « élites » managériales serait plus utile. ».

Il y a d'ailleurs une intéressante contradiction chez certains experts qui clament que la réglementation GDPR est un frein au développement de l'IA et qui en même temps utilisent le critère PrivacybyDesign comme argument marketing pour vendre leurs applications. Ces mêmes personnes seraient certainement les premiers à s'insurger si leurs données médicales ou leurs messages privés étaient étalés en public. Et qui le souhaite vraiment ? Faut-il attendre qu'il y ait des abus graves comme l'affaire Cambridge Analytica pour réagir ?

N'est-ce pas ce manque de cadrage de la Chine concernant l'environnement qui plonge actuellement des millions de chinois dans la pollution totale les obligeant à circuler avec des masques et qui oblige le gouvernement chinois à prendre des mesures urgentes pour essayer de réparer ? Et ça continue avec l'IA utilisé pour affecter une note sociale aux personnes et interdire certains services en fonction de cette dernière (cf. article : En Chine, les personnes avec une faible "note sociale" ne pourront plus prendre l'avion ou le train).

Regardez Facebook avec l'affaire Cambridge Analytica de siphonnage de données personnelles sans consentement des utilisateurs et de manipulation lors des élections (cf. article : Cambridge Analytica : 87 millions de comptes Facebook concernés.). Suite à cette affaire, Mark Zuckerberg a dû présenter ses excuses, suspendre son projet de collecte des données médicales de patients et va rendre des comptes au Congrès.

Est-ce vraiment ce modèle que nous voulons suivre ? Comme disait Einstein, « La définition de la folie, c'est de refaire toujours la même chose, et d'attendre des résultats différents. ».

Et malgré tout ce remue-ménage :

- Des startups comme Zelros continue de travailler sur la conception d'IA éthique, transparente (qui fournit des recommandations mais explique ses choix à l'utilisateur) et sécurisée (qui respecte la confidentialité des conversations).
- Des entrepreneurs comme eelo construisent des projets sociétaux : « eelo is more than tech, it’s a societal project for Freedom and Democracy. ».
- Des entreprises comme Microsoft annonce un plan de financement en faveur d'une IA éthique et de confiance (cf. annonce : Microsoft France announces $30 million commitment towards the development of ethical and trusted Artificial Intelligence.).
- Des entreprises comme Orange s'engage « pour une #IA responsable, qui permet d'innover au service des clients et des citoyens, tout en protégeant leurs données. ».
- Ce qui montre qu'allier innovation et éthique est possible.

#PrivacybyDesign :

Certes, la mise en conformité aux directives GDPR et ePrivacy nécessitent des charges supplémentaires pour les entreprises et notamment les PME mais elle permet d'éviter ce genre de dérives et est indispensable pour la protection des utilisateurs. Selon Loïc Rivière, DG de Tech in France, « Le RGPD représente plutôt un bon équilibre entre l'indispensable protection des données utilisateurs et les intérêts des entreprises. Il ne devrait pas nuire à l'innovation mais la cadrer, car celle-ci doit désormais être « privacy by design », c'est-à-dire intégrer dès l'origine les principes du RGPD » (cf. "Le RGPD ne va pas aider les PME, ni même les entreprises européennes" (Loïc Rivière, DG Tech in France)).
Il indique également : « Nous pensons que ePrivacy représente un danger car il casse l'équilibre trouvé par le RGPD, auquel il est pour l'instant mal articulé. Nous avons démontré que ces modalités appliquées au "machine to machine" (M2M) allaient bloquer de nombreuses innovations dans le domaine de l'IoT [Internet des objets], comme dans l'agri-tech ou les voitures connectées par exemple. La directive, qui rend possible pour l'internaute de ne pas accepter les cookies de navigation, menace aussi tout l'écosystème de la publicité en ligne, à commencer par les médias. La levée de boucliers des entreprises du numérique est légitime. ».
Au contraire, je pense que ces réglementations permettent d'établir une transparence et de redonner la confiance aux utilisateurs à l'égard des applications numériques et des entreprises.


Vers une approche business gagnante – gagnante :

Selon moi, l'objectif n'est pas d'interdire la collecte de données indispensables aux modèles d'apprentissage artificiel mais de l'accompagner notamment par le consentement du client et de s'orienter vers une approche business gagnante-gagnante où le client pourrait choisir les données qu'il estime être sensible pour lui et qu'il accepte de partager en échange de service à valeurs ajoutées.

Par ailleurs, avec l'explicabilité des algorithmes, j'attends de l'IA qu'elle m'explique ses choix surtout si je dois porter la responsabilité de ses choix. Car avec l'IA vient la question de la responsabilité des choix et des actes réalisés par un agent intelligent surtout s'ils peuvent avoir des répercussions sur des vies humaines comme dans le domaine de la santé.

Et la voix du client dans tout ça ?

Rares sont les articles relatifs au Rapport Villani qui mentionnent la voix du client alors qu'il fait bel et bien parti de l'écosystème. Pourtant, le succès d'un produit dépend de son adoption par les clients.

L'adoption de l'IA par les clients est primordiale pour développer son usage. Comme tout produit, cela passe par la création de services de valeurs pour l'usager, des services efficaces et utiles, une expérience utilisateur agréable, etc. Mais dans le cas d'une IA autonome, d'autres critères rentrent en jeu : la confiance à l'égard de cette IA dans le traitement des données personnelles et dans la compréhension des choix proposées et actions réalisées par cet agent intelligent. Si vous prenez l'exemple d'un assistant personnel intelligent, il sera susceptible d'avoir accès à diverses données privées de son utilisateur et d'organiser sa vie. La base d'une telle relation est la confiance. Et ce n'est pas le cas actuellement. En effet :

Selon une étude d'In Moment, « 75% des Américains ont peur de la personnalisation. ». Et 22 % des consommateurs cherchent à trouver une entreprise concurrente lorsqu'ils ont eu une expérience désagréable avec une marque qui a collecté trop de données personnelles à leur goût.

Selon un autre sondage ComRes pour Global pour ForgeRock, « Seuls 33 % se disent prêts à partager leurs données avec des tiers en échange d’un service personnalisé. Un internaute sur deux ne le souhaite pas. ». Cf. article complet : Données personnelles : des clients ambivalents face aux marques.


Du côté de nos amis anglais, un sondage présente une méfiance de plus d'un quart des utilisateurs concernant la collecte de leurs données personnelles. Cf. article suivant : Consumers do not trust companies with personal data, survey shows.

Cela montre bien que tous les utilisateurs ne sont pas prêts à accepter la collecte abusive de leurs données personnelles ou l'exposition de leurs vies privées sans leurs consentements. D'où la nécessité de tendre vers une approche business gagnante-gagnante.

Je vous propose également de consulter le dernier sondage de PWC : What people value most in their customer experience. Ce sondage indique que les clients valorisent davantage un service efficace, utile et compétent qu'une nouvelle technologie ou un service personnalisé.

Et justement, pour l'instant, l'efficacité des solutions IA ne fait pas l'unanimité comme le montrent les articles suivants :


« On compte 700.000 articles en médecine par an. De plus en plus de publications n'ont pas de valeur, car des équipes publient pour publier, ce qui pollue énormément les résultats. La machine n'est pas capable aujourd'hui de faire la différence entre ce qui ne vaut rien et un article intéressant », analyse Guy Vallancien, chirurgien et auteur de La Médecine sans médecin ? (Gallimard).


« Le temps nécessaire pour obtenir des premiers résultats était plus long qu'attendu, et surtout les équipes métier ont découvert le travail considérable à réaliser en amont pour rassembler le corpus documentaire indispensable au paramétrage de la machine.».

A ces points, s'ajoutent également des difficultés liées à l'intégration de ces solutions dans l'écosystème informatique des entreprises et la crainte persistante d'être remplacés par une machine intelligente et de perdre son poste, comme j'ai pu le constater dans des expérimentations que j'ai menées.

Rétablir la confiance et créer de services efficaces répondant à des vrais « problèmes » clients, qui leur donnent envie de consommer, sont nécessaires pour faire décoller les demandes autour des produits basés sur l'IA. Et sans usages, peu de collecte de données nécessaires à développer l'IA.


En conclusion, l'IA n'est pas la propriété exclusive d'une agence nationale ou européenne en particulier. Elle est l'affaire de tous.
Nous n'avons pas besoin d'attendre que cela soit écrit dans un Rapport Villani ou de le parfaire pour agir dans notre périmètre et avancer avec ce que nous avons sous la main. Et c'est peut-être la somme des initiatives locales coordonnées, et facilitées par l’État, qui feront de la France un leader mondial dans ce domaine.

Si nous ne voulons pas être des suiveurs, arrêtons de vouloir reproduire les modèles américains ou chinois et construisons notre propre modèle mental.
Cela nécessite de repenser une certaine transversalité, de favoriser la collaboration, de créer des équipes auto-organisées de communautés diverses pour co-designer et réaliser les nouveaux services innovants, utiles et efficaces basés sur l'IA.

L'éthique rappelle le « pourquoi » de l'innovation technologique, elle doit favoriser le progrès des conditions de vie des hommes. L'innovation technologique doit nous servir, pas nous asservir. Elle permet de cadrer car l'IA peut être une puissance curative dans la mesure et une puissance destructive dans la démesure.

Tendre vers une approche business gagnante-gagnante permettrait de répondre aux valeurs éthiques des clients, de protéger leurs vies privées, de leur redonner confiance tout en permettant la collecte des données nécessaires aux modèles d'apprentissage artificiel et pourrait devenir un critère différenciateur à terme.

-- Agnès Vugier



Aucun commentaire:

Enregistrer un commentaire