Suivez nous sur

Éthique et technologie : l'IA a-t-elle besoin d'un pilote Ă  la barre ?

Des leaders d'opinion

Éthique et technologie : l'IA a-t-elle besoin d'un pilote Ă  la barre ?

mm

RĂ©sumĂ© : Les progrès de la technologie de l'IA conversationnelle nĂ©cessitent un Ă©quilibre minutieux des intĂ©rĂŞts qui favorisent l'innovation tout en attĂ©nuant les effets nĂ©fastes potentiels.

L'attrait de l'IA conversationnelle

Le lancement de ChatGPT-3 a suscitĂ© un intĂ©rĂŞt sans prĂ©cĂ©dent avec plus de 100 millions d'utilisateurs actifs par mois.

Les consommateurs et les organisations reconnaissent Ă  quel point les progrès de l'IA conversationnelle peuvent potentiellement transformer pratiquement tous les aspects de notre vie personnelle et de nos interactions professionnelles. L'application avancĂ©e d'apprentissage en profondeur de ChatGPT-3 gĂ©nère des conversations convaincantes de type humain avec des rĂ©sultats impressionnants. Lors de tests rĂ©cents, ChatGPT-3 a rĂ©ussi  Examen de licence mĂ©dicale aux États-Unis et le Examen MBA de l'une des Ă©coles de commerce les plus prestigieuses.

Les bĂ©nĂ©fices commerciaux de l'IA conversationnelle sont immenses Ă  tel point que Microsoft a investi 10 milliards de dollars dans Open AI pour accĂ©lĂ©rer les applications commerciales de ChatGPT-3. Microsoft a l'intention de "surcharger" ses produits avec les capacitĂ©s conversationnelles de ChatGPT-3.

Exubérance irrationnelle

Mais prenons une profonde respiration avant de laisser une telle technologie de transformation prendre le pas sur nous. Malgré son utilité potentielle, ChatGPT-3 en est encore à ses balbutiements avec, certes, de nombreuses imperfections. Notre exubérance peut s'avérer prématurée. En l'absence d'analyse significative, une adoption sans entraves de l'IA conversationnelle sans garde-fous réglementaires ni surveillance humaine peut nous conduire dans un monde dystopique, annoncé par le romancier anglais Aldous Huxley. Une trop grande dépendance à la technologie sans comprendre ses impacts socio-économiques peut avoir des conséquences graves, bien qu'imprévues, telles que l'emploi, l'éducation, l'inclusivité et l'équité.

Après tout, alors que Chat-GPT-3 est un pas en avant, ses capacitĂ©s «cognitives» sont basĂ©es sur des ensembles de donnĂ©es prĂ©existants, avec des biais intĂ©grĂ©s qui peuvent ĂŞtre amplifiĂ©s, entraĂ®nant une myriade de dommages potentiels. ChatGPT-3 a un "cĂ´tĂ© obscur” Cela devrait ĂŞtre prĂ©occupant et appuyer sur le bouton de pause avant une nouvelle prolifĂ©ration d'une telle technologie consĂ©quente.

Risque ou opportunité?

Il doit y avoir un Ă©quilibre entre les risques associĂ©s Ă  l'application de l'IA conversationnelle et ses opportunitĂ©s potentielles. Si elle est dĂ©ployĂ©e de manière rĂ©flĂ©chie, avec une rĂ©glementation significative de l'IA qui considère une approche basĂ©e sur les risques avec une surveillance solide, les avantages potentiels de l'IA conversationnelle peuvent ĂŞtre rĂ©alisĂ©s. Il doit ĂŞtre dĂ©ployĂ© en tant que partenariat centrĂ© sur l'humain avec des applications d'IA conversationnelles qui enrichissent l'expĂ©rience de travail. Comme toutes les innovations qui l'ont prĂ©cĂ©dĂ©e, l'IA a le potentiel de crĂ©er le besoin de nouvelles compĂ©tences et de rendre certains emplois plus gratifiants.

Quel est le rôle du législateur ?

La dĂ©mocratisation des technologies de l'IA implique que le public les autoritĂ©s doivent jouer un rĂ´le proactif dans la rĂ©glementation de leur utilisation.  Les craintes liĂ©es aux innovations disruptives sont bien rĂ©elles. MalgrĂ© ses prouesses, l'intelligence artificielle reste dĂ©pendante de l'humain, que ce soit pour son utilisation ou sa rĂ©gulation. Il doit bien y avoir un pilote aux commandes, mais nous ne savons pas encore prĂ©cisĂ©ment quelle direction il prend. La volontĂ© d'une rĂ©glementation complète de l'IA se renforce, notamment avec le projet de loi europĂ©enne sur l'intelligence artificielle. Avec l'adoption potentiellement gĂ©nĂ©ralisĂ©e de l'IA conversationnelle, comme ChatGPT-3, la volontĂ© d'une rĂ©glementation et d'une gouvernance plus rigoureuses se renforce au sein de l'UE afin de garantir la mise en place de mesures qui permettraient de interdire l'application spĂ©cifique de l'IA conversationnelle qui est considĂ©rĂ© comme portant atteinte aux droits fondamentaux de l'homme.

Andrew Pery est un Ă©vangĂ©liste de l'Ă©thique de l'IA au sein d'une entreprise mondiale d'automatisation intelligente. ABBYY. Il est titulaire d'une maĂ®trise en droit avec distinction de la Pritzker School of Law de l'UniversitĂ© Northwestern et est un professionnel certifiĂ© en matière de confidentialitĂ© des donnĂ©es. Pery a plus de 25 ans d'expĂ©rience dans la direction de programmes de gestion technologique pour de grandes entreprises technologiques mondiales. Son expertise porte sur l'automatisation intelligente des processus documentaires et l'intelligence des processus, avec une expertise particulière dans les technologies d'IA, les logiciels d'application, la confidentialitĂ© des donnĂ©es et l'Ă©thique de l'IA.