Connect with us

Éthique

Éthique & Technologie : L’IA a-t-elle besoin d’un pilote à la barre ?

mm

Résumé : Les progrès de la technologie d’IA conversationnelle nécessitent un équilibre soigneux des intérêts qui favorisent l’innovation tout en atténuant les impacts potentiels nocifs.

L’attrait de l’IA conversationnelle

Le lancement de ChatGPT-3 a captivé un intérêt sans précédent avec plus de 100 millions d’utilisateurs actifs par mois.

Les consommateurs et les organisations reconnaissent à quel point les progrès de l’IA conversationnelle peuvent potentiellement transformer pratiquement tous les aspects de notre vie personnelle et de nos interactions professionnelles. L’application avancée de l’apprentissage profond de ChatGPT-3 génère des conversations convaincantes similaires à celles des humains avec des résultats impressionnants. Dans des tests récents, ChatGPT-3 a réussi l’examen de licence médicale américain et un examen de MBA d’une des écoles de commerce les plus prestigieuses.

Les avantages commerciaux de l’IA conversationnelle sont immenses, à tel point que Microsoft a investi 10 milliards de dollars dans Open AI pour accélérer les applications commerciales de ChatGPT-3. Microsoft a l’intention de « surcharger » ses produits avec les capacités conversationnelles de ChatGPT-3.

Exubérance irrationnelle

Mais prenons une profonde inspiration avant de laisser une telle technologie transformative nous dépasser. Son utilité potentielle nonobstant, ChatGPT-3 est encore en stade naissant, avec, admettons-le, de nombreuses imperfections. Notre exubérance peut se révéler prématurée. En l’absence d’une analyse significative, une adoption sans restriction de l’IA conversationnelle sans garde-fous réglementaires et sans surveillance humaine peut nous mener dans un monde dystopique, préfiguré par le romancier anglais Aldous Huxley. Trop de confiance en la technologie sans compréhension de ses impacts socio-économiques peut avoir des conséquences graves, même si elles sont involontaires, telles que l’emploi, l’éducation, l’inclusivité et l’équité.

Après tout, même si Chat-GPT-3 est un pas en avant, ses capacités « cognitives » sont basées sur des ensembles de données préexistants, avec des biais intégrés qui peuvent être amplifiés, entraînant une myriade de préjudices potentiels. ChatGPT-3 a un « côté sombre » qui devrait être une cause de préoccupation et nous inciter à appuyer sur le bouton de pause avant une propagation plus large d’une telle technologie à conséquences importantes.

Risque ou opportunité ?

Il faut équilibrer les risques associés à l’application de l’IA conversationnelle et ses opportunités potentielles. Si elle est déployée de manière réfléchie, avec une réglementation significative de l’IA qui prend en compte une approche fondée sur les risques avec une surveillance robuste, les avantages potentiels de l’IA conversationnelle peuvent être réalisés. Elle devrait être déployée comme un partenariat centré sur l’humain avec des applications d’IA conversationnelle qui enrichissent l’expérience de travail. Comme toutes les innovations qui l’ont précédée, l’IA a le potentiel de créer le besoin de nouvelles compétences et de rendre certains emplois plus gratifiants.

Quel est le rôle du législateur ?

La démocratisation des technologies d’IA implique que les autorités publiques doivent jouer un rôle proactif dans la réglementation de leur utilisation. Les autorités publiques doivent prendre un rôle proactif dans la réglementation de leur utilisation. Les craintes associées aux innovations disruptives sont réelles. Malgré sa puissance, l’intelligence artificielle reste dépendante des humains, que ce soit pour l’utiliser ou la réglementer. Il doit y avoir en effet un pilote à la barre, nous ne savons simplement pas exactement vers quel cap il se dirige. Il y a une augmentation de la dynamique en faveur d’une réglementation complète de l’IA, notamment le projet de loi de l’UE sur l’intelligence artificielle. Avec l’adoption potentielle ubiquitaire de l’IA conversationnelle, telle que ChatGPT-3, la dynamique en faveur d’une réglementation et d’une gouvernance plus rigoureuses grandit avec l’UE pour garantir que des mesures soient instituées qui interdisent des applications spécifiques de l’IA conversationnelle qui sont considérées comme portant atteinte aux droits humains fondamentaux.

Andrew Pery est un évangéliste en éthique de l'IA chez la société mondiale d'automatisation intelligente ABBYY. Il détient un diplôme de master en droit avec distinction de la Northwestern University Pritzker School of Law et est un professionnel certifié en protection des données. Pery a plus de 25 ans d'expérience dans la direction de programmes de gestion technologique pour les principales entreprises technologiques mondiales. Son expertise est dans l'automatisation intelligente des processus de documents et l'intelligence des processus avec une expertise particulière dans les technologies d'IA, les logiciels d'application, la protection des données et l'éthique de l'IA.