Connect with us

Pourquoi la Silicon Valley ne peut pas « aller vite et casser des choses » lorsqu’il s’agit d’IA

Leaders d’opinion

Pourquoi la Silicon Valley ne peut pas « aller vite et casser des choses » lorsqu’il s’agit d’IA

mm

Les gens disent que la Silicon Valley a mûri au-delà de la mentalité impulsiva de « aller vite, casser des choses, puis les réparer plus tard », et que les entreprises ont adopté une approche plus lente et plus responsable pour construire l’avenir de notre industrie.

Malheureusement, les tendances actuelles racontent une histoire différente.

Malgré les déclarations d’intention, la façon dont les entreprises construisent des choses n’a pas encore changé. Les startups technologiques fonctionnent toujours avec le même code de raccourcis et de fausses promesses, et la qualité déclinante des produits le montre. « Aller vite et casser des choses » est toujours très présent dans la Silicon Valley – et, même si cela avait vraiment disparu, le boom de l’IA l’a réanimé en pleine force.

Les progrès récents de l’IA sont déjà en train de transformer radicalement la façon dont nous travaillons et vivons. En seulement deux ans, l’IA est passée du domaine des professionnels de l’informatique à un outil ménager grâce à la prolifération rapide d’outils d’IA générative comme ChatGPT. Si les entreprises technologiques « vont vite et cassent des choses » avec l’IA, il n’y aura peut-être pas d’option pour « les réparer plus tard », surtout lorsque les modèles sont formés sur des données personnelles sensibles. Vous ne pouvez pas faire sonner à nouveau une cloche, et l’écho se propagera dans la société, pouvant causer des dommages irréparables. Des fausses vidéos profondes malveillantes aux schémas d’escroquerie aux campagnes de désinformation, nous voyons déjà le côté négatif de l’IA émerger.

En même temps, cette technologie a le pouvoir de changer notre société pour le mieux. L’adoption de l’IA par les entreprises sera aussi révolutionnaire que le passage au cloud ; les entreprises seront complètement reconstruites sur l’IA, et elles deviendront infiniment plus productives et efficaces grâce à cela. Au niveau individuel, l’IA générative deviendra notre assistant de confiance, nous aidant à effectuer des activités quotidiennes, à expérimenter de manière créative et à débloquer de nouvelles connaissances et opportunités.

L’avenir de l’IA peut être radieux, mais il nécessite un changement culturel majeur dans l’endroit où cet avenir est en construction.

Pourquoi « Aller vite et casser des choses » est incompatible avec l’IA

« Aller vite et casser des choses » repose sur deux hypothèses majeures : l’une, que tout ce qui ne fonctionne pas au lancement peut être corrigé dans une mise à jour ultérieure ; et deux, que si vous « cassez des choses », cela peut conduire à des avancées avec suffisamment de codage créatif et de pensée hors des sentiers battus. Et même si de nombreuses grandes innovations sont nées de erreurs, ce n’est pas la pénicilline ou Coca-Cola. L’intelligence artificielle est une technologie extrêmement puissante qui doit être manipulée avec la plus grande prudence. Les risques de violations de données et d’utilisation criminelle sont simplement trop élevés pour être ignorés.

Malheureusement, la Silicon Valley a la mauvaise habitude de glorifier la saleté du processus de développement. Les entreprises continuent de promouvoir un travail acharné sans fin, où les longues heures et un manque d’équilibre entre vie professionnelle et vie personnelle deviennent nécessaires pour faire carrière. Les startups et leurs actionnaires fixent des objectifs irréalistes qui augmentent le risque d’erreurs et de raccourcis. Les limites sont repoussées lorsqu’elles ne devraient peut-être pas l’être. Ces comportements se combinent en une culture industrielle toxique qui encourage la poursuite de l’hype au détriment de l’éthique.

Le rythme actuel de développement de l’IA ne peut pas continuer dans cette culture. Si l’IA doit résoudre certains des problèmes les plus pressants du monde, elle devra être formée sur des informations hautement sensibles, et les entreprises ont une responsabilité critique pour protéger ces informations.

Les garanties prennent du temps à mettre en œuvre, et le temps est quelque chose que la Silicon Valley est profondément convaincue de ne pas avoir. Déjà, nous voyons des entreprises d’IA renoncer aux garde-fous nécessaires pour le sake de sortir de nouveaux produits. Cela peut satisfaire les actionnaires à court terme, mais les risques à long terme exposent ces organisations à des dommages financiers massifs plus tard – sans parler d’un effondrement complet de la bonne volonté qu’ils ont cultivée.

Il existe également un risque grave associé à la contrefaçon et aux violations de propriété intellectuelle, comme en témoignent les divers procédures judiciaires fédérales en cours impliquant l’IA et le droit d’auteur. Sans les protections appropriées contre la contrefaçon et les violations de propriété intellectuelle, les moyens de subsistance des gens sont en danger.

Pour la startup d’IA qui veut passer en force dans le développement et sortir sur le marché, cela semble être beaucoup à prendre en compte – et c’est le cas. Protéger les gens et les informations nécessite un travail acharné. Mais c’est un travail non négociable, même si cela oblige les développeurs d’IA à être plus réfléchis. En fait, je dirais que c’est le bénéfice. Construire des solutions à des problèmes avant qu’ils ne surviennent, et vous n’aurez pas à réparer ce qui se brisera plus tard.

Un nouveau credo : « Aller stratégiquement pour être indestructible »

Ce mois de mai, l’UE a approuvé la première loi sur l’IA au monde, la loi sur l’intelligence artificielle, pour gérer les risques grâce à des exigences de transparence extensives et à l’interdiction pure et simple des technologies d’IA considérées comme un risque inacceptable. La loi reflète l’approche traditionnellement prudente de l’UE envers les nouvelles technologies, qui a gouverné ses stratégies de développement de l’IA depuis les premiers signes de l’actuel boom. Au lieu d’agir sur un coup de tête, en dirigeant tous leurs dollars de capital-risque et leurs capacités d’ingénierie dans la dernière tendance sans planification appropriée, ces entreprises consacrent leurs efforts à créer quelque chose qui durera.

Ceci n’est pas l’approche dominante aux États-Unis, malgré de nombreuses tentatives de régulation. Sur le plan législatif, les États individuels proposent essentiellement leurs propres lois, allant de l’insuffisance lamentable à l’excès massif, comme la proposition SB-1047 de la Californie. Pendant ce temps, la course aux armements de l’IA s’intensifie, et la Silicon Valley persiste dans ses anciennes habitudes.

Les capitalistes d’investissement ne font qu’attiser le problème. Lorsqu’ils investissent dans de nouvelles startups, ils ne se demandent pas si les garde-fous et les vérifications de sécurité sont en place. Ils veulent sortir un produit minimum viable le plus rapidement possible afin de récupérer leurs chèques. La Silicon Valley est devenue un terrain de reproduction pour les schémas de richesse rapide, où les gens veulent gagner autant d’argent que possible, en aussi peu de temps que possible, en faisant le moins de travail possible – et ils ne se soucient pas des conséquences.

Pour l’ère de l’IA, j’aimerais proposer un remplacement pour « aller vite et casser des choses » : aller stratégiquement pour être indestructible. Cela n’a peut-être pas la même poésie que le précédent, mais cela reflète la mentalité dont la Silicon Valley a besoin dans le paysage technologique actuel.

Je suis optimiste quant à la capacité de l’industrie technologique à être meilleure, et cela commence par l’adoption d’une mentalité centrée sur le client et orientée vers l’avenir, axée sur la création de produits qui durent et sur la maintenance de ces produits d’une manière qui favorise la confiance des utilisateurs. Une approche plus réfléchie rendra les gens et les organisations confiants pour intégrer l’IA dans leur vie – et cela semble plutôt rentable à mes yeux.

Vers un avenir durable

Le monde de la technologie souffre d’une pression écrasante pour être le premier. Les fondateurs estiment que s’ils ne sautent pas sur la prochaine grande chose tout de suite, ils vont manquer le bateau. Évidemment, être un précurseur peut augmenter vos chances de succès, mais être « le premier » ne doit pas se faire au détriment de la sécurité et de l’éthique.

Lorsque votre objectif est de construire quelque chose qui dure, vous finirez par chercher plus soigneusement les risques et les faiblesses. C’est également ainsi que vous trouverez de nouvelles opportunités pour des avancées et des innovations. Les entreprises qui peuvent transformer les forces en faiblesses sont celles qui peuvent résoudre les défis de demain, aujourd’hui.

L’hype est réel, et la nouvelle ère de l’IA est digne de ce titre. Mais dans notre enthousiasme pour débloquer le pouvoir de cette technologie, nous ne pouvons pas renoncer aux garanties nécessaires qui rendront ces produits fiables et dignes de confiance. L’IA promet d’améliorer notre vie pour le mieux, mais elle peut également causer des dommages immeasurables si la sécurité et la sûreté ne sont pas au cœur du processus de développement.

Pour la Silicon Valley, cela devrait être un signal d’alarme : il est temps de laisser derrière la mentalité de « aller vite, casser des choses, puis les réparer plus tard ». Car il n’y a pas de « plus tard » lorsque l’avenir est maintenant.

Kevin est le CMO de Vultr, et est un pionnier de plus de 25 ans de l'espace de marketing numérique et d'expérience numérique. Kevin a co-fondé sa première start-up, Interwoven, en 1996. Chez Interwoven, Kevin a co-inventé Interwoven TeamSite, a créé le marché de la gestion de contenu Web (WCM) et a pris Interwoven public en 1999. Après Interwoven, Kevin a été pionnier de la création du premier système de gestion de contenu d'entreprise open source (ECM) chez Alfresco et a popularisé l'adoption et l'utilisation de la technologie open source dans les entreprises mondiales et les organisations du secteur public. En tant que CMO de Day Software, Kevin a conduit l'évolution de la WCM en Web Experience Management (WEM), a vendu Day Software à Adobe System, et a été pionnier de l'adoption mondiale de la plateforme de gestion d'expérience d'Adobe et de la création d'Adobe Marketing Cloud. Au cours des dernières années, Kevin a continué à conduire l'évolution de l'espace de gestion d'expérience dans une nouvelle catégorie de marché, les plateformes d'expérience numérique (DXPs) et, plus récemment, son évolution en piles numériques composables basées sur une architecture MACH. Chez Vultr, Kevin travaille maintenant à construire la présence de la marque mondiale de Vultr en tant que leader du marché des plates-formes cloud indépendantes et de l'infrastructure composable pour les organisations du monde entier.