Des leaders d'opinion
Les années 2030 seront propulsées par l'informatique de périphérie : pourquoi la prochaine décennie de l'informatique commence maintenant.

Si vous voulez entrevoir l'avenir de l'IA, oubliez les fermes de serveurs du nord de la Virginie ou les incubateurs de start-up de San Francisco. Allez plutôt dans une station de lavage auto près de Fort Lauderdale.
Les renseignements qui pilotent l'opération proviennent d'une entreprise dont vous n'avez peut-être jamais entendu parler, sauf si vous travaillez dans le secteur du lavage de voitures, où elle est un chef de file du secteur.L'usine de lavage de voitures de SonnySonny's est le plus grand fabricant mondial d'équipements de lavage automobile à convoyeur – un secteur traditionnellement associé aux brosses, au savon et aux courroies, et non à la programmation. Pourtant, dans des milliers de stations, l'entreprise remplace ses sonars, utilisés depuis des décennies, par la vision par ordinateur pour évaluer la taille des véhicules en quelques millisecondes, utilise la reconnaissance des plaques d'immatriculation pour une inscription instantanée au programme de fidélité et teste l'intelligence artificielle conversationnelle aux bornes de lavage automatique.
Alors que des milliards de dollars sont investis dans la recherche du prochain produit de type ChatGPT — de nombreux investissements analystes Les avertissements dépassent déjà l'adoption réelle : une révolution silencieuse est en cours sur les parkings, les chaînes de montage des usines, les navires en mer et les sous-sols des hôpitaux.
Nous assistons à une bifurcation. D'un côté, l'IA grand public : spectaculaire, subventionnée et coûteuse à exploiter. De l'autre, l'IA physique : moins glamour, axée sur un retour sur investissement tangible et qui transforme déjà les opérations dans des secteurs qui ne peuvent se permettre ni latence ni interruption de service.
Cette rupture marquera la décennie à venir. Si les années 2010 ont été marquées par la connexion des objets (Internet des objets) et les années 2020 par le traitement des données à leur source (informatique de périphérie), les années 2030 seront celles de l'exploitation instantanée de ces données. Nous entrons dans l'ère de l'IA de périphérie.
L'innovation dans des lieux inattendus
Pour les industries ancrées dans les biens physiques, le cloud est souvent trop éloigné, tant au sens propre qu'au sens opérationnel.
Prenons l'exemple du commerce de détail. Chaque magasin est confronté au décalage entre les stocks réels et les inventaires enregistrés. Les vêtements sont déplacés, essayés et égarés, rendant les bases de données traditionnelles obsolètes en quelques minutes. Certaines entreprises se tournent vers un modèle où le magasin lui-même devient la base de données. Des scanners RFID fixés au plafond suivent les vêtements en temps réel : ils identifient ce qui est entré dans une cabine d'essayage, ce qui n'en est jamais ressorti et où se trouve chaque taille. Ils ne se contentent pas de mettre à jour les données ; ils numérisent l'espace physique en temps réel, une prouesse rendue possible uniquement par le traitement local.
Le secteur de la santé suit une trajectoire similaire. Les scanners CT et IRM modernes génèrent des gigaoctets de données par patient — des données trop volumineuses et trop sensibles pour être constamment transférées vers le cloud. La solution ne réside pas dans une bande passante plus importante, mais dans l’intégration de l’IA directement dans le scanner. Les hôpitaux commencent à exécuter l’analyse en local, conservant ainsi les données des patients sur site tout en fournissant des informations diagnostiques en quelques secondes.
Le secteur maritime est confronté à des contraintes similaires. Les porte-conteneurs génèrent des téraoctets de données opérationnelles provenant des moteurs, des systèmes de navigation et des capteurs de cargaison. Or, la connectivité en haute mer coûte des milliers de dollars par gigaoctet. Les compagnies maritimes déploient donc des serveurs périphériques à bord pour traiter ces données localement et exécuter des modèles de maintenance prédictive afin de prévenir les pannes de moteur avant même l'arrivée au port. L'intelligence artificielle accompagne le navire, car le cloud ne couvre pas de telles distances.
Il ne s'agit pas d'expériences de R&D. Ce sont des problèmes opérationnels résolus par le calcul en périphérie.
L'architecture à trois niveaux
Pour comprendre où évolue l'infrastructure d'entreprise, regardez le téléphone que vous avez dans votre poche. Apple Intelligence Ils ont popularisé un modèle de calcul à trois niveaux : le traitement sur l’appareil pour la rapidité, une couche de calcul privée pour les tâches plus lourdes et le cloud pour l’accès à une vaste base de connaissances. Les environnements industriels adoptent cette architecture précise, non par commodité, mais pour des raisons physiques.
Prenons l’exemple de la nouvelle génération de robots humanoïdes. Ces machines fonctionnent sur batterie ; elles ne peuvent ni embarquer de superordinateurs ni s’appuyer sur le cloud pour prendre des décisions de sécurité instantanées. Elles dépendent donc d’une « couche intermédiaire » essentielle :
-
Dispositif (le robot) : Gère les mouvements immédiats et la sécurité locale.
-
Private Edge : Un serveur local sur la chaîne de production gère les inférences complexes et la coordination de la flotte.
-
Cloud : Réservé à la formation et aux mises à jour logicielles globales.
Les années 2010 ont été marquées par le Cloud First. Les années 2030 seront celles de l'Edge First, avec le cloud uniquement lorsque cela s'avère nécessaire.
Cette architecture répond à des contraintes concrètes. Les robots fonctionnent sur batterie et ne peuvent pas supporter des charges de calcul importantes. Les chaînes de production exigent des temps de réponse de l'ordre de la milliseconde, impossibles à garantir par la latence du cloud. Dans les hôpitaux, les données des patients doivent rester sur site pour des raisons de conformité réglementaire. La couche intermédiaire prend en charge les calculs complexes, coordonne les flottes d'appareils et sert de tampon entre les opérations locales et les systèmes globaux. Imaginez un centre de données local compressé dans une seule baie de serveurs, traitant des téraoctets sans jamais accéder à Internet. Lorsqu'un robot doit effectuer une manœuvre de sécurité, le traitement est réalisé localement. Lorsqu'il doit mettre à jour son modèle de navigation en fonction des opérations du jour, le serveur périphérique s'en charge pendant la nuit. Lorsqu'un fabricant déploie une nouvelle fonctionnalité, le cloud la déploie. Chaque couche excelle dans son domaine d'expertise.
La fin de l'ère du « modem 56k »
Malgré ces évolutions architecturales, la réalité sur le terrain reste complexe. L'IA physique en est encore à ses balbutiements. Les responsables opérationnels sont confrontés à des « boîtes noires » : des appareils propriétaires pour le comptage de personnes, l'analyse vidéo ou les capteurs qui ne communiquent pas entre eux. C'est comme avoir un appareil distinct pour les e-mails, les cartes et les photos.
On constate aujourd'hui que des organisations comptant plus de 20 000 sites remplacent ce système disparate par des plateformes périphériques unifiées, ce qui leur permet de déployer de nouvelles applications sous forme de mises à jour logicielles plutôt que de projets matériels.
Parallèlement, les réseaux satellitaires LEO comme Starlink éliminent les zones blanches de connectivité. De même que les économies émergentes ont fait l'impasse sur les lignes fixes pour passer directement au mobile, des secteurs comme le maritime, l'exploitation minière et le ferroviaire délaissent totalement les architectures cloud centralisées. Ils migrent directement vers une IA distribuée en périphérie, car les contraintes physiques de leurs opérations l'exigent.
Le paradoxe de l'investissement
L'IA physique ne connaîtra jamais son « moment ChatGPT ». C'est impossible. Une erreur en IA générative se traduit par une capture d'écran virale ; une erreur en IA physique peut représenter un danger pour la sécurité.
C’est pourquoi, dans ce domaine, les progrès sont constants plutôt qu’explosifs. Waymo a consacré plus de dix ans aux tests et à la simulation avant de s’étendre aux grandes villes. Dans le secteur de la santé, une IA qui analyse les examens d’imagerie est un dispositif médical nécessitant l’approbation de la FDA. La sécurité et la maturité ne s’acquièrent pas par téléchargement ; elles se méritent.
Le paradoxe de l'investissement est simple : l'IA grand public, aussi spectaculaire soit-elle, fait la une des journaux, mais c'est l'IA opérationnelle qui domine le marché. Les années 2030 n'appartiendront pas aux entreprises qui auront créé les modèles les plus viraux, mais à celles qui sauront déployer l'intelligence là où elle est nécessaire.
Lorsque vous vous garez dans une station de lavage utilisant la technologie de Sonny, où que ce soit dans le monde, et que le système reconnaît votre véhicule et vous parle naturellement, ne le considérez pas comme un simple gadget. Voyez-y plutôt un modèle à suivre. C'est cela, l'infrastructure. Et les entreprises qui la mettent en place aujourd'hui bâtissent les barrières à l'entrée qui leur permettront de se démarquer dans le monde des affaires pour la prochaine décennie.










