Entretiens
Bruno Zamborlin, PDG et chef scientifique chez Hypersurfaces – Série d’entretiens

Bruno Zamborlin, PhD est un chercheur italien en intelligence artificielle et entrepreneur basé à Londres, Royaume-Uni.
Chercheur invité à l’Université de Goldsmiths, Bruno a initié le concept de transformation d’objets physiques en surfaces interactives sensibles au toucher en utilisant des capteurs de vibration et l’intelligence artificielle.
Il est le fondateur de Mogees Limited, la start-up basée à Londres et Los Angeles dont les produits permettent aux utilisateurs de transformer des objets du quotidien en instruments de musique et en jeux à l’aide d’un capteur de vibration et d’un téléphone mobile (plus de 100 000 unités vendues dans le monde).
Il a récemment fondé HyperSurfaces, une plateforme technologique qui convertit des objets de n’importe quel matériau, forme et taille en surfaces interactives dotées de données, simplement en utilisant un capteur de vibration et un circuit imprimé de la taille d’une pièce.
Votre parcours d’entrepreneur a évolué à partir de votre passion pour la musique. Pouvez-vous partager l’histoire de la façon dont vous êtes arrivé au concept de votre première start-up, Mogees ?
Je me suis toujours passionné pour l’idée de créer des technologies qui sont spécifiques à un site, capables de tirer parti et de modifier les environnements qui nous entourent, plutôt que de créer quelque chose de scratch. Je fais souvent cela en utilisant « l’apprentissage automatique interactif », qui est une branche de l’IA qui se concentre sur la possibilité pour l’utilisateur final de programmer les algorithmes lui-même comme il le souhaite, plutôt que d’utiliser l’IA comme une boîte noire avec des règles préprogrammées. Cela a été le terrain d’entente dans la plupart de mes travaux.
Mogees vise à démocratiser ce processus pour la création de sons. Il permet effectivement à quiconque d’altérer les propriétés acoustiques des objets physiques qui nous entourent pour les rendre musicaux. Il se compose d’un petit capteur de vibration que vous placez sur l’objet que vous voulez jouer et d’une application smartphone, qui transforme les vibrations en sons musicaux. L’application permet aux utilisateurs d’altérer les paramètres acoustiques de l’objet physique que vous jouez, ainsi que de reconnaître des gestes spécifiques. N’importe qui, des artistes professionnels aux enfants de l’école primaire, peut reprogrammer le monde qui les entoure pour le faire sonner comme ils le souhaitent.
Pouvez-vous discuter de l’histoire de la genèse de votre deuxième start-up, Hypersurfaces ?
La technologie a révolutionné de nombreux aspects de notre vie, de la façon dont nous communiquons les uns avec les autres à la façon dont nous faisons du shopping, que nous conduisons, que nous étudions, etc.
Le monde physique qui nous entoure, cependant, n’a pas vraiment évolué au même rythme. Pensez à votre table de cuisine, à une salle de classe, à un parc ; ils sont encore pretty much les mêmes qu’il y a 30 ans.
HyperSurfaces est une technologie qui peut transformer n’importe quelle surface faite de n’importe quel matériau rigide, forme et taille en une surface HyperSurface dotée de données, capable de comprendre n’importe quel événement qui se produit sur sa surface et de réagir en conséquence, au bon moment. Elle le fait grâce à un petit capteur de vibration et à un circuit imprimé où un algorithme d’IA s’exécute localement. Pensez à des surfaces qui sont conscientes lorsqu’elles sont touchées, balayées, déplacées, heurtées, lorsqu’un liquide est déposé dessus, etc. et réagissent à ces événements en conséquence.
Et encore plus, avec notre plateforme cloud, les utilisateurs peuvent programmer de telles surfaces par eux-mêmes en moins d’une heure, sans avoir à écrire une seule ligne de code. HyperSurfaces est en quelque sorte une extension naturelle de Mogees. Il y a des similitudes, notamment l’apprentissage automatique interactif et les vibrations, bien que celles-ci soient portées au niveau supérieur.
Pourquoi est-il si important d’améliorer différentes surfaces pour qu’elles réagissent aux gestes humains ?
Si vous pensez à la façon dont nos corps sont conçus, il est vraiment peu naturel de passer toute la journée devant un écran tactile ou un clavier en communiquant avec les technologies en utilisant seulement nos doigts. Imaginez si la technologie pouvait être répandue de manière ubiquitaire autour de nous pour simplifier nos interactions avec le monde réel. Imaginez un sol qui sait quand quelqu’un tombe et fait appel à l’assistant vocal pour demander si vous voulez appeler les services d’urgence, ou une fenêtre qui sait si quelqu’un entre par effraction, une cuisine qui suit vos actions de cuisson (poser des pots, mélanger, faire bouillir de l’eau, etc.) et contrôle les appareils en conséquence, etc. Ou la ville de demain, capable de surveiller les véhicules et les piétons sans avoir à employer des caméras et des microphones invasifs. Maintenant, étendez cela à une forêt entière, avec des arbres solaires hyper puissants capables de communiquer lorsqu’il y a un incendie, ou du braconnage, etc. À des applications plus artistiques, comme des arbres dans un parc qui se mettent en évidence différemment en fonction du nombre de personnes qui les ont serrés dans la journée. Les exemples sont innombrables.
Pouvez-vous élaborer sur la technologie d’apprentissage automatique qui est utilisée pour interpréter instantanément les modèles de vibration tels que les gestes humains et les convertir en n’importe quelle commande numérique ?
Nous utilisons du matériel standard peu coûteux : un capteur de vibration de la taille d’une pièce et un circuit imprimé, que les créateurs peuvent placer sur ou sous la surface qu’ils veulent améliorer. Lorsqu’un événement se produit sur une telle surface, la vibration correspondante est capturée et envoyée au circuit imprimé, où notre algorithme l’interprète. Si cela correspond à l’un des événements que l’algorithme a été pré-entraîné avec, un message correspondant est généré. De tels messages peuvent être utilisés soit localement, par exemple lorsqu’ils sont connectés au système central d’un véhicule, ou à un assistant intelligent, ou à un Raspberry Pie, etc., soit envoyés au cloud.
Les concepteurs peuvent utiliser notre plateforme cloud pour définir n’importe quel nombre d’événements qu’ils veulent ; la plateforme génère automatiquement le firmware qui est ensuite chargé sur le circuit imprimé, sans qu’il soit nécessaire d’écrire une seule ligne de code.
Quelles sont certaines des utilisations de cette technologie dans l’espace de détail ?
Malgré la situation actuelle, il y a beaucoup d’attention portée à l’avenir de la vente au détail. Elle doit être différente de celle du commerce électronique, capable d’offrir une expérience réelle.
Les concepteurs ont expérimenté HyperSurfaces pour créer des produits interactifs qui affichent du contenu numérique en fonction de la façon dont les visiteurs interagissent avec un produit spécifique, offrant à la fois une expérience physique et numérique en même temps.
HyperSurfaces pourrait être utilisé dans diverses applications, quelles sont certaines des applications que vous croyez personnellement avoir une grande possibilité de devenir populaires ?
Étant donné la situation actuelle, il y a beaucoup d’attention portée aux applications de maison intelligente. Si celles-ci sont sans caméra et sans microphone, et que les données sont traitées localement, alors c’est encore mieux.
Mais il y a de nombreuses autres applications que nous verrons très bientôt.
Quel type de données peut être collecté à partir d’HyperSurfaces ?
Beaucoup. Nous pouvons les diviser en trois catégories principales : les interactions humaines (comme toucher quelque chose), les événements acoustiques (comme l’eau qui bout) et la prévention des défaillances (comme détecter le son d’un moteur avant qu’il ne casse). Pour chacune de ces catégories, HyperSurfaces est capable de dire de multiples propriétés en même temps, de l’intensité de l’événement au type de matériau utilisé pour provoquer l’interaction, et bien plus encore.
Comment les modèles d’IA peuvent-ils utiliser ces données pour détecter des événements spécifiques à mesure qu’ils se produisent en temps réel ?
Nous avons développé un véritable « univers » d’événements vibrationnels enregistrés sur des centaines de surfaces de tous types. Les vibrations sont une incroyablement riche source d’informations à utiliser.
Lorsque vous utilisez notre plateforme, les utilisateurs peuvent enregistrer une quantité incroyablement petite d’observations pour chaque événement qu’ils veulent définir, car notre IA est capable d’extraire tellement d’informations à partir de celles-ci grâce à cet « univers » que nous avons construit.
Enfin, pourriez-vous nous dire pourquoi vous avez choisi d’étudier l’informatique ?
J’ai été fasciné par les mathématiques depuis que j’avais 4 ans. Pour moi, c’est l’outil principal pour décrire le monde dans lequel nous vivons, libre des préjugés que le langage implique. Lorsque j’ai acheté mon premier ordinateur, j’ai appris qu’il était possible d’utiliser l’informatique pour modifier ce monde de différentes manières. Je vois les capteurs comme un pair d’yeux pour capturer ce qui se trouve dans le monde et les algorithmes comme un pinceau qui extrait quelque chose de nouveau à partir de celui-ci.
Merci pour cette grande interview, les lecteurs qui souhaitent en savoir plus devraient visiter HyperSurfaces.












