Memories AI is building the visual memory layer for wearables and robotics
⚡ Résumé en français par Brief IA
• Memories.ai développe un modèle de mémoire visuelle capable d'indexer et de récupérer des souvenirs vidéo pour l'IA physique. • Ce modèle pourrait transformer la manière dont les appareils portables et les robots interagissent avec leur environnement. • Dans un contexte où l'IA visuelle devient cruciale, cette avancée pourrait redéfinir l'expérience utilisateur dans les technologies portables. 💡 Pourquoi c'est important : cette innovation pourrait révolutionner la collecte et l'interaction avec les données visuelles dans l'IA.
📄 Article traduit en français
Memories AI construit la couche de mémoire visuelle pour les wearables et la robotique
Shawn Shen estime que l'IA devra se souvenir de ce qu'elle voit pour réussir dans le monde physique. La société de Shen, Memories.ai, utilise les outils d'IA de Nvidia pour construire l'infrastructure permettant aux dispositifs portables et à la robotique de se souvenir et de rappeler des souvenirs visuels.
Memories.ai a annoncé une collaboration avec le géant des semi-conducteurs Nvidia lors de sa conférence GTC lundi. Grâce à ce partenariat, Memories.ai utilise Nvidia’s Cosmos-Reason 2, un modèle de langage de vision raisonnée, et Nvidia Metropolis, une application pour la recherche et la synthèse vidéo, afin de continuer à développer sa technologie de mémoire visuelle.
Shen (sur la photo à gauche) a déclaré à TechCrunch que lui et son co-fondateur et CTO, Ben Zhou (sur la photo à droite), ont eu l'idée de la société en construisant le système d'IA derrière les lunettes Ray-Ban de Meta. La création de ces lunettes intelligentes les a amenés à réfléchir à la manière dont les gens utiliseraient réellement cette technologie dans la vie quotidienne si les utilisateurs ne pouvaient pas se souvenir des données vidéo qu'ils enregistraient.
Ils ont cherché à voir s'ils pouvaient trouver quelqu'un développant déjà ce type de solution de mémoire visuelle pour l'IA. Ne trouvant personne, ils ont décidé de se séparer de Meta et de le construire eux-mêmes.
“L'IA réussit déjà très bien dans le monde numérique. Qu'en est-il du monde physique ?” a déclaré Shen. “Les dispositifs portables et la robotique ont également besoin de mémoire. … En fin de compte, il faut que l'IA ait des souvenirs visuels. Nous croyons en cet avenir.”
La capacité des systèmes d'IA à se souvenir, en général, est relativement nouvelle. OpenAI a mis à jour ChatGPT pour commencer à se souvenir des discussions passées en 2024 et a affiné cette fonctionnalité en 2025. Les outils de mémoire de xAI d'Elon Musk et de Google Gemini ont également été lancés au cours des deux dernières années.
Cependant, ces avancées se sont principalement concentrées sur la mémoire textuelle, a déclaré Shen. La mémoire textuelle est beaucoup plus structurée et plus facile à indexer, mais elle n'est pas aussi utile pour les applications d'IA physique qui interagissent principalement avec le monde à travers la vue et les visuels.
Memories.ai a été lancée en 2024 et a levé 16 millions de dollars jusqu'à présent, grâce à un tour de financement de 8 millions de dollars en juillet 2025 et une extension de 8 millions de dollars. Ce tour a été dirigé par Susa Ventures et a inclus Seedcamp, Fusion Fund et Crane Venture Partners, entre autres.
Shen a déclaré que la construction réussie de cette couche de mémoire visuelle nécessitait deux choses : construire l'infrastructure nécessaire pour intégrer et indexer les vidéos dans un format de données pouvant être stocké et rappelé, et capturer les données nécessaires pour entraîner le modèle à le faire.
La société a lancé son modèle de mémoire visuelle large (LVMM) en juillet 2025. Shen a déclaré qu'il pouvait être comparé à une version plus petite de Gemini Embedding 2, un modèle d'indexation et de récupération multimodal, qui a été publié plus tôt ce mois-ci.
Pour la collecte de données, la société a créé LUCI, un dispositif matériel porté par les “collecteurs de données” de l'entreprise qui enregistre des vidéos utilisées pour entraîner le modèle. Shen a précisé qu'ils ne prévoient pas de devenir une entreprise de matériel, ni de vendre ces dispositifs, mais qu'ils les ont construits eux-mêmes car ils n'étaient pas satisfaits des enregistreurs vidéo disponibles sur le marché qui se concentraient sur des formats vidéo haute définition et gourmands en batterie.
La société a publié la deuxième génération de ce LVMM et a signé un partenariat avec Qualcomm pour fonctionner sur les processeurs de Qualcomm à partir de la fin de cette année.
Memories.ai travaille également avec certaines grandes entreprises de dispositifs portables, a déclaré Shen, mais a refusé de dévoiler lesquelles. Malgré une certaine demande actuelle, Shen voit des opportunités encore plus grandes dans les wearables et la robotique à venir.
“En termes de commercialisation, nous sommes plus concentrés sur le modèle et l'infrastructure, car en fin de compte, nous pensons que le marché des wearables et de la robotique viendra, mais ce n'est probablement pas pour maintenant,” a déclaré Shen.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.