OpenAI, Anthropic et Google s'unissent contre le vol de modèles chinois non autorisés
OpenAI, Anthropic et Google ont commencé à collaborer pour lutter contre la copie non autorisée de leurs modèles d'IA par des concurrents chinois, selon Bloomberg. Les trois entreprises partagent des informations via le "Frontier Model Forum", fondé en 2023, afin de détecter ce que l'on appelle la distillation adversariale. Dans ce processus, les résultats d'un modèle d'IA existant sont utilisés pour entraîner un modèle de copie moins coûteux. L'un des premiers exemples a été le modèle Alpaca de Stanford, qui a démontré la faisabilité de cette approche, mais cette pratique est depuis devenue un véritable problème pour les entreprises américaines.
Les autorités américaines estiment que la distillation adversariale coûte aux laboratoires d'IA américains des milliards de dollars en revenus perdus chaque année, rapporte Bloomberg. OpenAI avait déjà averti le Congrès en février que Deepseek utilisait des méthodes de plus en plus sophistiquées pour extraire des données des modèles américains. Anthropic a identifié Deepseek, Moonshot et Minimax comme des acteurs impliqués dans cette pratique. Cette collaboration reflète le fonctionnement de l'industrie de la cybersécurité, où les entreprises partagent régulièrement des données sur les attaques entre elles.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
