L’intelligence artificielle en périphérie évolue rapidement, avec des processeurs embarqués de plus en plus puissants et des algorithmes cloud adaptés pour s'exécuter sur ces plateformes. Sergi Mansilla, d'Edge Impulse, explique que l'industrie tire parti de ce changement au profit des systèmes embarqués.

En mettant en cascade des modèles d'apprentissage automatique, les algorithmes à faible consommation d'énergie peuvent procéder à une évaluation préliminaire des données. Si des attributs essentiels sont présents, un traitement supplémentaire, plus gourmand en énergie, peut être entrepris par un second algorithme, tel qu'un grand modèle de langage. Les modèles de langage visuel (VLM) s’intègrent de plus en plus aux systèmes en périphérie, permettant à des algorithmes en langage naturel de détecter des objets ou de décrire une scène.

Nous avons également discuté des avantages de l'acquisition d'Edge Impulse par Qualcomm pour la communauté, notamment l’accès à de nouveaux matériels pour les développeurs.
 
    
Modèles en cascade : Optimiser les performances de l'IA sur les appareils embarqués