AWS Summit Paris 2026 : L’IA en voie d’industrialisation
AWS Summit Paris 2026 : L’IA en voie d’industrialisation
Le 1er avril dernier, nous avons participé à l’AWS Summit Paris avec Lionel et Houcem.
Cette 20ᵉ édition reflète une tendance désormais bien installée : l’IA est omniprésente, mais surtout de plus en plus mature dans ses usages. Après plusieurs années marquées par l’expérimentation, les solutions présentées s’inscrivent désormais dans une logique d’industrialisation et d’intégration au cœur des systèmes d’information.
Discours principal : la vision d’AWS pour l’IA en production :
La keynote d’ouverture a donné le ton en mettant en avant une évolution claire : L’IA n’est plus un sujet exploratoire, mais un pilier structurant de l’offre AWS.
Amélie Clugnet, directrice générale d’AWS France, a ouvert la session en revenant sur les 20 ans d’AWS et son implantation en France, mettant en avant la robustesse de l’infrastructure et la présence locale, à travers la région AWS Europe Paris qui a fêté ses 8 ans en décembre dernier.
Plusieurs représentants de grands groupes, comme Bureau Veritas, Ariane Group et Canal+, sont ensuite intervenus pour illustrer concrètement ces transformations. Leurs retours mettent en évidence des enjeux communs : passage à l’échelle des projets IA, intégration dans des environnements critiques et importance croissante des questions de souveraineté des données.
Une partie centrale de la keynote, portée notamment par Stephan Hadinger, directeur de la technologie chez AWS France, s’est concentrée sur les évolutions de la plateforme. Au-delà d’un simple catalogue de services, les annonces traduisent une orientation claire vers une IA plus autonome, intégrée et orientée production. Cette évolution marque un changement de posture : L’IA n’est plus seulement un outil d’assistance, mais devient un véritable composant des systèmes.
Parmi les briques présentées :
- Kiro Autonomous Agent répond au défi de coordonner et de maintenir la cohérence du code à travers de multiples dépôts et équipes. Conçu comme un développeur autonome permanent, il planifie, code, teste et ouvre des pull requests en arrière-plan sans intervention constante. Sa particularité : une mémoire persistante entre les sessions, qui lui permet d’apprendre progressivement des retours de l’équipe et de s’aligner sur les standards internes.
- AWS Transform Custom s’attaque à lui à un enjeu central pour de nombreuses organisations : la dette technique. En s’appuyant sur des capacités d’analyse et de transformation automatisées du code, ce service permet d’accélérer la modernisation des applications existantes.
- AWS DevOps Agent illustre de son côté l’application de l’IA agentique aux opérations. Conçu comme un « coéquipier » DevOps autonome, il est capable d’investiguer automatiquement les incidents dès leur détection, d’en identifier la cause racine et de proposer des actions de remédiation.
AWS complète ce dispositif avec un agent de sécurité capable d’automatiser les tests de sécurité applicatifs tout au long du cycle de développement. Ces différentes briques couvrent ainsi l’ensemble du cycle de vie applicatif, du développement à la production.
Ces annonces s’inscrivent dans une tendance plus large : l’émergence d’agents spécialisés capables d’automatiser des tâches complexes, que ce soit dans le développement, la sécurité ou l’exploitation.
Au-delà des fonctionnalités elles-mêmes, le message clé est clair :
L’IA devient une brique native des architectures cloud modernes, avec des cas d’usage qui dépassent désormais largement le simple prototypage.
Atelier : prototypage accéléré d’une application complète :
Parmi les ateliers proposés, celui intitulé « Votre startup prend vie avec Kiro, Bedrock et Amplify » illustrait de manière concrète les capacités actuelles de l’écosystème AWS en matière de développement assisté par IA.
L’objectif était de concevoir et déployer rapidement un prototype d’application web. En quelques étapes, et avec un effort de développement limité, nous avons ainsi pu générer une application e-commerce complète en React grâce à Kiro, l’assistant de développement basé sur l’IA proposé par AWS, puis la déployer sur AWS.
Le point de départ reposait sur un simple prompt décrivant les besoins fonctionnels du site (présentation des produits, narration de la marque, parcours client, éléments interactifs, etc.). À partir de cette description, nous avons pu générer avec Kiro une première version de l’application frontale, incluant une structure moderne et plusieurs composants dynamiques.
Le prototype a ensuite été connecté à différents services AWS pour couvrir les aspects backend et infrastructure :
- Déploiement via Amplify
- API exposée via API Gateway
- La logique métier implémentée avec Lambda
- Persistance des données dans DynamoDB
- Envoi d’e-mails transactionnels via SES
L’infrastructure était définie via un modèle CloudFormation, permettant un déploiement automatisé en une seule étape.
Au-delà de l’aspect technique, cet atelier a mis en évidence une évolution importante : la capacité à passer très rapidement d’une idée à une application fonctionnelle, en s’appuyant sur l’IA et des services managés. Là où ces étapes nécessitaient auparavant plusieurs jours voire semaines de développement, il est désormais possible d’obtenir un prototype cohérent en un temps très réduit.
Ce type d’approche ne remplace pas les phases de conception approfondie ou d’industrialisation, mais constitue un levier intéressant pour accélérer les phases de prototypage, de validation fonctionnelle ou de démonstration.
Conference : adapter les modèles aux usages métier :
Une autre session qui nous a marqué sur la mise au point de modèles d’IA, et plus particulièrement sur les capacités proposées par Amazon SageMaker pour personnaliser des modèles à partir de données internes.
La présentation a débuté par une distinction entre deux approches complémentaires : le fine-tuning et les architectures de type RAG (Retrieval-Augmented Generation).
La mise au point consiste à réentraîner un modèle sur des données spécifiques afin de lui faire adopter un comportement attendu (format de réponse, ton, logique métier, utilisation d’API internes, etc.).
À l’inverse, les approches RAG reposent sur l’injection de connaissances externes au moment de la requête, sans modifier le modèle lui-même.
Ces deux approches ne s’opposent pas, mais répondent à des besoins différents selon les cas d’usage.
Dans les cas présentés, le réglage fin apparaît particulièrement pertinent lorsque l’on cherche à :
- Imposer un format ou un style précis
- Intégrer des règles métiers spécifiques
- or do learn to new skills model
À l’inverse, les approches RAG restent plus adaptées pour des besoins de recherche d’information, de synthèse documentaire ou de génération de contenu à partir de sources existantes.
La conférence a également abordé plusieurs techniques de réglage fin, comme le SFT (Supervised Fine-Tuning), le DPO (Direct Preference Optimization) ou encore le RFT (Reinforcement Fine-Tuning), qui se distinguent par la manière dont elles exploitent les données d’entraînement et les retours utilisateurs.
Enfin, des intervenants de Mistral AI ont présenté une démonstration autour d’un modèle affiné, en s’appuyant notamment sur l’outil Mistral Vibe CLI. Cette approche met en avant un avantage clé : la possibilité de disposer de modèles spécialisés, capables de refléter les normes, les pratiques et le contexte propre à une organisation.
Des techniques d’optimisation, comme le réglage fin efficace des paramètres ou la quantification, contribuent également à rendre ces approches plus accessibles en environnement de production.
Dans ce contexte, la mise en œuvre efficace en production nécessite une infrastructure robuste et flexible. C’est ici qu’intervient Amazon SageMaker : cette plateforme offre un environnement unifié, managé et évolutif pour déployer toutes ces techniques (réglage fin, RAG, PEFT, quantification) en production, sans avoir à gérer les complexités d’infrastructure sous-jacentes.
Conclusion :
Cette édition de l’AWS Summit Paris confirme une évolution nette : l’IA n’est plus un sujet d’expérimentation, mais un levier d’industrialisation à part entière.
Entre les annonces autour des agents, les outils de modernisation applicative et les capacités de personnalisation des modèles, AWS propose désormais un écosystème complet pour intégrer l’IA au cœur des systèmes d’information.
Les retours observés lors des ateliers et conférences montrent également une accélération des cycles de développement et une montée en puissance de l’automatisation, du prototypage jusqu’à la mise en production.
Pour les équipes techniques, l’enjeu se déplace : il ne s’agit plus d’évaluer la pertinence de l’IA, mais de construire les pratiques qui permettent d’en exploiter pleinement le potentiel.
Article rédigé par Michel SZCZESNY



