Perspectives 2026 de Progress Software

Perspectives 2026 de Progress Software

Ed Keisling, Chief AI Officer chez Progress Software

1. L’infrastructure invisible de l’IA

Avec l’évolution des modèles, des frameworks et des normes, de nombreuses solutions déjà existantes deviennent rapidement obsolètes, non prises en charge ou non sécurisées. Un effort important de refactorisation de ces projets pilotes viendra entraver le développement de nouvelles IA. Les organisations devront faire une pause pour travailler sur l’infrastructure qui sous-tend l’IA, c’est-à-dire qu’elles vont devoir définir et construire de nouveaux frameworks et normes évolutifs, flexibles et sécurisés, nécessaires à leurs organisations.

2. À modèle plus petit, plus d’avantages

Les modèles d’IA continueront de s’étendre et de devenir plus performants. Toutefois, les organisations devraient s’appuyer sur des modèles plus petits, car ils sont plus adaptés et plus rentables, et qu’il est possible de les déployer en interne et à l’edge.

3. Au-delà de l’effet de mode, une réalité tangible

La désillusion face à l’IA générative s’accélère à mesure que l’on prend conscience de l’influence de l’IA sur l’actualité, notamment en ce qui concerne le contenu audio et vidéo généré par les LLM. L’utilisation d’assistants d’IA, la saturation de contenus générés par l’IA sur les réseaux sociaux et l’utilisation des LLM suscitent un besoin croissant de réglementation.

4. Intégrer l’IA ou être à la traîne

Les entreprises qui risquent d’être les plus impactées par cette révolution sont celles qui proposent des produits n’intégrant pas l’IA et qui ne se démarquent pas avec une proposition de valeur unique en termes de structuration des données ou de sémantique. Les plateformes et solutions intégrées gagneront des parts de marché et apporteront une véritable valeur ajoutée en exploitant leurs données clients.

Mark Troester, Vice President of Strategy chez Progress Software

1. Sécurité des données : l’infrastructure de l’IA devient une cible d’attaque privilégiée

En 2026, il devrait y avoir au moins une violation de données majeure impliquant des données d’infrastructure d’IA via des LLM publics. Il pourrait s’agir d’une faille de sécurité chez un fournisseur de LLM exposant les données issues de conversations, d’une attaque sophistiquée extrayant les données d’entraînement de certains modèles, ou d’une menace interne au sein d’une grande entreprise d’IA. La valeur de l’IA pour la gestion d’infrastructure est réelle et significative, ce qui représente un véritable challenge et ne peut être ignoré. Les organisations devraient plutôt adopter une approche à plusieurs niveaux concernant l’utilisation de l’IA : une approbation des LLM publics pour l’apprentissage et les questions génériques, des LLM d’entreprise avec des accords de traitement des données pour le code interne, et des déploiements privés requis pour les infrastructures de production et les identifiants.

2. Injection de prompts : la menace invisible qui plane sur l’infrastructure d’IA

L’injection de prompts s’appuie sur des techniques invisibles à l’œil nu : caractères Unicode de largeur nulle, caractères de remplacement de droite à gauche, homographes ayant des valeurs Unicode différentes, ou texte blanc sur fond blanc dans les formats RTF. Pour détecter ces menaces, les organisations doivent surveiller la chaîne de raisonnement, recourir à un sandboxing approprié, s’appuyer sur des capacités de récupération rapide et d’apprentissage continu à partir des modèles d’attaque observés afin d’améliorer les défenses dans le temps.

3. S’appuyer sur des micro-agents pour les tâches répétitives et sans risque : la voie pragmatique

Les micro-agents présentent un risque limité car leur champ d’action est restreint. Ils sont plus faciles à tester de manière exhaustive et à intégrer dans des chaînes de validation. En matière de conformité réglementaire, ces agents ciblés sont plus simples à expliquer et à auditer. Leur rentabilité est également supérieure, les petits modèles spécialisés étant nettement moins coûteux que les grands modèles polyvalents. Il conviendra donc de privilégier une micro-automatisation supervisée et une automatisation à plusieurs niveaux : entièrement automatisée pour les tâches à faible risque, avec approbation pour les tâches à risque moyen, et avec supervision humaine assistée par l’IA pour les activités à haut risque.

4. Pression réglementaire : l’UE donne le rythme pour la gouvernance de l’IA

La réglementation sur l’IA arrive, et l’Union européenne ouvrira la voie avec l’AI Act, des extensions du RGPD et de nouvelles exigences de transparence algorithmique. Les organisations utilisant l’IA pour la gestion des infrastructures devront se conformer à des obligations importantes, notamment en matière de gouvernance des données. Les données d’entraînement des modèles personnalisés devront respecter le principe de minimisation des données prévu par le RGPD, entraînant des changements opérationnels significatifs.

5. Économie : se préparer à la bulle de l’IA

OpenAI, Anthropic et d’autres fournisseurs de LLM pratiquent actuellement des prix inférieurs aux coûts pour gagner des parts de marché, soutenus par le capital-risque. Lorsque ces subventions prendront fin, les prix des API LLM pourraient être multipliés par trois à dix du jour au lendemain, les accès gratuits disparaître ou devenir très limités, et les organisations faire face à des coûts d’infrastructure massifs et imprévus. Des perturbations de la chaîne d’approvisionnement pourraient en découler, notamment des fusions ou retraits de petits fournisseurs, une réduction de la production de GPU et des situations de dépendance critique pour les organisations.

Philip Miller, AI Strategist chez Progress Software

1. IA agentique : quand l’homme évolue de « prompteur » à « gérant d’agents »

Le centre de gravité se déplace des prompts uniques vers des workflows multi-agents capables de planifier, d’utiliser des outils, de vérifier et de passer la main à l’humain si nécessaire. McKinsey décrit cette évolution comme un avantage compétitif, tandis que Gartner met en garde contre l’« agent-washing » et anticipe l’abandon de plus de 40 % des projets agentiques d’ici 2027 faute de valeur ajoutée claire.

2. Génération de code par IA : de l’assistance à l’effet de levier sur la chaîne logicielle

Les assistants de codage deviennent indispensables, mais l’étape suivante concerne les workflows de développement complets : synthèse des exigences, génération de tests, refactorisation sécurisée et preuves de conformité. Les gains de productivité observés devraient s’intensifier à mesure que l’adoption se généralise, notamment avec l’arrivée d’agents SRE et d’ingénierie des données.

3. Déployer l’IA à grande échelle : de victoires isolées à des opérations repensées

Les entreprises qui réussiront en 2026 mettront en œuvre trois disciplines : la commercialisation des cas d’usage avec des responsabilités et des SLA clairs, la connexion des connaissances structurées et non structurées pour permettre un fonctionnement en contexte, et une gouvernance favorisant l’accélération des déploiements. L’adoption est élevée, mais la mise à l’échelle reste encore rare.

4. Navigation agentique : une entrée dans l’entreprise via des projets pilotes à faible risque et à forte valeur ajoutée

Le navigateur devient un espace de travail agentique. Cette évolution ouvre la voie à des projets pilotes ciblés, tels que l’analyse de marché avec traçabilité des sources, la due diligence, le suivi réglementaire ou les carnets de recherche structurés, sous réserve de cadres stricts de gouvernance, de sandboxing et de red-teaming.

5. MCPs et A2A : des plugins à une structure d’agents interopérables

Les protocoles MCP transformeront les intégrations fragiles en connexions standardisées et sécurisées, permettant aux assistants d’IA d’accéder aux applications, données et outils selon le principe du moindre privilège. Les protocoles A2A permettront ensuite la délégation, la vérification et la coordination des tâches entre assistants et équipes.

Partager cet article :
CATEGORIES