index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Neural ODEs Generative Models Bias Detection Adversarial Training Critical systems Semantic segmentation Distributed learning Fault tolerance Hardware Branch-and-Bound algorithm Bayesian Optimization Conformal Prediction Concepts AI System Characterization Christoffel functions AI-Based Systems Realization theory Data Stream Federated Learning Sûreté de fonctionnement Artificial Intelligence Explicabilité Adversarial examples Counterfactuals Conformal prediction Influence Functions Deep learning Neural Network Machine Learning FOS Computer and information sciences Long Short-Term Memory Anomaly Deep neural network classifiers Neural network Explainability Example-based Decision tree Adversarial Attacks Data Analysis Deep Reinforcement Learning System Identification Explicability Gas Distribution Confiance explicabilité GPU Fiabilité Explanations Mixed Integer Programming Bayesian inference AI component evaluation methodology Adversarial attacks Anomaly Detection Data Stream Processing Artificial intelligence Robustesse Adversarial attack Data Quality Trustworthiness Attributes AI engineering Engineering Processes Cryptography and Security Confiance Ingénierie algorithmique de l’IA Enalty Bayesian Neural Networks Computer vision Arcadia Method Data-driven reachability Data Visualization Sûreté Distribution based method Automated vehicle Fault tolerant systems AI Intelligence Articifielle Cycle-accurate simulator Distributed Machine Learning Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Embarqué Contextual Evaluation Attack transferability Fault detection Robustness Evaluation Anomaly detection AI-based systems AI-Based Critical Systems Adversarial physical attack Complexity Explainable AI ODD Calibration Trustworthiness Assessment Embedded AI Monitoring Case-based XAI Computer Vision Computer Vision and Pattern Recognition Recurrent Neural Networks Custom search space