index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Adversarial Attacks AI engineering Bayesian inference Anomaly Distribution based method Adversarial examples Data-driven reachability AI Adversarial attacks Deep Reinforcement Learning Cryptography and Security Artificial intelligence Mixed Integer Programming Distributed learning ED-324/ARP6983 Recurrent Neural Networks Adversarial physical attack Multi-fidelity BO Explainability AI-Based Systems Data Stream Explicabilité Data trustworthiness Decision tree Semantic segmentation Deep learning Monitoring Reliability Distributed Machine Learning Data Quality Sûreté de fonctionnement Deep neural network classifiers Deep Ensembles Complexity AI-based systems AI-Based Critical Systems Edge computing Neural network Counterfactuals Machine learning Generative Models Computer Vision Robustesse Data Stream Processing Long Short-Term Memory Automated vehicle Explainable AI Trustworthiness Attributes Trustworthiness Assessment Neural Network Autonomous system AI System Characterization AI component evaluation methodology Bayesian optimization Confiance explicabilité Aide à la décision Sûreté Assurance case Concepts Machine Learning Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Bayesian Optimization Certification Attack transferability Artificial Intelligence Assurance Cases AI-Systems Engineering Neural ODEs Christoffel functions Deployment Branch-and-Bound algorithm Arcadia Method Contextual Evaluation Collaboration Human-IA Bias Detection AI systems Intelligence Articifielle Critical systems Dempster Shafer theory Robustness Computer Vision and Pattern Recognition XAI Case-based Realization theory Calibration Computer vision Adversarial Training Conformal Prediction Custom search space Conformal prediction Adversarial attack Data Analysis Confiance Neural Architecture Search Cycle-accurate simulator ODD Anomaly Detection Data Visualization Anomaly detection System Identification