Cours

4840 L'intelligence artificielle

Animée par Christian PASCO
Vendredi de 14h15 à 15h45 - Salle 138

 

        Les archives, c'est en bas…   

 

 

Calendrier prévisionnel

 

 

 

- Introduction                                                                      (Résumé)

L’intelligence artificielle (IA) est une technologie qui utilise des algorithmes et des réseaux de neurones pour analyser,
apprendre et automatiser des tâches, avec des applications variées comme la traduction, la reconnaissance vocale
et les assistants intelligents.

- Histoire de l'IA                                                                 (Résumé)

L’intelligence artificielle (IA) a évolué par cycles de progrès et de stagnation depuis les années 1940, passant
par des périodes d’optimisme, des hivers de l’IA, et un essor moderne grâce au Big Data, à l’apprentissage profond
et aux modèles génératifs comme GPT et AlphaGo.

- Résolution des problèmes et jeux                           (Résumé)                

L’IA moderne résout des problèmes et optimise les jeux grâce à des algorithmes avancés comme MiniMax, MCTS
et l’apprentissage profond, avec des applications allant des échecs à la recherche pharmaceutique.

- Applications des probabilités.                                 (Résumé)

Les probabilités, via le théorème de Bayes, permettent de gérer l'incertitude en IA, notamment pour la classification,
la prise de décision et l’apprentissage automatique. l’expérience.

- Systèmes experts                                                            (Résumé)           (note)

Les systèmes experts, issus de l’IA symbolique, utilisent une base de connaissances et un moteur d’inférence
pour simuler le raisonnement humain, mais sont aujourd’hui dépassés par le Machine Learning et le Deep Learning.

- Utilisation des Chatbots                                              (Résumé)

Les chatbots modernes, comme ChatGPT, Bing Copilot et Gemini, utilisent l'IA pour interagir avec les utilisateurs,
générer du contenu et s’adapter à divers usages.

- Apprentissage et machine learning                       (Résumé)

Le document explore l’apprentissage humain et automatique, décrivant les types de machine learning
(supervisé, non supervisé, par renforcement) et leurs applications en s’inspirant des neurosciences.

- Perceptron et réseaux de neurones                         (Résumé)

L'évolution des réseaux de neurones, du perceptron simple à la rétropropagation et au deep learning, a permis
de résoudre des problèmes complexes grâce à l’apprentissage automatique et aux fonctions d’activation avancées.

- Reconnaissance de chiffres manuscrits                  (Résumé)

L'évolution des modèles de reconnaissance des chiffres manuscrits, du perceptron simple aux réseaux convolutifs,
améliore la précision en surmontant les limites des méthodes classiques et du sur-apprentissage.

- Réseaux convolutifs                                                           (Résumé)

Les réseaux convolutifs (CNN) optimisent la reconnaissance d’images en extrayant des caractéristiques hiérarchiques,
réduisant les calculs et améliorant la précision grâce à la convolution, le pooling et la rétropropagation.

- Détection d'objets                                                             (Résumé)

Les techniques de détection d’objets par vision par ordinateur, en détaillant les algorithmes CNN, leurs applications
et les avancées matérielles récentes.

- TALN – 1ère partie                                                              (Résumé)

Le TALN (Traitement Automatique du Langage Naturel) permet aux machines de comprendre et traiter le langage humain
grâce à des techniques comme la tokenisation, les embeddings lexicaux
et les modèles neuronaux avancés (RNN, Transformers).

- TALN – 2ème partie                                                               (Résumé)

Les modèles avancés du TALN, notamment les RNN, LSTM, Transformers et le mécanisme d’attention,
utilisés pour améliorer la traduction automatique et la génération de texte.

- LLM – Grands modèles de langage – 1ère partie     (Résumé)

Les grands modèles de langage (LLM) ont progressé grâce aux transformers, introduits en 2017.
Des modèles comme GPT, BERT et ELMO ont révolutionné le NLP, avec GPT-3 et ses 175 milliards de paramètres.
GPT-4 et d’autres modèles, comme PaLM et LLaMA, ont poursuivi cette évolution.

- LLM – Grands modèles de langage – 2ème partie    (Résumé)

Le Traitement Automatique du Langage Naturel (TALN) utilise des modèles d’intelligence artificielle, des RNN
aux Transformers, pour comprendre, traduire et générer du texte, avec des avancées comme le mécanisme d’attention
et des applications variées comme la traduction automatique et les chatbots.

- Attention au Transformer !                                              (Résumé)           (note)

Le Transformer, introduit en 2017, révolutionne le traitement du langage naturel grâce à l’auto-attention,
optimisant la compréhension du contexte et la génération de texte.

Document original "Attention is all you need".

- Gouvernance mondiale                                                     (Résumé)           (note)

L'IA Act européen encadre l'usage de l’intelligence artificielle en interdisant certains systèmes à risque, en imposant
des obligations de transparence et en cherchant un équilibre entre innovation et protection des droits fondamentaux.

- Conclusion                                                                               (Résumé)

L’IA Générale (AGI) représente une avancée majeure avec des opportunités et des risques,
mais son développement est freiné par des défis techniques, éthiques et sociétaux.

 

                                                                                                                                           

 

 

Archives