20 février 2023 / by Sabine Bohnké / ingénierie des connaissances, Intelligence Artificielle, Processus de décision / 0 comments
Un transformer peut se comporter comme une personne mal éduquée Dans l’apprentissage profond (deep learning), une fois l’espace multidimensionnel créé avec toutes les représentations des tokens calculées, les neurones et les connexions entre couches de neurones établies par l’apprentissage initial, on a affaire à une boîte noire entre l’entrée et la sortie. Cela signifie que le modèle ne peut pas expliquer comment il arrive à ses résultats. Le processus de prise de décision est caché. Mais il y a des probabilités que le système obtenu réplique des types de tournures ou de réactions typiques de son corpus d’entrée
Read more
Le blues de l’IA
25 juillet 2025 / by semsimo / Intelligence Artificielle, KnowledgeGraph, Transformation numérique / 0 comments
En juillet, on m’a beaucoup évoqué le côté bluffant des IAs génératives (LLMs). La terminologie me semble en effet adéquate : du bluff. L’intelligence artificielle générative est un artifice de simulation de pensées. Et au-delà du bluff, les conséquences des engouements et usages actuels me donnent un peu le blues. Cet article met des paroles sur cette musique.
Read more
L’IA hybride contre le syndrome de Frankenstein
27 décembre 2023 / by semsimo / ingénierie des connaissances, Intelligence Artificielle, KnowledgeGraph / 0 comments
En 2024, faudra-t-il freiner ou accélérer la course à l’IA générative ? Cela ressemble un peu à une injonction à souscrire à un choix binaire qui imposerait un clivage artificiel entre le camp des transhumanistes/technosolutionistes/optimistes incurables et celui des technophobes/inadaptés/pessimistes invétérés. On peut toutefois tabler raisonnablement que l’ IA hybride restera le vrai enjeu de 2024, pas la taille des modèles. En effet, face à la course folle de l’hashtag#IA
générative, le couple LLMs et knowledgegraph semble bien être
le mariage de raison.
Read more
Comment bien éduquer un transformer ?
20 février 2023 / by Sabine Bohnké / ingénierie des connaissances, Intelligence Artificielle, Processus de décision / 0 comments
Un transformer peut se comporter comme une personne mal éduquée Dans l’apprentissage profond (deep learning), une fois l’espace multidimensionnel créé avec toutes les représentations des tokens calculées, les neurones et les connexions entre couches de neurones établies par l’apprentissage initial, on a affaire à une boîte noire entre l’entrée et la sortie. Cela signifie que le modèle ne peut pas expliquer comment il arrive à ses résultats. Le processus de prise de décision est caché. Mais il y a des probabilités que le système obtenu réplique des types de tournures ou de réactions typiques de son corpus d’entrée
Read more