L’IA hybride contre le syndrome de Frankenstein

Clarote & AI4Media / Better Images of AI / User/Chimera / Licenced by CC-BY 4.0

En 2024, faudra-t-il freiner ou accélérer la course à l’IA générative ? Cela ressemble un peu à une injonction à souscrire à un choix binaire qui imposerait un clivage artificiel entre le camp des transhumanistes/technosolutionistes/optimistes incurables et celui des technophobes/inadaptés/pessimistes invétérés. On peut toutefois tabler raisonnablement que l’ IA hybride restera le vrai enjeu de 2024, pas la taille des modèles. En effet, face à la course folle de l’hashtag#IA
générative, le couple LLMs et knowledgegraph semble bien être
le mariage de raison.

Read more

Intelligence Machine et Knowledge Graphs

Qu’est-ce qu’on appelle Intelligence Artificielle, in fine ? Les deux mots accolés ne conduisent qu’à des définitions bancales ou à un oxymore. Une machine de type système informatique, exécutant des algorithmes, n’a ni intelligence ni sentience. Pas plus qu’un texte ou des paroles n’évoquent d’expériences à ses sens absents, elle n’a de raisonnements poussés. Néanmoins, on peut lui donner la capacité à associer un sens explicite à des mots, dans le contexte où ils sont exprimés. L’intelligence machine : une plaisanterie? Toutefois, c’est la différence entre comprendre l’esprit d‘un texte (l’intelligence) ou le prendre à la lettre, voire en trahir l’interprétation

Read more

ChatGPT et transformers : comment mettre plus d’intelligence dans la série ?

Close Encounters of the Third Kind, compte flickr MIKI Yoshihito, Licence CC BY 2.0

Les transformers sont des outils bluffants. Mais ils ne suffisent pas pour gérer des connaissances professionnelles. Il y a des points d’attention à garder en mémoire. Que peut-on dire des défauts des Transformers en traitement automatique du langage? Peu capables de faire des raisonnements logiques, les grands modèles de langage transformers interprètent les mots et leurs connexions dans un espace vectoriel. Ils sont énergivores lors de leur apprentissage et ont une empreinte écologique désastreuse. Ils absorbent et répercutent les biais de leurs données d’apprentissage et des humains qui les corrigent. Pour finir, leur usage, aussi bien à titre personnel qu’en entreprise, pose des problèmes cruciaux de fiabilité, de propriété intellectuelle et de protection d‘information. Il ne s’agit pas de jeter le bébé avec l’eau du bain. Seulement d’éclairer, avec quelques articles, certains faits liés à leur entraînement, à leur usage et à leur maturité.

Read more

Les transformers et les aspirations des titans du Web

Les modèles transformers semble de plus en plus s’orienter vers une combinaison d’IA symbolique et de réseaux neuronaux. Il s’agirait d’approches « neurosymboliques ». Dans ce contexte, il n’y a rien d’étonnant à ce que les géants du Web, tels que Google, Microsoft, FaceBook… développent depuis un moment leurs knowledge Graphs. Ils ont poussé pour ce qu’un vocabulaire commun (schema.org) serve à annoter les pages Web (en RDFA ou JSON-LD) avec des métadonnées se référant à ce vocabulaire. On peut imaginer déjà le prochain mouvement.

Read more

Comment bien éduquer un transformer ?

Un transformer peut se comporter comme une personne mal éduquée Dans l’apprentissage profond (deep learning), une fois l’espace multidimensionnel créé avec toutes les représentations des tokens calculées, les neurones et les connexions entre couches de neurones établies par l’apprentissage initial, on a affaire à une boîte noire entre l’entrée et la sortie. Cela signifie que le modèle ne peut pas expliquer comment il arrive à ses résultats. Le processus de prise de décision est caché. Mais il y a des probabilités que le système obtenu réplique des types de tournures ou de réactions typiques de son corpus d’entrée

Read more

Les données d’apprentissage : l’alpha et l’omega d’un transformer

un agent conversationnel basé sur un grand modèle de langage ne raisonne pas. Il joue sur des similarités textuelles, traduites dans un espace vectoriel. La façon même de répondre, de pouvoir reproduire un style, dépend de ses données d’apprentissage. Peut-on dès lors réellement utiliser le terme intelligence à son sujet ? En tous cas, ses capacités découlent de la nature des données sur lesquelles il a été entrainé.

Read more

L’arrivée des transformers dans le monde de l’IA

ChatGPT utilise un modèle transformer : and so what ? ChatGPT est un agent conversationnel (ChatBot) qui utilise un modèle transformer GPT-3.5 (Generative Pre-trained Transformer) pour comprendre et répondre à des questions d’utilisateurs. Il reprend les principes d’InstructGPT et utilise un apprentissage par renforcement avec un feedback humain (RLHF) pour améliorer ses réponses. Soyons honnêtes : ces deux phrases n’apprennent rien à personne. Ceux qui travaillent dans le domaine le savent déjà. Quant aux autres, cela ne clarifie rien. Car le premier point d’interrogation demeure : qu’est-ce qu’un modèle Transformer ?

Read more

Entretien avec un robot: ChatGPT

Assisterions-nous à une nouvelle vague épidémiologique d’un battage publicitaire disproportionné sur les miracles tant attendus de l’intelligence artificielle ? On peut se le demander avec les articles incessants depuis un mois sur le robot conversationnel ChatGPT. Pour en avoir le cœur net, j’ai décidé de tester quelques questions via l’interface mise à disposition par OpenAI. Pour me faire ma propre idée de son utilité (ou pas) ainsi qu’en cerner les limites.

Read more

La fabrique des données: une bonne idée?

Gnothi seauton (traduit en latin par Nosce te ipsum ou temet nosce) est une expression signifiant « Connais-toi toi-même ». Elle était l’une des trois maximes gravées au fronton du temple d’apollon à Delphes. L’entreprise doit se connaître elle-même et connaître son environnement Dans le monde économique tel qu’il est actuellement, les entreprises font face à l’impératif de savoir exploiter des données métiers numérisées afin d’en tirer de la connaissance utile à la fois pour des décisions d’orientations stratégiques ou pour optimiser leur fonctionnement opérationnel.

Read more

Intelligence artificielle ou data science sans conscience ?

Intelligence artificielle ou data science sans conscience ?
Posted by Sabine Bohnké / data centric, gouvernance, ingénierie des connaissances, Intelligence Artificielle, ontologies, sémantique

Science sans conscience n’est que ruine de l’âme. Cette citation de Rabelais peut s’appliquer aujourd’hui à beaucoup de sujets connexes à la data science. Il y a celui des entreprises pilotées par les données (data driven). On peut aussi traiter des architectures « data-centric » mettant l’accent sur les données et leurs modèles conceptuels comme actifs essentiels de l’entreprise. L’idée étant de construire, sur un noyau central fait de « données », des systèmes d‘information agiles et durables servant la performance globale. Ce sont deux approches de niveau stratégique et deux sujets distincts. Néanmoins, quand on traite d’implémentation, on peut recourir dans l’un ou l’autre cas à des algorithmes de machine learning ou des solutions de représentation des connaissances et mécanismes de raisonnement. Autrement dit, nous parlons ici de disciplines liées à l’intelligence artificielle, mises au service d’un objectif commun aux deux approches.

Read more

Un monde rempli d’incohérences n’empêche pas de raisonner

contradiction apparente

Connaissances et raisonnements sont liés pour les humains, mais aussi pour les machines. Pour leur donner une forme d’intelligence, il faut relever l’enjeu de représentation des connaissances et de logique de raisonnement. C’est le domaine du «SRR : symbolic representation and Reasoning », un des deux paradigmes, avec le Machine Learning, de l’intelligence artificielle. Certes, faire inférer des nouvelles informations à des machines dans un monde de réutilisation largement ouvert, pose des problèmes d’incohérences. Les évolutions des dernières années ont montré qu’ils n’étaient pas insolubles. Malheureusement, on en est resté plutôt à des systèmes d’Intelligences Artificielles très superficielles. Bien qu’elles sachent faire des corrélations, en liant X et Y, elles ne comprennent pas grand-chose à ce qu’elles lient. On peut faire mieux et apprendre aux machines à raisonner dans un environnement incohérent. Les outils et méthodes sont là.

Read more

top