Cet article est le premier d’une série que je compte publier sur les bonnes pratiques en matière de développement d’ontologie et de mise en œuvre de Knowledge Graph. Je commencerai donc par le commencement, des articles sur ce qui est au cœur des knowledge graphs, les ontologies, et dans l’ingénierie de ces dernières, la conception.
Une ontologie informatique est la formalisation, en axiomes logiques, de la connaissance d’experts d’un domaine. Sa mise en forme poursuit un but précis : mettre en relation des faits pour permettre leur interrogation, leur classification et la déduction de nouveaux savoirs par les machines. Ceci, dans un contexte d’interrogation de la connaissance consubstantiel à la modélisation choisie. En effet, l’ontologie résulte de choix de modélisation justifiés par l’usage et la réalité.
L'ancrage dans le réel : Au-delà de la spéculation
Si le résultat ne permet pas de répondre aux questions qui ont présidées à sa création, l’ontologie est insatisfaisante.
L’ontologie n’est pas une construction purement spéculative : elle est ancrée dans le réel, qu’il soit tangible ou socio-organisationnel. L’ontologie ne crée pas les objets d’un domaine de connaissance. Elle les décrit, les explicite dans leurs caractéristiques propres avec les axiomes nécessaires, voire suffisants, et établit des relations entre eux. La validité de l’ontologie peut être éprouvée empiriquement. On peut vérifier si la classification proposée correspond effectivement aux distinctions réelles du domaine étudié.
Dans tous les cas, l’ontologie représente un domaine de connaissance partagé par une communauté : experts métier, chercheurs ou agents logiciels. Que l’on traite d’entités tangibles ou d’abstractions, les objets décrits dans une ontologie sont toujours ancrés dans une existence réelle. Les termes utilisés ne sont pas arbitraires ; ils signifient quelque chose pour cette communauté, et cette signification existe en dehors du système formel lui-même. Qu’il s’agisse d’objets physiques, d’objets sociaux (comme défini dans DOLCE Ultralite : « tout objet qui n’existe que dans le cadre d’un événement de communication… »), d’objets informationnels, de concepts ou d’entités géospatiales et temporelles, tous relèvent d’un domaine de discours.
L'échec des approches purement techniques
Certaines entreprises ont considéré l’approche ontologique comme contraignante et inutile après avoir essayé de créer et utiliser des ontologies s’étant révélées insatisfaisantes. En réalité, les ontologies incriminées ont souvent été insatisfaisantes pour des raisons tout à fait logiques.
Il ne faut pas blâmer la difficulté de traduire une norme, une taxonomie, une classification existante ou un schéma relationnel. Le problème réside dans la volonté d’opérer une traduction automatique d’un vocabulaire vers un modèle, ou d’un schéma relationnel vers un autre paradigme, alors que l’on opère à une couche d’abstraction supérieure.
De même, il ne faut pas blâmer la difficulté de la classification, mais la confusion entre ontologie et classification arbitraire. L’écueil de la sur-spécification ou de la sous-spécification existe aussi dans les ontologies : il convient de spécifier uniquement ce qui est nécessaire à l’usage, c’est-à-dire les objets qui ont du sens pour cet usage et qui correspondent à une réalité du domaine.
Ontologie et pragmatisme philosophique
Ce n’est pas plus le manque d’information qu’il faut blâmer, c’est le fait d’avoir voulu interroger des informations dont on ne pouvait disposer en pratique, dans la réalité.
Or l’ontologie est une représentation à la fois partielle et partiale du monde. Elle est partielle car on ne modélise qu’un domaine maîtrisé, une infime partie de la réalité. Elle est partiale car les choix de modélisation reflètent toujours l’arbitrage dicté par l’usage recherché. Mais c’est la réalité qu’on représente, celle justement qu’on veut et peut interroger, parce qu’on dispose d’informations et de règles logiques pour exprimer leurs liens.
Donc modéliser une ontologie aujourd’hui dans les systèmes d’information, ce n’est pas philosopher sur le monde, c’est prendre effectivement de la hauteur sur un aspect du monde, avec pragmatisme.
Le réalisme ontologique : une garantie d’interopérabilité
Le livre blanc Best Practices of Ontology Development du CUBRC, (parmi les co-auteurs, Barry Smith, co-créateur de BFO) rappelait déjà en 2016 la nécessité du réalisme ontologique. « Pour maximiser à la fois l’utilité et la stabilité, le processus de modélisation du développement d’ontologie devrait s’appuyer sur […] le ‘réalisme ontologique’, ce qui revient à l’idée qu’une ontologie devrait être analogue non pas à un modèle de données, mais plutôt à un modèle de la réalité. Sous cette contrainte, les ontologies sont des représentations non pas des données à intégrer, mais plutôt des entités auxquelles ces données se réfèrent ».
Par ailleurs, en comprenant ce principe de réalité ontologique, on comprend aussi pourquoi les ontologies sont une garantie d’interopérabilité dans les systèmes d’information complexes. Ainsi que l’explique le document cité « les sources de données sont des descriptions du monde mais elles ajoutent une couche de perspective afin de répondre aux besoins spécifiques de leurs utilisateurs. Les ontologies réalistes permettent l’intégration des données à l’échelle de l’entreprise en supprimant cette couche de perspective de chacune des différentes sources de données impliquées et arrivent ainsi à une représentation du domaine qui peut servir de référence pour leur intégration ».
Il n’est pas anodin de se référer au premier article de Tom Gruber (1993) sur le partage de connaissances, intitulé « « A translation approach to Portable Ontology Specification Cet article décrit un mécanisme permettant de définir des ontologies portables d’un système de représentation à l’autre. L’idée majeure est de pouvoir échanger entre systèmes différents, non plus seulement des données, mais le sens auquel elles sont attachées.
Perspective 2026 : Entre silos de données et Agentic IA
Nous sommes en 2026. Depuis la publication des deux documents cités, nous avons bien sûr connu la vague de l’IA générative et des LLM, portée par l’utopie que cette technologie seule pourrait tout résoudre. Pourtant, le principe de réalité et le pragmatisme nous ramènent à un constat : les entreprises souffrent toujours autant de silos de données, avec les multiples conséquences négatives souvent citées (voir par exemple ces trois articles: data dynamics, techtarget, bizdata) .
Est-ce que la solution du futur est l’IA agentique ? Pour le moment, rien n’est moins sûr. Nourrir des IA génératives avec des données de mauvaise qualité ou des documents dépourvus de contexte ne fera qu’accélérer la production de mauvais résultats, sans pour autant améliorer l’intégration de ces données. Surtout si les agents ne font pas référence aux mêmes réalités (physiques ou institutionnelles) et ne partagent pas une certaine expérience commune du monde dans lequel ils sont censés opérer.
Pour corriger cela, l’IA neuro symbolique, avec les ontologies, offre des pistes. Mais cela ne permet toujours pas de s’abstraire de questions fondamentales. Pourquoi faire? Pour quel usage? Pour quelle création de valeur? Pour qui? Ni de faire l’impasse sur des questions de modélisation réelles et pertinentes.
Ce pourquoi le prochain article traitera des questions de compétences, pierre angulaire de la conception dans le processus de développement des ontologies. Puis, j’aborderai l’alignement avec des ontologies de haut niveau (TLO), l’architecture multi-tier (TLO, MLO, Core) et la modularisation, afin de compléter cette première partie sur la conception.