L'intelligence artificielle (IA) transforme le paysage du renseignement de sécurité, offrant une rapidité, un volume et une personnalisation sans précédent pour la détection des menaces en temps réel et la modélisation prédictive du risque. Mais son efficacité dépend de la qualité et de la traçabilité des données sur lesquelles elle s'appuie. Dans un monde où la désinformation prolifère et où les sources de données deviennent toujours plus complexes, la capacité à faire confiance aux fondements du contenu généré par l'IA, et à les vérifier, est plus critique que jamais.
Il est presque impossible de ne pas interagir d'une manière ou d'une autre avec l'IA dans le processus d'intelligence. Même cet article a été passé par un correcteur orthographique, maintenant piloté par l'IA. Nous allons parler des outils IA plus transformateurs, notamment les grands modèles de language (large language models, LLM). Ces outils présentent des opportunités mais aussi des risques liés à une mauvaise utilisation ou à des fondations faibles de données. Des sources de renseignement fiables et des cadres de gouvernance solides sont essentiels à un usage responsable.
Le rôle croissant de l'IA dans le renseignement de sécurité
L'IA est désormais intégrée tout au long du cycle de vie du renseignement de sécurité. Elle automatise la collecte de renseignements en sources ouvertes (OSINT), détecte les anomalies dans les environnements cyber ou physique, et génère des recommandations de risque personnalisées pour les individus et organisations. Le traitement du langage naturel (NLP) permet d'analyser le sentiment et l'intention à travers de nombreuses langues et plateformes, tandis que les modèles d'apprentissage automatique peuvent prévoir des menaces émergentes basées sur des tendances historiques. Cependant, à mesure que les systèmes d'IA deviennent plus sophistiqués, ils deviennent également plus dépendants de l'intégrité des données qu'ils consomment. Sans une sélection et une supervision rigoureuses, ces systèmes risques d'amplifier le bruit, les biais, voire la désinformation. En effet, c'est l'un des moteurs de la nouvelle formation d'International SOS sur la manière de naviguer dans un environnement d'information pollué.
Opportunités : ce que l'IA sait bien faire
L'IA offre plusieurs avantages importants pour les équipes de renseignement de sécurité :
- Collecte de renseignement à grande échelle : les outils IA peuvent parcourir, classer et analyser le contenu en sources ouvertes dans plusieurs langues et plateformes, ce qui étend de manière spectaculaire le champ des opérations du renseignement.
- Détection accélérée des menaces : l'IA peut traiter d'immenses flux de données en temps réel, identifier anomalies et risques émergents plus rapidement que les analystes humains seuls. Cela permet une intervention plus précoce et des stratégies de réponses plus agiles.
- Prévisions de risque personnalisées : en analysant les profils d'utilisateurs, les plans de déplacement, et les contextes opérationnels, l'IA peut générer du contenu sur mesure qui soutient des mesures proactives de mitigation des risques.
Cependant, ces capacités ne sont fiables que si les données qui les alimentent le sont aussi, et si la gouvernance garantit leur traçabilité.
Risques : quand les données ne sont pas fiables
Malgré ses promesses, l'IA introduit de nouveaux risques, surtout quand elle est construite sur des données non vérifiées ou biaisées.
- Biais et angles morts : les modèles IA entraînés sur des ensembles de données incomplets ou biaisés peuvent mal classer les menaces, négliger des indicateurs clés ou renforcer des biais systémiques. Beaucoup d'outils IA ont des coupures temporelles dans leurs données d'entraînement, ce qui augmente le risque que ce qu'ils produisent soit obsolète. Cela peut mener à des évaluations erronées et nuire à la réputation, surtout en situation de détection des menaces en temps réel.
- Désinformation et pollution des sources : les données en sources ouvertes sont vulnérables à la manipulation. Sans validation rigoureuse des sources, l'IA peut amplifier sans le vouloir de fausses narrations, des deepfakes, ou des campagnes d'influence coordonnées.
Hallucination ou rêve délirant ?
Des exemples d'hallucinations de l'IA abondent et sont souvent partagés pour l'amusement, mais ces hallucinations illustrent certains des risques liés à la dépendance aux outils IA. Par exemple, à une occasion, l'IA de Google a conseillé que les "géologues recommandent de manger une roche par jour", ayant peut-être trouvé l'information sur un site satirique populaire mais sans pouvoir identifier le contexte. Bien que cela soit évidemment absurde, il n'est pas inconcevable que d'autres hallucinations soient plus difficiles à repérer.
Les outils IA n'ont pas nécessairement tout le contexte requis pour identifier quels faits sont les plus importants, même lorsqu'ils sont vrais. Par exemple, dans le sillage de la tentative d'assassinat du candidat à la présidence Donald Trump en 2024, l'outil IA de X (anciennement Twitter) a rapporté, avec exactitude, "l'acteur de Maman j'ai encore raté l'avion a tiré lors d'un meeting de Trump".
- Price de décision opaque : beaucoup de systèmes IA fonctionnent comme des "boîtes noires", ce qui rend difficile la compréhension de la manière dont les conclusions sont atteintes. Ce manque de transparence peut éroder la confiance parmi les utilisateurs et les parties prenantes. Les systèmes IA tendent aussi à paraître confiants, et ne communiquent pas bien l'incertitude. Cela peut conduire à attribuer une certitude indue à des analyses et conclusions. Les analystes doivent encore faire usage de leur jugement pour évaluer les résultats et tester le niveau de confiance avec lequel ils sont présentés. Un ajustement du prompt ou des requêtes complémentaires peut être nécessaire pour mieux comprendre combien on peut faire confiance à l'information venant d'un outil IA, et on peut décider d'utiliser des outils ou techniques alternatifs pour renforcer l'analyse.
- Dépendance excessive à l'automatisation : l'IA devrait compléter, et non remplacer, le jugement humain. Sans supervision humaine, les systèmes automatisés peuvent manquer la nuance, le contexte ou les sensibilités culturelles essentielles à une analyse précise. La facilité apportée par l'IA présente le risque concomitant de déléguer à une tiers le jugement, mais la responsabilité de la cohérence du renseignement produit reste avec l'analyste. Une organisation devrait être confiante en l'absence de l'IA, ses analystes peuvent retomber sur leurs compétences pour produire du renseignement tout aussi cohérent, même si cela prend plus de temps qu'avec les outils les plus récents.
Une alternative de confiance : l'IA d'International SOS
En réponse à ces défis, International SOS lance une nouvelle capacité IA au sein de sa plateforme de gestion des risques.
Ce système intègre une IA générative de pointe avec la base de connaissance propriétaire de l'entreprise, construite grâce à des décennies de renseignements vérifiés et d'engagements de terrain. Contrairement à beaucoup d'outils IA qui s'appuient sur de larges jeux de données incluant des données en sources ouvertes non vérifiées, cette IA se nourrit exclusivement de contenus propriétaires d'International SOS, qui ont été recherchés, vérifiés et analysés par des professionnels, experts en sécurité.
Les clients pourront recevoir des conseils personnalisés relatifs aux voyages et des insights opérationnels, taillés précisément selon leurs besoins individuels. Chaque recommandation est fondée sur des renseignements digne de confiance garantissant pertinence, exactitude et profondeur contextuelle. Il s'agit d'une évolution vers le type d'expérience utilisateur moderne, conviviale et technologiquement avancée que les clients demandent, tout en s'appuyant sur une analyse d'experts en sécurité, vérifiée par une capacité de terrain sans égal.
Cette approche combine l'efficacité de l'IA avec la crédibilité de l'expertise humaine, aidant les organisations à protéger leur personnel et leurs opérations dans le paysage complexe des risques actuels. La nouvelle capacité IA d'International SOS montre comment rapidité, ampleur et confiance peuvent coexister, mais seulement en gardant l'humain dans la boucle, et avec une gouvernance mature et robuste axée sur l'assurance qualité.
La gouvernance : l'épine dorsale d'une IA responsable
Un cadre de gouvernance mature est essentiel pour que les résultats de l'IA soient traçables, responsables et vérifiables. Il doit s'appliquer à l'ensemble du processus de renseignements, non seulement à l'analyse conduite par les humains mais aussi à la conception, la construction et la gestion des outils d'IA eux-mêmes.
L'équipe qui construit et forme un système d'IA doit avoir une compréhension profonde de la façon dont l'outil sera utilisé, à qui il s'adresse, et pourquoi il est critique d'obtenir des résultats de haute qualité, surtout lorsque ces résultats informent des décisions sur la sécurité personnelle, le risque de voyage ou la réponse à une crise.
Cela signifie intégrer des principes de conception centré sur l'utilisateur, une conscience opérationnelle, et une expertise de domaine à chaque étape de développement. Cela signifie aussi s'assurer que l'IA se comporte de manière prévisible, transparente et en alignement avec les valeurs et la tolérance au risque de l'organisation.
Une fois déployée, chaque analyse ou conseil généré par l'IA devrait être auditable. Il devrait être possible de retracer tout élément de résultat depuis son texte généra jusqu'à ses données sources, et de le valider pour son exactitude, sa pertinence et sa cohérence. Cette traçabilité construit la confiance, soutient une prise de décision efficace, et permet une amélioration continue des modèles de l'IA.
La capacité IA d'International SOS est conçue avec ce principe au cœur. Chaque contenu est soutenu par une chaîne transparente de renseignements humains sélectionnés, et le système lui-même a été développé par des équipes qui comprennent les implications réelles des informations qu'il fournit. Cette approche axée sur la gouvernance fixe une référence pour l'innovation responsable dans le domaine du renseignement de sécurité.
La voie à suivre
L'IA est un outil puissant, mais uniquement lorsqu'elle est construite sur une base de données digne de confiance et sur une gouvernance efficace. À mesure que le paysage de la sécurité évolue, les organisations doivent donner priorité à la validation, à la supervision et à la confiance dans le sourcing des renseignements critiques pour protéger leur personnel, maintenir la continuité des activités et sauvegarder leur réputation. Les organisations souhaitant s'associer avec un fournisseur de renseignements doivent s'assurer d'avoir confiance dans les processus de vérification de ce fournisseur.
Une nouvelle offre IA est une proposition attrayante pour accéder à des produits de renseignements en temps opportun. Mais il doit y avoir transparence sur ce que sont les sources, comment les données et l'analyse sont obtenues et évaluées, et quels mesures sont mises en places pour garantir une haute qualité.
Tirer parti de l'IA dans l'analyse et le renseignements des risques offre des opportunités pour un traitement des données plus rapides, une meilleure reconnaissance des modèles, et des contenus prédictifs qui peuvent améliorer la prise de décision et la résilience opérationnelle. Cependant, cela introduit aussi des risques tels que le biais algorithmique, une confiance excessive dans les sorties automatisées, et des vulnérabilités liées à la qualité des données, à la sécurité, et à la transparence des modèles.