19 Février 2024 | Intelligences App

Garder le contrôle : La gouvernance des outils GenAI dans le milieu professionnel



- L'intelligence artificielle générative (GenAI) soulève de nouvelles questions de cybersécurité et de gouvernance.

- Le "shadow AI" fait référence à l'utilisation non autorisée de GenAI au sein des organisations, échappant aux politiques IT.

- 49% des employés ont déjà utilisé des outils GenAI comme ChatGPT pour des tâches professionnelles.

- Il est nécessaire que les équipes cybersécurité des secteurs public et privé établissent des garde-fous pour encadrer et sécuriser l'utilisation de GenAI.

- Des recommandations existent déjà au Royaume-Uni pour gérer le shadow IT et le shadow AI.



L'essor fulgurant des technologies d'intelligence artificielle générative, comme ChatGPT, DALL-E ou GitHub Copilot, soulève de nouveaux défis en matière de gouvernance et de cybersécurité des organisations.

De plus en plus d'employés utilisent ces outils GenAI pour améliorer leur productivité et faciliter certaines tâches, notamment la rédaction de contenus ou le développement logiciel. Selon une étude Salesforce, 49% des personnes interrogées ont déjà utilisé des technologies GenAI, et plus d'un tiers en font un usage quotidien.

Cependant, cette adoption massive échappe souvent aux politiques IT traditionnelles des entreprises. On parle alors de "shadow AI", pour désigner l'utilisation non autorisée d'outils d'IA générative, en dehors de tout cadre de gouvernance. Cela soulève des questions légitimes sur la confidentialité des données, la propriété intellectuelle, ou encore les biais algorithmiques.

Face à ces enjeux cruciaux, les RSSI et les équipes cybersécurité sont appelés à établir rapidement des "garde-fous" pour encadrer et sécuriser le recours aux technologies GenAI en entreprise. Certains pays, comme le Royaume-Uni, ont déjà publié des recommandations pour gérer le "shadow IT", qui incluent désormais le volet spécifique de l'IA générative.

L'enjeu est donc de trouver le juste équilibre entre l'innovation permise par ces outils prometteurs, et la maîtrise des risques associés. Les organisations doivent rapidement se doter de politiques claires en la matière, faute de quoi le "shadow AI" risque de se développer de manière incontrôlée.




Source : https://www.intelligences.top/actualites/i/7845175...



Dans la même rubrique :