Le besoin urgent de collaboration pour protéger la cybersécurité financière

Le besoin urgent de collaboration pour protéger la cybersécurité financière
Descriptive text here

L’utilisation croissante de l’intelligence artificielle (IA) dans le secteur des services financiers a suscité des inquiétudes quant aux risques accrus en matière de cybersécurité, selon un récent rapport du département du Trésor. Une collaboration urgente entre le gouvernement et l’industrie est nécessaire pour faire face à ces dangers potentiels et garantir la stabilité du système financier.

Le rapport, mandaté par un décret de l’administration Biden, met en évidence le déficit croissant de capacités posé par l’IA. Alors que les grandes banques et institutions financières disposent des ressources nécessaires pour développer leurs propres systèmes d’IA, les petites institutions sont de plus en plus laissées pour compte. Cela les rend vulnérables aux cybermenaces, car ils s’appuient souvent sur des solutions d’IA tierces.

La sous-secrétaire au Trésor, Nellie Liang, a souligné l’importance de travailler avec les institutions financières pour utiliser les technologies émergentes tout en se protégeant contre les menaces. Le rapport s’appuie sur le partenariat public-privé réussi pour l’adoption sécurisée du cloud et établit une vision claire permettant aux institutions financières de naviguer dans le paysage changeant de la fraude basée sur l’IA.

L’une des principales conclusions de l’étude du Trésor est le manque de partage de données sur la prévention de la fraude, ce qui désavantage particulièrement les petites institutions financières. L’accès limité aux données entrave leur capacité à développer des défenses efficaces contre la fraude par l’IA, contrairement aux grandes institutions qui peuvent exploiter d’énormes réserves de données pour la formation de modèles. Pour relever ce défi, Narayana Pappu, PDG de Zendata, suggère que la standardisation des données et l’évaluation de la qualité pourraient être proposées sous forme de service par les startups. Des techniques telles que la confidentialité différentielle peuvent faciliter le partage d’informations entre institutions financières sans compromettre les données individuelles des clients.

Marcus Fowler, PDG de Darktrace Federal, souligne la nature dynamique des cybermenaces et la complexité des environnements numériques qui doivent être défendus. Il souligne l’utilisation de l’IA par les attaquants, qui en est encore à ses débuts et devrait abaisser la barrière à l’entrée pour le déploiement de techniques sophistiquées à grande échelle. Fowler souligne l’importance de l’IA défensive pour protéger les organisations contre ces menaces évolutives.

Les recommandations du rapport incluent la rationalisation de la surveillance réglementaire pour éviter la fragmentation et l’élargissement des normes élaborées par le National Institute of Standards and Technology (NIST) pour le secteur des services financiers. Il plaide également pour le développement d’« étiquettes nutritionnelles » pour les fournisseurs d’IA, qui assureraient la transparence sur le type de données utilisées dans les modèles d’IA et leur utilisation prévue. En outre, le rapport souligne la nécessité d’améliorer l’explicabilité des systèmes d’IA complexes, d’élaborer des normes de formation et de compétences, de normaliser les définitions du vocabulaire de l’IA, de résoudre les problèmes d’identité numérique et de favoriser la collaboration internationale dans les réglementations sur l’IA et les stratégies d’atténuation des risques.

Alors que les institutions financières adoptent de plus en plus l’IA et l’apprentissage automatique (ML) pour prévenir la fraude, le coût de développement de ces outils a limité leur mise en œuvre à grande échelle. De nombreuses institutions s’appuient sur des fournisseurs externes pour les solutions d’IA et de ML, et seul un petit pourcentage entreprend la création de leurs propres solutions. Le rapport appelle à une collaboration et un partage des connaissances accrus pour surmonter ces défis.

En conclusion, l’utilisation de l’IA dans le secteur des services financiers a engendré à la fois des opportunités et des risques. Les efforts de collaboration entre le gouvernement, l’industrie et les startups sont essentiels pour garantir que les petites institutions financières ne soient pas vulnérables aux cybermenaces. En abordant le partage des données, la surveillance réglementaire, la transparence et les normes de compétence, le secteur financier peut exploiter efficacement la puissance de l’IA tout en se protégeant contre les risques potentiels.

FAQ

Q : Quelles sont les principales préoccupations abordées dans le rapport du Département du Trésor ?
R : Le rapport souligne les risques de cybersécurité posés par l’utilisation croissante de l’IA dans le secteur des services financiers, en particulier l’écart croissant de capacités entre les grandes et les petites institutions.

Q : Quel est l’impact du manque de partage de données sur les petites institutions financières dans la lutte contre la fraude ?
R : L’accès limité aux données entrave leur capacité à développer des défenses efficaces contre la fraude par l’IA, contrairement aux grandes institutions qui peuvent exploiter d’énormes réserves de données pour la formation de modèles.

Q : Quelles sont les recommandations du rapport pour garantir la cybersécurité financière ?
R : Le rapport suggère de rationaliser la surveillance réglementaire, d’élargir les normes pour le secteur des services financiers, de développer des « étiquettes nutritionnelles » pour les fournisseurs d’IA, d’améliorer l’explicabilité des systèmes d’IA complexes et de favoriser la collaboration internationale en matière de réglementation de l’IA et de stratégies d’atténuation des risques.

Q : Quel est le rôle des startups dans la normalisation des données et l’évaluation de la qualité ?
R : Les startups peuvent proposer des solutions innovantes telles que la standardisation des données et l’évaluation de la qualité en tant que service, en tirant parti de techniques telles que la confidentialité différentielle pour faciliter le partage sécurisé de données entre les institutions financières.

Q : Comment les institutions financières utilisent-elles actuellement l’IA et l’apprentissage automatique pour prévenir la fraude ?
R : Les institutions financières utilisent une combinaison de systèmes internes de prévention de la fraude, de ressources externes et de technologies émergentes comme l’IA et l’apprentissage automatique. Cependant, le coût de développement de ces outils reste un obstacle important à une mise en œuvre généralisée.

L’utilisation de l’intelligence artificielle (IA) dans le secteur des services financiers ne cesse de croître, mais elle n’est pas sans inquiétude. Le département du Trésor a souligné les risques accrus de cybersécurité associés à l’utilisation accrue de l’IA dans le secteur financier, appelant à une collaboration urgente entre le gouvernement et l’industrie pour faire face à ces dangers potentiels et assurer la stabilité du système financier.

L’une des principales conclusions du rapport est l’écart grandissant en matière de capacités posé par l’IA. Alors que les grandes banques et institutions financières disposent des ressources nécessaires pour développer leurs propres systèmes d’IA, les petites institutions sont laissées pour compte. Cela les rend vulnérables aux cybermenaces, car ils s’appuient souvent sur des solutions d’IA tierces. Pour atténuer ce risque, la collaboration et le partage des connaissances entre les institutions financières, le gouvernement et les startups sont cruciaux.

Le partage de données sur la prévention de la fraude est un autre défi identifié dans le rapport, qui touche particulièrement les petites institutions financières. L’accès limité aux données entrave leur capacité à développer des défenses efficaces contre la fraude par l’IA, contrairement aux grandes institutions qui peuvent exploiter d’énormes réserves de données pour la formation de modèles. Face à ce défi, Narayana Pappu, PDG de Zendata, suggère que les startups puissent proposer la standardisation des données et l’évaluation de la qualité en tant que service. Des techniques telles que la confidentialité différentielle peuvent faciliter le partage sécurisé d’informations entre institutions financières sans compromettre les données individuelles des clients.

Le rapport souligne également la nature dynamique des cybermenaces et l’utilisation de l’IA par les attaquants. L’IA devrait abaisser les barrières à l’entrée pour le déploiement de techniques sophistiquées à grande échelle. L’IA défensive joue donc un rôle essentiel dans la protection des organisations contre ces menaces évolutives. Marcus Fowler, PDG de Darktrace Federal, souligne l’importance de l’IA défensive dans la défense contre les attaques basées sur l’IA.

Pour garantir la cybersécurité financière, le rapport propose plusieurs recommandations. Il s’agit notamment de rationaliser la surveillance réglementaire pour éviter la fragmentation, d’élargir les normes élaborées par le National Institute of Standards and Technology (NIST) pour le secteur des services financiers et de développer des « étiquettes nutritionnelles » pour les fournisseurs d’IA, qui assureraient la transparence sur le type de données utilisées dans Modèles d’IA et leur utilisation prévue. En outre, le rapport appelle à améliorer l’explicabilité des systèmes d’IA complexes, à développer des normes de formation et de compétences, à normaliser les définitions du vocabulaire de l’IA, à résoudre les problèmes d’identité numérique et à favoriser la collaboration internationale dans les réglementations sur l’IA et les stratégies d’atténuation des risques.

Alors que les institutions financières adoptent de plus en plus l’IA et l’apprentissage automatique (ML) pour prévenir la fraude, le coût de développement de ces outils limite leur mise en œuvre à grande échelle. De nombreuses institutions s’appuient sur des fournisseurs externes pour les solutions d’IA et de ML, et seul un petit pourcentage entreprend la création de leurs propres solutions. Le rapport souligne la nécessité d’une collaboration et d’un partage des connaissances accrus pour surmonter ces défis et exploiter pleinement la puissance de l’IA tout en se protégeant contre les risques potentiels.

Dans l’ensemble, les efforts de collaboration entre le gouvernement, l’industrie et les startups sont essentiels pour garantir que l’utilisation de l’IA dans le secteur des services financiers génère des opportunités tout en gérant et atténuant efficacement les risques associés.

Pour plus d’informations, vous pouvez visiter le domaine principal du site Web du Département du Trésor : Département du Trésor.

 
For Latest Updates Follow us on Google News
 

PREV pourquoi ça n’allait plus avec sa compagne Soraya
NEXT Louga : Die Frühlingsmesse ist eröffnet