Le lien inhérent entre la cybersécurité et l'IA

RFA I 11:50 am, 17th April

Le monde de la technologie continue d'évoluer à un rythme sans précédent. 2023 a été témoin d'une quantité massive de commentaires concernant l'outil d'intelligence artificielle LLM (grand modèle de langage) Chat GPT après son lancement en novembre 2022. Le potentiel de Chat GPT est énorme et le logiciel s'est avéré capable d'un travail créatif complexe. Le mois dernier, Microsoft a annoncé son intention d'apporter Copilot, un outil d'IA à Outlook, Word, Excel et PowerPoint, signalant un changement profond dans la façon dont des millions de personnes effectueront leur travail au quotidien. Cependant, comme pour de nombreux développements technologiques, il reste un côté obscur à son développement et à sa mise en œuvre : la sécurité des données et la confidentialité des informations. L'adoption de l'IA est un enjeu de cybersécurité. 


2022 a été une année mouvementée pour les cyberattaques, l'Agence de l'Union européenne pour la cybersécurité décrivant la période comme volatile en raison du paysage géopolitique. Cela était en partie dû à la cyberguerre et aux pirates informatiques profitant d'un climat vulnérable. Selon la nouvelle publication Entrepreneur, 2022 a été l'année où les e-mails de phishing générés par l'IA ont connu des taux d'ouverture élevés par rapport à ceux qui avaient été créés manuellement. Cette augmentation de l'hacktivisme a alimenté la croissance du marché des produits de sécurité basés sur l'IA. L'année dernière, CNBC a publié la statistique suivante : "le marché mondial des produits de cybersécurité basés sur l'IA devrait atteindre 133,8 milliards de dollars d'ici 2030, contre 14,9 milliards de dollars en 2021". 


Le problème avec les e-mails de phishing générés par l'IA est que trop souvent, ils sont générés au sein d'une entreprise demandant l'accès à une partie restreinte d'un serveur ou le transfert de fonds. Avec les progrès de la capacité de l'IA, le niveau de sophistication de ces e-mails a explosé. Un employé peut recevoir un e-mail direct de son responsable avec une demande urgente qu'il doit examiner. L'e-mail peut indiquer le fuseau horaire réel et l'emplacement du responsable, de sorte qu'il semble être réel, même dans un environnement hybride. Pendant que vous lisez l'e-mail, vous recevez un appel de votre responsable qui vous explique qu'il souhaite parler en premier pour s'assurer que vous avez reçu la demande par e-mail. La voix au téléphone semble familière et réitère la demande expliquée dans l'e-mail. La qualité des fausses voix et des e-mails créés par l'IA s'est tellement améliorée qu'il est désormais encore plus difficile de déchiffrer ce qui pourrait être créé par des criminels utilisant l'IA. Les pirates utilisent l'IA pour donner à leurs attaques une apparence authentique et authentique. La réalité est que de nombreuses organisations seront confrontées au défi de surmonter les menaces de cybersécurité liées à l'IA qui mettent leurs activités et leurs actifs en danger. 


Malgré ces risques, il y a un revers de la médaille. Les entreprises peuvent utiliser des outils basés sur l'intelligence artificielle et l'apprentissage automatique pour les aider à lutter contre des attaques telles que RFA le fait maintenant depuis plus de 5 ans pour aider à la prévention proactive dans notre cyber arsenal pour nos clients et nos propres systèmes. Un élément clé de la gestion de ce risque sera de décrire les vulnérabilités potentielles de l'entreprise et où l'IA peut être appliquée. Cependant, dans le paysage actuel, il est essentiel que les entreprises investissent dans une stratégie de cybersécurité aussi sophistiquée que les cybercriminels qui lancent les attaques. La stratégie nécessite une évaluation continue et constante par le biais de politiques de gouvernance et de risque et les entreprises devraient également envisager d'investir dans la collaboration avec des experts en cybersécurité spécialisés dans les solutions axées sur l'IA. 


Écrit par George Ralph, Directeur chez RFA


Subscribe to our Newsletters

Stay up to date with our latest news

more news

load more

There are no any top news
Info Message: By continuing to use the site, you agree to the use of cookies. Privacy Policy Accept