Les actualités du Freelance

Cybersécurité et intelligence artificielle : quels enjeux pour l’année 2024 ?

Publié le 02/02/2024
Cybersécurité et intelligence artificielle : quels enjeux pour l’année 2024 ?

Avec l’avènement de l’intelligence artificielle, les responsables de la sécurité des systèmes d’information (DSI) et les experts en cybersécurité s’interrogent sur les risques que font peser les modèles de langages de grande taille (LLM) sur la sécurité des SI. En effet, ces technologies peuvent être utilisées pour générer des codes malveillants, tels que des virus, des vers ou des chevaux de Troie.

LLM : de trop grandes restrictions pour devenir des menaces

Les experts en cybersécurité pourront se rassurer sur un point : les principaux modèles d’intelligence artificielle générative ne sont pas encore capables de fournir aux utilisateurs mal intentionnés des lignes de code fonctionnelles.

ImportantEn effet, les outils comme ChatGPT (OpenAI) ou Bard (Google) sont soumis à de nombreuses restrictions, ce qui les empêche de répondre aux sollicitations qui dépassent le cadre légal.

Les dirigeants d’entreprise doivent néanmoins mesurer l’importance stratégique de la cybersécurité pour 2024 et après. Non seulement ils devront mettre en place des services opérationnels, mais en plus ils ont intérêt à définir une véritable politique de protection qui anticipera les menaces futures.

Bien que cette technologie n’en soit encore qu’à ses balbutiements, l’intelligence artificielle a déjà enregistré d’immenses avancées. Il ne sera donc pas étonnant de voir les hackers s’approprier ce nouvel outil à la puissance méconnue.

Les AIOps pour améliorer l’efficacité du système d’information de l’entreprise

L’AIOps (Artificial Intelligence for IT Operations) est un ensemble d’outils basés sur le Big data et l’apprentissage automatique (machine learning) pour automatiser de nombreux services informatiques. Cela passe également par la détection des risques.

À ce stade, un AIOps pourrait même détecter les menaces avant que celles-ci n’atteignent les services vulnérables d’un système d’information.

ImportantSi l’IA ne représente pas encore un véritable risque pour les infrastructures, les LLM pourraient en revanche faciliter les attaques ciblant les utilisateurs, comme l’hameçonnage. En effet, avec les bons prompts, les e-mails peu crédibles et autrefois remplis de fautes pourraient ainsi devenir plus convaincants.

De plus, avec les générateurs d’images comme Midjourney, il sera plus simple de concevoir un courrier de meilleure qualité pour atteindre un plus grand nombre de victimes.

Une formation continue à l’attention des non-spécialistes est donc indispensable pour rendre la politique de protection aussi efficace que possible. Et depuis quelque temps, il existe également le vishing qui permet de cloner la voix d’une personne.

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !
Laissez un commentaire
Votre adresse email ne sera pas publiée