जेनरेटिव AI (जेनेएआई) इस साल साइबर सुरक्षा के लिए सबसे बड़ा खतरा बन गया है. साइबर अपराधी अपने हमलों को और पुख्ता बनाने के लिए चैटजीपीटी और जेमिनी AI मॉडल अपना रहे हैं. लार्ज लैंग्वेज मॉडल (एलएलएम) हैकिंग क्षेत्र में एक नए व्यवधान की शुरुआत मात्र हैं. सुरक्षा बढ़ाने के लिए भी ली जा रही ChatGPT गार्टनर के वरिष्ठ निदेशक विश्लेषक रिचर्ड एडिसकोट के अनुसार, यह समझना महत्वपूर्ण है कि यह जेनएआई के विकास की शुरुआत है, सुरक्षा संचालन और एप्लिकेशन सुरक्षा में हमने जो कई डेमो देखे हैं, वे वास्तविक उम्मीद जगाते हैं. सिक्योरिटी के क्षेत्र में काम करने वाली प्रमुख कंपनियां जेनएआई प्रबंधन को एक नई चुनौती के रूप में स्वीकार कर रही हैं. साथ ही यह परिचालन स्तर पर सुरक्षा बढ़ाने के लिए अपनी क्षमताओं का उपयोग करने का अवसर भी प्रदान करता है. कई संस्थान ने जेनरेटिव AI पर लगाई रोक पिछले महीने आई एक रिपोर्ट के अनुसार, चार में से एक से अधिक संगठनों ने गोपनीयता और डेटा सुरक्षा जोखिमों को लेकर जेनएआई के उपयोग पर रोक लगा दिया है. 'सिस्को 2024 डेटा प्राइवेसी बेंचमार्क स्टडी' के अनुसार, अधिकांश कंपनियां डेटा गोपनीयता और सुरक्षा मुद्दों पर जेनरेटिव एआई (जेनएआई) के उपयोग को सीमित कर रही हैं और 27 प्रतिशत ने कम से कम अस्थायी रूप से इसके उपयोग पर प्रतिबंध लगा दिया है. शीर्ष चिंताओं में, व्यवसायों ने संगठन के कानूनी और बौद्धिक संपदा अधिकारों (69 प्रतिशत) के खतरों और जनता या प्रतिस्पर्धियों के सामने जानकारी के प्रकटीकरण के जोखिम (Risks of Disclosure ) (68 प्रतिशत) का हवाला दिया है.