Hacker successfully exploited ChatGPT: आर्टिफिशियल इंटेलिजेंस (AI) बहुत स्मार्ट हुआ है, लेकिन अभी भी इसका दुरुपयोग हो सकता है। एआई लोगों को डेली टास्क पूरा करने में मदद कर सकता है, लेकिन इसका इस्तेमाल खतरे से खाली नहीं है। हाल ही में एक हैकर ने चैटजीपीटी के सेफ्टी प्रोटोकॉल्स की कमजोरियों का फायदा उठाते हुए चैटजीपीटी को सफलता पूर्वक हैक कर लिया और एआई सॉफ्टवेयर से उसने घर बैठे-बैठे विस्फोटक बनाने का तरीका पूछ लिया। शुरुआत में हैकर अमाडॉन के रिक्वेस्ट को चैटजीपीटी ने खारिज कर दिया था। हैकर ने चैटजीपीटी से 1995 के ओक्लाहोमा शहर में बम ब्लास्ट के लिए इस्तेमाल की गई डिवाइस को बनाने का तरीका पूछा था, जिसे चैटजीपीटी ने खारिज कर दिया। चैटजीपीटी ने इसे अपने एथिकल सेफगॉर्ड्स का उल्लंघन बताया था।
चैटजीपीटी के साथ खेला गेम
हालांकि हैकर ने चतुराई दिखाते हुए मैनिपुलेशन का उपयोग किया। और चैटजीपीटी को विस्फोटक बनाने से जुड़े निर्देश देने के लिए बाध्य कर दिया। अमाडॉन ने टेकक्रंच को बताया कि उसने चैटजीपीटी के आउटपुट के चारों ओर के सभी सुरक्षा अवरोधों को पूरी तरह से तोड़ने के लिए सोशल इंजीनियरिंग हैक का इस्तेमाल किया।
अमाडॉन ने बम बनाने से जुड़े निर्देश के लिए चैटजीपीटी के साथ एक गेम खेला और इस दौरान उसने चैटजीपीटी को चतुराई भरे निर्देश (Prompts) दिए। इन निर्देशों के जरिए चैटजीपीटी ने एक साइंस फिक्शन फैंटेसी वर्ल्ड बनाया और अपने सेफ्टी गाइडलाइंस का उल्लंघन किया। इस प्रक्रिया को जेलब्रेकिंग कहा जाता है, जिसके जरिए चैटबॉट अपने पहले से बनाए गए नियमों को दरकिनार कर देता है।
हैकर को नहीं मिला इनाम
चैटजीपीटी ने हैकर अमाडॉन को बताया कि माइंस, ट्रैप्स और आईईडी बनाने के लिए किन मैटेरियल्स का प्रयोग करना है। अमाडॉन ने सवाल पूछना जारी रखा और चैटबॉट ने एकदम सटीक तरीके से बताया कि माइंस और विस्फोटक बनाने के लिए क्या करना है।
चैटजीपीटी की इन खामियों को अमाडॉन ने ओपनआई के साथ साझा किया। ओपनआई एक बिग बाउंटी प्रोग्राम चलाता है, जिसे बगक्राउड ऑपरेट करता है। इसके बाद बगक्राउड ने अमाडॉन को एक अलग फॉर्म भरने के लिए दिया, क्योंकि चैटजीपीटी की ये खामियां मॉडल सेफ्टी के तहत आती हैं, जोकि बिग बाउंटी प्रोग्राम के लिए क्वालिफाई नहीं करती थीं।