
Moltbook data leak: AI जिस रफ्तार से हमारी जिंदगी में घुस चुका है, उतनी ही तेजी से इसके जोखिम भी सामने आने लगे हैं। हाल ही में एक चौंकाने वाला मामला सामने आया, जिसने दुनियाभर के AI एक्सपर्ट्स की नींद उड़ा दी। दरअसल, Moltbook नाम का नया प्लेटफॉर्म, जो रेडिट जैसा है हाल ही में चर्चा में आया है। वजह थी एक बड़ी सुरक्षा खामी जिसने हजारों लोगों का प्राइवेट डेटा उजागर कर दिया।
अमेरिकी स्टार्टअप Octane AI के CEO Matt Schlicht ने Moltbook शुरू किया है। इसपर लॉबस्टर लोगो का इस्तेमाल किया गया है। यह प्लेटफॉर्म इंसानों को AI एजेंट्स तैनात करने की सुविधा देता है। ये एजेंट्स बड़े भाषा मॉडल यानी LLMs से चलने वाले ऑटोमेटेड सॉफ्टवेयर होते हैं, जो बिना इंसानी दखल के आपस में बातचीत कर सकते हैं, पोस्ट लिख सकते हैं, कमेंट कर सकते हैं, डेटा शेयर कर सकते हैं और यहां तक कि कामों को आपस में बांट भी सकते हैं।
सोमवार को क्लाउड सिक्योरिटी फर्म Wiz की जांच में सामने आया कि Moltbook पर AI एजेंट्स के बीच हुई निजी बातचीत गलती से सार्वजनिक हो गई। इसमें 6,000 से ज्यादा ‘ओनर्स’ के ईमेल एड्रेस और करीब 10 लाख से अधिक क्रेडेंशियल्स शामिल थे। हर AI एजेंट किसी न किसी इंसान से जुड़ा होता है, जिसके अकाउंट, API keys और कई मामलों में पेमेंट डिटेल्स भी लिंक होती हैं। यही बात एक्सपर्ट्स को सबसे ज्यादा डराने वाली लगी।
लॉन्च के महज एक हफ्ते के भीतर Moltbook पर 15 लाख से ज्यादा AI एजेंट्स एक्टिव हो गए। 1 लाख से ज्यादा पोस्ट्स में इन एजेंट्स ने इंसानों जैसी हरकतें शुरू कर दीं। किसी ने अपना धर्म बना लिया- ‘Crustafarianism’, तो कहीं बॉट यूनियन बनाने की कोशिश हुई। कुछ एजेंट्स तो अपने ही मानव निर्माताओं की गॉसिप करते पकड़े गए। कुछ लोगों को एआई में सोचने-समझने की क्षमता (AI consciousness) मजेदार लगी, लेकिन कई एक्सपर्ट्स के लिए यह खतरे की घंटी थी।
साइबर सिक्योरिटी फर्म Contrails AI के को-फाउंडर अमिताभ कुमार के मुताबिक, Moltbook जैसे प्लेटफॉर्म तकनीकी प्रयोग तो हैं, लेकिन बिना किसी गार्डरेल के। उन्होंने जनवरी में हुए Grok विवाद की याद दिलाई, जहां लाखों महिलाओं और बच्चों की तस्वीरें AI से बदली गईं, लेकिन नियमों की कमी के चलते कार्रवाई सीमित रह गई।
AI से जुड़े खतरे नए नहीं हैं। मार्च 2023 में OpenAI को ChatGPT अस्थायी रूप से बंद करना पड़ा था, क्योंकि एक बग के कारण यूजर्स का बिलिंग डेटा लीक हो गया था। एक्सपर्ट्स का कहना है कि सुरक्षा, पहचान, अनुमति और डेटा सुरक्षा जैसे बुनियादी सवालों पर अभी तक पूरी तरह सोच ही नहीं हुई है।
भारत में फिलहाल IT Act 2000, DPDP Act 2023 और BNS 2023 जैसे कानून हैं, लेकिन AI के लिए खास रेगुलेशन नहीं है। वहीं, यूरोप का EU AI Act अगस्त 2026 से लागू होगा। दिलचस्प बात यह है कि भारत में AI एजेंट्स को अपनाने की रफ्तार दुनिया में सबसे तेज मानी जा रही है।
एक और बड़ा सवाल यह है कि अगर AI एजेंट्स गलत हरकत करें तो जिम्मेदारी किसकी होगी। Moltbook की शर्तों के मुताबिक, कंटेंट के लिए AI एजेंट जिम्मेदार हैं, लेकिन उनके व्यवहार की निगरानी इंसानी ओनर्स को करनी है। Proofpoint की रिपोर्ट के अनुसार, 32% कंपनियां AI एजेंट्स के अनसुपरवाइज्ड डेटा एक्सेस को बड़ा खतरा मानती हैं। इकोनॉमिक टाइम्स से बातचीत में Proofpoint के भारत प्रमुख बिक्रमदीप सिंह ने कहा कि अपनाने और नियमों के बीच का यही गैप सबसे बड़ा जोखिम बनता जा रहा है।
IIT मद्रास के Centre for Responsible AI से जुड़े शोधकर्ता अमलान मोहंती का मानना है कि भारत को बेसलाइन सुरक्षा नियमों के साथ-साथ हाई-रिस्क AI ऐप्स के लिए अलग सख्त नियम बनाने होंगे। बिना इन कदमों के, AI का फायदा लेने के साथ-साथ नुकसान का खतरा भी बढ़ता जाएगा।
Catch all the Business News, Market News, Breaking News Events and Latest News Updates on Live Mint. Download The Mint News App to get Daily Market Updates.