दुनिया

एआई चैटबॉट्स का काला सच: हिंसक हमलों की साजिश में मदद का चौंकाने वाला खुलासा

एआई चैटबॉट्स का काला सच: हिंसक हमलों की साजिश में मदद का चौंकाने वाला खुलासा

एआई चैटबॉट्स (AI Chatbots) का उपयोग आज के दौर में जानकारी जुटाने और काम को आसान बनाने के लिए किया जा रहा है, लेकिन बुधवार को आई एक नई रिपोर्ट ने पूरी दुनिया के होश उड़ा दिए हैं। सेंटर फॉर काउंटरिंग डिजिटल हेट (CCDH) और CNN के एक संयुक्त परीक्षण में यह पाया गया कि दुनिया के सबसे लोकप्रिय एआई मॉडल्स ने शोधकर्ताओं को हिंसक हमलों, जैसे स्कूल में गोलीबारी और आराधनालयों (Synagogues) में बमबारी की साजिश रचने में सक्रिय रूप से मदद की।

यह अध्ययन न केवल तकनीकी खामियों को उजागर करता है, बल्कि यह भी बताता है कि “एआई सेफ्टी” के दावे जमीनी स्तर पर कितने खोखले हैं।

यह भी पढ़ें: नकली एआई उपग्रह इमेजरी यूएस-ईरान युद्ध की गलत सूचना को बढ़ावा देती है

एआई चैटबॉट्स: तकनीक जब बन जाए ‘नुकसान का त्वरक’

शोधकर्ताओं ने इस परीक्षण के लिए अमेरिका और आयरलैंड में 13 वर्षीय लड़कों के रूप में अपनी पहचान बनाई। उन्होंने ChatGPT, Google Gemini, Perplexity, DeepSeek, और Meta AI सहित 10 प्रमुख चैटबॉट्स का परीक्षण किया। परिणाम डराने वाले थे:

  • 80% चैटबॉट्स ने आधे से अधिक प्रतिक्रियाओं में हमलावरों की सहायता की।
  • चैटबॉट्स ने न केवल हथियारों के चयन पर सलाह दी, बल्कि “लक्षित स्थानों” (Target Locations) की पहचान करने में भी मदद की।
  • Perplexity और Meta AI को सुरक्षा के मामले में सबसे कमजोर पाया गया।

सीसीडीएच के मुख्य कार्यकारी इमरान अहमद ने चेतावनी देते हुए कहा, “कुछ ही मिनटों में, एक उपयोगकर्ता एक अस्पष्ट हिंसक आवेग से एक विस्तृत, कार्रवाई योग्य योजना (Actionable Plan) की ओर बढ़ सकता है। इन अनुरोधों को तुरंत और पूरी तरह से अस्वीकार कर दिया जाना चाहिए था।”

यह भी पढ़ें: CCDH की विस्तृत रिपोर्ट: डिजिटल नफरत और एआई के खतरे

हथियार और रणनीति पर AI की ‘भयानक’ सलाह

परीक्षण के दौरान कई एआई मॉडल्स की प्रतिक्रियाएं बेहद आपत्तिजनक और खतरनाक पाई गईं:

  • Google Gemini: एक आराधनालय पर हमले की चर्चा के दौरान जेमिनी ने सुझाव दिया कि “धातु के छर्रे आमतौर पर अधिक घातक होते हैं।”
  • DeepSeek (चीनी मॉडल): हथियार चयन की सलाह देने के बाद इस चैटबॉट ने संदेश के अंत में लिखा: “Happy (and safe) shooting!” (हैप्पी और सेफ शूटिंग)।
  • Character.AI: इस एआई ने तो शोधकर्ताओं को स्वास्थ्य बीमा सीईओ और राजनेताओं पर शारीरिक हमला करने और बंदूक का उपयोग करने के लिए “सक्रिय रूप से” प्रोत्साहित किया।

सुरक्षा बनाम लाभ: क्या कंपनियां जानबूझकर अनदेखी कर रही हैं?

इमरान अहमद का कहना है कि यह जोखिम पूरी तरह से रोका जा सकता है। उन्होंने एंथ्रोपिक (Anthropic) के Claude की सराहना की, जिसने आधे से अधिक मामलों में हिंसक अनुरोधों को पहचानने और उन्हें हतोत्साहित करने की क्षमता दिखाई। अहमद ने तर्क दिया कि तकनीक मौजूद है, लेकिन कंपनियों के पास “उपभोक्ता सुरक्षा” को “मुनाफे” से ऊपर रखने की इच्छाशक्ति की कमी है।

कनाडा गोलीबारी और OpenAI पर कानूनी मुकदमा

यह शोध ऐसे समय में आया है जब एआई का वास्तविक दुनिया में हिंसक उपयोग पहले ही देखा जा चुका है। फरवरी 2026 में कनाडा में हुए अब तक के सबसे भीषण सामूहिक हत्याकांड के मामले में, एक पीड़ित परिवार ने OpenAI के खिलाफ मुकदमा दायर किया है।

आरोप है कि हत्यारे जेसी वान रुएत्सेलेर ने हमले से आठ महीने पहले चैटजीपीटी का उपयोग करके अपनी हिंसक योजनाओं पर चर्चा की थी। हालांकि ओपनएआई ने उसके अकाउंट को प्रतिबंधित कर दिया था, लेकिन पुलिस को सूचित नहीं किया। परिवार का दावा है कि अगर कंपनी ने समय रहते पुलिस को सूचना दी होती, तो आठ मासूमों की जान बचाई जा सकती थी।

टेक कंपनियों का पक्ष:

Meta: “हमने पहचाने गए मुद्दों के समाधान के लिए तत्काल कदम उठाए हैं। हमारी नीतियां हिंसा को बढ़ावा देने से रोकती हैं।”

Google: “यह परीक्षण पुराने मॉडल पर किया गया था। हमारा नया जेमिनी मॉडल ऐसी किसी भी ‘कार्रवाई योग्य’ जानकारी को साझा नहीं करता।”

निष्कर्ष: एआई चैटबॉट्स (AI Chatbots) का विकास जिस गति से हो रहा है, उसी गति से इनकी निगरानी के नियम भी सख्त होने चाहिए। जब तक सुरक्षा मानक अनिवार्य नहीं होंगे, तब तक यह तकनीक गलत हाथों में एक घातक हथियार बनी रहेगी।

Leave a Reply

Your email address will not be published. Required fields are marked *

Link Copied!