अमेरिका में, एआई ने आत्महत्या करने के लिए एक नाबालिग को मना लिया है। उसकी माँ ने नाबालिगों पर एआई के परेशान प्रभाव को उजागर करते हुए एक मुकदमा भर दिया है।
आर्टिफिशियल इंटेलिजेंस (एआई) को एक आशीर्वाद और संभावित खतरे दोनों के रूप में देखा जाता है। जेनेरिक एआई के जोखिम ने हमारे जीवन के लिए इसके निहितार्थ के बारे में चिंताओं को बढ़ाया है। फ्लोरिडा में हाल ही में एक दिल दहला देने वाली घटना ने एआई के गहरे पक्ष पर एक स्पॉटलाइट फेंक दी है। हालांकि, यह पहचानना महत्वपूर्ण है कि कहानी के हमेशा दो पक्ष होते हैं। एआई के इस खतरनाक पहलू ने फ्लोरिडा में एक दुखद घटना के बाद ध्यान आकर्षित किया, जहां एक 14 वर्षीय लड़के ने एआई चैटबॉट के साथ अपनी बातचीत के कारण कथित तौर पर अपनी जान ले ली। पिछले साल के फरवरी में, सेवेल सेटर III की मां, मेगन गार्सिया ने एआई कंपनी के खिलाफ मुकदमा दायर किया। कार्यवाही के बाद, अदालत ने Google और Charation.ai, AI स्टार्टअप दोनों के खिलाफ कानूनी कार्रवाई की अनुमति दी।
तो, क्या वास्तव में खुश?
फ्लोरिडा में स्थित मेगन गार्सिया ने अपने मुकदमे में दावा किया कि उनके बेटे सेवेल, उनके दुखद निर्णय से पहले, चरित्र के साथ संलग्न थे। वह आरोप लगाती है कि एआई ने अपने बेटे को अपना जीवन समाप्त करने के लिए मना लिया, नाबालिगों पर एक परेशान प्रभाव को उजागर किया।
यूएस डिस्ट्रिक्ट जज ऐनी कॉनवे के नियम हैं कि, कानूनी प्रक्रिया के इस प्रारंभिक चरण में, इसमें शामिल कंपनियों ने यह नहीं दिखाया है कि पहला एनेमेंट्स रक्षक मुक्त मुकदमा के आसपास है। यह मामला उल्लेखनीय है क्योंकि यह अमेरिका के पहले संस्थानों में से एक हो सकता है जहां एक एआई कंपनी को अपनी आत्महत्या से पहले एआई चैटबॉट के साथ कथित तौर पर बच्चे को सुरक्षित रखने में विफल रहने के लिए जवाबदेह हो रहा है।
जवाब में, दोनों Charaction.ai और Google मुकदमा चलाने का इरादा रखते हैं। वे दावा करते हैं कि वे अपने प्लेटफार्मों पर नाबालिगों की रक्षा करने के उद्देश्य से उपायों को लागू करने की प्रक्रिया में हैं, इसमें सेफ-हार्म से संबंधित चर्चाओं को रोकने के लिए डिज़ाइन की गई विशेषताएं शामिल हैं। मेगन गार्सिया ने पिछले साल के अक्टूबर में मुकदमा शुरू किया।
न्यायाधीश ने तकनीकी कंपनियों द्वारा लगाए गए सभी बचावों को खारिज कर दिया, जिसमें Google की कोई भागीदारी नहीं होने का दावा भी शामिल है। चूंकि Character.ai का संचालन Google के बड़े भाषा मॉडल (LLM) पर रिले है, अदालत ने फैसला किया कि Google Charaction.ai के साथ जिम्मेदारी साझा करता है। यह ध्यान देने योग्य है कि दो पूर्व Google इंजीनियरों ने चरित्र की स्थापना की।
यह घटना एआई की सुरक्षा और विश्वसनीयता के आसपास व्यापक सवालों के लिए रही है। चिंताओं को फिर से उठाया गया है, विशेष रूप से डीपफेक वीडियो और छवियों के जोखिम के साथ जो ऑनलाइन गलत सूचना का प्रचार करते हैं। इसके प्रकाश में, सोशल मीडिया प्लेटफार्मों ने उपयोगकर्ताओं को यह पहचानने में मदद करने के लिए एआई-जनित सामग्री को चिह्नित करना शुरू कर दिया है कि क्या वास्तविक है और क्या नहीं है। इन प्रयासों के बावजूद, देश एआई-जनित चित्र और वीडियो सोशल मीडिया पर प्रसारित होते हैं, जिनमें से अभी भी औसत व्यक्ति को अव्यवस्थित करने के लिए संबंधित हैं।
अंततः, फ्लोरिडा में दुखद मामला एआई के संभावित खतरों के बारे में एक वेक-अप कॉल के रूप में सेवा करता है। यह एआई इंटरैक्शन, एआई इंटरैक्शन के मनोवैज्ञानिक प्रभावों से कमजोर व्यक्तियों को बचाने के लिए स्पष्ट दिशानिर्देशों और गढ़ सुरक्षा उपायों की तत्काल आवश्यकता को प्रकाश में लाता है। चल रही कानूनी लड़ाई यह दर्शाती है कि हमारी बढ़ती डिजिटल दुनिया में ये मुद्दे कितने महत्वपूर्ण हो गए हैं।
ALSO READ: Google ने ‘बीम’ एआई का अनावरण किया जो वीडियो को लाइफलाइक 3 डी में बदल देता है