टेक्नोलॉजी

Google ने सुरक्षा चिंताओं के बाद AI अवलोकन से चयनित चिकित्सा सलाह वापस ले ली है

Google ने सुरक्षा चिंताओं के बाद AI अवलोकन से चयनित चिकित्सा सलाह वापस ले ली है

विशेषज्ञों द्वारा “खतरनाक” अशुद्धियों की चेतावनी के बाद Google ने अपने AI अवलोकन से लीवर स्वास्थ्य संबंधी भ्रामक सलाह को हटा दिया है। अपडेट के बारे में और जानें और इसके बजाय आपको डॉक्टर से परामर्श क्यों लेना चाहिए।

नई दिल्ली:

भ्रामक जानकारी और गलत चिकित्सा सलाह प्रदान करने की रिपोर्ट सामने आने के बाद Google ने अपने AI अवलोकन फीचर से कई खोज परिणामों को चुपचाप हटा दिया है। विशेष रूप से, टेक दिग्गज ने लीवर रोग और लीवर फ़ंक्शन परीक्षणों से संबंधित गलत मार्गदर्शन को खत्म करने के लिए कार्रवाई की है, जिससे यह सुनिश्चित हो सके कि उपयोगकर्ता अब इन संवेदनशील प्रश्नों के लिए एआई-जनरेटेड सारांश नहीं देख पाएंगे।

Google चुपचाप गलत स्वास्थ्य सारांश हटा देता है

एंड्रॉइड अथॉरिटी की एक रिपोर्ट और द गार्जियन की एक जांच के अनुसार, शिकायतों की एक लहर के बाद Google ने अपने AI अवलोकन से कुछ चिकित्सा जानकारी हटा दी। जबकि स्वास्थ्य संबंधी जानकारी मानक Google खोज के माध्यम से सुलभ रहती है, विशिष्ट यकृत-संबंधी वाक्यांशों के लिए AI-जनित सारांश अक्षम कर दिए गए हैं।

यह ध्यान देने योग्य है कि Google ने तेज़, अधिक संक्षिप्त उत्तर प्रदान करने के लिए पिछले साल अपने खोज इंजन में AI अवलोकन को एकीकृत किया था। हालाँकि, स्वास्थ्य संबंधी डेटा के उच्च जोखिम के कारण चिकित्सा सलाह को स्वचालित करने का कदम विवादास्पद साबित हुआ है।

चिकित्सा परिणामों को गुमराह करने का ख़तरा

जब कोई उपयोगकर्ता Google में कोई क्वेरी दर्ज करता है, तो AI अवलोकन आमतौर पर प्रासंगिक वेबसाइटों के लिंक के साथ एक सारांशित प्रतिक्रिया उत्पन्न करता है। हालाँकि, द गार्जियन ने हाल ही में इनमें से कुछ चिकित्सा परिणामों को “बेहद संवेदनशील और खतरनाक” बताया है।

एक प्राथमिक उदाहरण में लिवर फंक्शन टेस्ट (एलएफटी) शामिल है। एआई-जनरेटेड सारांश गलत संदर्भ श्रेणियां प्रदान करते हैं जो महत्वपूर्ण जैविक कारकों को ध्यान में रखने में विफल रहे जैसे:

  • आयु और लिंग
  • जातीयता और राष्ट्रीयता
  • विशिष्ट लैब पद्धतियाँ

विशेषज्ञों ने “डॉ गूगल” एआई के ख़िलाफ़ चेतावनी दी है

चिकित्सा विशेषज्ञों ने इन एआई-जनित परिणामों को खतरनाक करार दिया है, चेतावनी दी है कि वे गलत आश्वासन दे सकते हैं। गलत सारांश गंभीर जिगर की स्थिति वाले व्यक्तियों को यह विश्वास दिला सकता है कि वे स्वस्थ हैं, जिससे उन्हें आवश्यक चिकित्सा परामर्श या जीवन रक्षक उपचार से वंचित होना पड़ सकता है।

इन निष्कर्षों के जवाब में, Google के एक प्रवक्ता ने कहा कि कंपनी अपनी नीतियों में सुधार करने और अपने AI मॉडल की सटीकता को परिष्कृत करने के लिए लगातार प्रयास कर रही है। इन निष्कासनों के बावजूद, कई अन्य चिकित्सा सलाह एआई अवलोकनों में दिखाई देती रहती हैं।

Leave a Reply

Your email address will not be published. Required fields are marked *

Link Copied!