आरोग्य सेवेमध्ये भारत कृत्रिम बुद्धिमत्तेवर वेगाने पुढे जात आहे. काही म्हणतील खूप जलद. आयुष्मान भारत डिजिटल मिशनने आरोग्य आयडी, रेकॉर्ड आणि रुग्णांच्या डेटाशी जोडणारा देशव्यापी डिजिटल कणा तयार केला आहे. तो एक मोठा बदल आहे. या प्रणालीमध्ये, AI आधीच निदान साधने, लक्षणे तपासक आणि रुग्ण ॲप्समध्ये त्याचे स्थान शोधत आहे.
त्याची उपस्थिती आता दैनंदिन निर्णयांमध्ये दिसून येते, लोक लक्षणे कशी पाहतात ते त्या माहितीवर कसे कार्य करतात. त्यासाठी यंत्रणा सज्ज आहे की नाही हे अस्पष्ट राहिले आहे.
सुरक्षेशिवाय गती
AI-आधारित वैद्यकीय साधनांवर नियंत्रण ठेवणारी कोणतीही समर्पित नियामक फ्रेमवर्क भारतात नाही. डिजिटल वैयक्तिक डेटा संरक्षण कायदा सामान्य अर्थाने डेटा अधिकारांबद्दल बोलतो, परंतु जेव्हा एखाद्या मोठ्या भाषेच्या मॉडेलने आरोग्याच्या प्रश्नाला योग्य-ध्वनी देणारे परंतु वैद्यकीयदृष्ट्या चुकीचे उत्तर तयार केले तेव्हा काय होते हे ते संबोधित करत नाही.
वैद्यकीय उपकरणांवर देखरेख करणाऱ्या सेंट्रल ड्रग्ज स्टँडर्ड कंट्रोल ऑर्गनायझेशनने (CDSCO) AI निदानांना त्यांच्या कक्षेत मान्यता देण्यास सुरुवात केली आहे. परंतु जमिनीवर अंमलबजावणी असमान आहे, आणि ही साधने किती वेगाने वापरली जात आहेत हे मार्गदर्शक तत्त्वे अजूनही पकडत आहेत.
एआय चॅटबॉटच्या सल्ल्यानुसार स्वतःला एचआयव्ही पोस्ट-एक्सपोजर प्रोफिलॅक्सिस औषधे दिल्यानंतर नवी दिल्लीतील एका 45 वर्षीय व्यक्तीला अलीकडेच गंभीर अवस्थेत रुग्णालयात दाखल करण्यात आले.
त्याने स्टीव्हन्स-जॉन्सन सिंड्रोम विकसित केला, एक गंभीर आणि संभाव्य घातक औषध प्रतिक्रिया ज्यामध्ये वेदनादायक पुरळ, फोड येणे आणि त्वचा सोलणे द्वारे चिन्हांकित होते. त्याने काउंटरवर 28 दिवसांचा पूर्ण कोर्स खरेदी केला होता आणि उच्च जोखमीच्या लैंगिक चकमकीनंतर तो सात दिवसांसाठी घेतला होता. घटना काही विसंगती नाही. हे एक पूर्वावलोकन आहे.
रुग्णाला भेडसावणाऱ्या AI ची क्लिनिकल समस्या अशी आहे की चॅटबॉटला रुग्णाचे वय, कॉमोरबिडीटी किंवा औषधांचा इतिहास स्पष्टपणे सांगितल्याशिवाय कळत नाही. तरीही, ते त्या माहितीचे वजन एखाद्या प्रशिक्षित चिकित्सकाच्या पद्धतीने करू शकत नाही. ते रुग्णाची तपासणी करू शकत नाही. चित्र अस्पष्ट असताना ते चाचण्या मागवू शकत नाही. एकाकीपणात सौम्य आणि एकत्रितपणे धोकादायक अशा लक्षणांमधील फरक ते ध्वजांकित करू शकत नाही.
वर्ल्ड हेल्थ ऑर्गनायझेशन (WHO) ने स्पष्टपणे नोंदवले आहे की AI ला प्रशिक्षित करण्यासाठी वापरलेला डेटा पक्षपाती असू शकतो, दिशाभूल करणारी किंवा चुकीची माहिती निर्माण करतो ज्यामुळे आरोग्य, समानता आणि सर्वसमावेशकतेला धोका निर्माण होतो.
मोठ्या भाषेचे मॉडेल असे प्रतिसाद निर्माण करतात जे अंतिम वापरकर्त्यासाठी अधिकृत आणि प्रशंसनीय दिसतात, जरी ते प्रतिसाद पूर्णपणे चुकीचे असले तरीही, WHO ने सावध केले आहे.
ऑक्सफर्ड इंटरनेट इन्स्टिट्यूट आणि नफिल्ड डिपार्टमेंट ऑफ प्राइमरी केअर हेल्थ सायन्सेसच्या संशोधकांच्या नेतृत्वाखाली नेचर मेडिसिनमध्ये प्रकाशित केलेल्या अभ्यासात असे आढळून आले आहे की एआय चॅटबॉट्स बऱ्याचदा चांगल्या आणि वाईट माहितीचे मिश्रण प्रदान करतात जे वापरकर्ते विश्वसनीयरित्या ओळखू शकत नाहीत.
ही साधने आता प्रमाणित वैद्यकीय ज्ञान चाचण्यांवर चांगली कामगिरी करत असताना, वास्तविक-जागतिक निदान सहाय्य म्हणून त्यांचा वापर वास्तविक लक्षणांसाठी मदत शोधणाऱ्या लोकांसाठी मोजता येण्याजोगा धोके निर्माण करतो.
नोव्हेंबर 2025 मध्ये प्रकाशित झालेल्या BMJ जर्नल ऑफ मेडिकल एथिक्समधील ब्लॉग आणखी एका चिंतेकडे लक्ष वेधतो. एआय-व्युत्पन्न आरोग्य सारांश आता शोध परिणामांमध्ये डीफॉल्टनुसार दिसतात आणि बर्याच बाबतीत ते विश्वसनीय नसतात. ब्लॉग नोंदवतो की अशा प्रणाली 48 टक्के प्रकरणांमध्ये चुकीचे प्रतिसाद देऊ शकतात. त्याच वेळी, ते पीअर-पुनरावलोकन केलेल्या स्त्रोतांवरील रहदारी 40 ते 60 टक्क्यांनी कमी करतात, याचा अर्थ सत्यापित वैद्यकीय माहितीपर्यंत कमी लोक पोहोचतात.
हे कसे चालते याची उदाहरणे आधीच आहेत. एका प्रकरणात, प्रमुख शोध इंजिनच्या AI ने प्रमाणित मौखिक स्वच्छतेच्या सल्ल्यासोबत अप्रमाणित दंत पद्धतींची शिफारस केली आहे. वापरकर्त्यासाठी, काय चाचणी केली जात नाही ते वेगळे करणे थोडेच आहे.
भारतातील डेटा रिॲलिटी ही समस्या आणि आश्वासन दोन्ही आहे
एआय प्रशिक्षण डेटासाठी भारत एक विशिष्ट आव्हान सादर करतो. देशाच्या रोगाचे ओझे विषम आहे. ग्रामीण तमिळनाडूमधील एक आणि शहरी पंजाबमधील एक मधुमेहाचा रुग्ण वेगळ्या प्रकारे उपस्थित असतो, वेगळे खातो आणि वेगवेगळ्या काळजी घेतो.
जागतिक स्तरावर क्लिनिकल वापरातील बहुतेक एआय मॉडेल्सना डेटावर प्रशिक्षित केले गेले जे ही विविधता दर्शवत नाही. याचा परिणाम असा होतो की मॉडेल पूर्णपणे भिन्न लोकसंख्येसाठी कॅलिब्रेट केलेल्या शिफारशी तयार करू शकतात आणि रुग्णांना किंवा प्रदात्याला हे कधीच कळू शकत नाही.
तथापि, हे देखील आहे जेथे भारताचे प्रमाण एक मालमत्ता बनते. या देशभरात व्युत्पन्न केलेला आरोग्य डेटाचा व्हॉल्यूम आणि विविधता, जर नैतिकतेने आणि संमतीने संकलित केली गेली तर, जगभरातील कमी सेवा नसलेल्या लोकसंख्येसाठी AI खरोखर अधिक अचूक बनवू शकेल अशा पायाचे प्रतिनिधित्व करते.
भारत-विशिष्ट मॉडेल्स तयार करणाऱ्या स्टार्टअप्सनी हे ओळखण्यास सुरुवात केली आहे, जरी भारत-विशिष्ट प्रमाणीकरण मानकांच्या अनुपस्थितीचा अर्थ असा कोणताही सामान्य बेंचमार्क नाही ज्याच्या विरूद्ध या दाव्यांची चाचणी केली जाऊ शकते.
यापैकी काहीही वैद्यकशास्त्रातील AI विरुद्ध युक्तिवाद नाही. क्लिनिकल समर्थन साधन म्हणून वापरले जाते, त्याचे वास्तविक मूल्य आहे. ज्या डॉक्टरांना त्याची मर्यादा समजते ते औषधांच्या परस्परसंवादांना ध्वजांकित करण्यासाठी, इमेजिंग पॅटर्नचे पुनरावलोकन करण्यासाठी किंवा दस्तऐवजीकरण व्यवस्थापित करण्यासाठी AI वापरू शकतात.
प्रशिक्षित क्लिनिशियनच्या हातात एक साधन म्हणून AI आणि ज्यांना कदाचित त्यांना काय माहित नाही अशा रूग्णांसाठी फर्स्ट-ओपिनियन सेवा म्हणून AI यामधील फरक महत्त्वाचा आहे.
पुढील काही वर्षांमध्ये भारताने घेतलेल्या निवडी हे कसे घडते ते आकार देईल. नियामक फ्रेमवर्क काही मूलभूत गोष्टींवर स्पष्ट असणे आवश्यक आहे. एआय टूल्स रूग्णांपर्यंत पोहोचण्यापूर्वी त्यांची योग्यरित्या चाचणी केली पाहिजे. आरोग्य डेटा कसा वापरला जातो आणि लोकांनी संमती दिली आहे की नाही यावर ठोस नियम असणे आवश्यक आहे. आणि जेव्हा AI-नेतृत्वाखालील वैद्यकीय मार्गदर्शनामुळे नुकसान होते तेव्हा जबाबदारी असली पाहिजे.
हे केवळ तंत्रज्ञ आणि गुंतवणूकदारांद्वारे डिझाइन केले जाऊ शकत नाही. डॉक्टर, नैतिकतावादी आणि रुग्णांच्या गटांनी सुरुवातीपासूनच या निर्णयांचा भाग असणे आवश्यक आहे.
भारतीय डिजिटल आरोग्याची पायाभूत सुविधा विलक्षण आहे. त्याला आता अधिक गतीची गरज नाही. त्यावर जे बांधले जात आहे त्याचे वजन धरून ठेवू शकेल असा पाया आवश्यक आहे.
(डॉ. सबीन कापसी या एनीरा कन्सल्टिंग प्रायव्हेट लिमिटेडच्या सीईओ आहेत, रोपान हेल्थकेअरच्या संस्थापक आणि निपुण वैद मेहता, एनीरा कन्सल्टिंग प्रायव्हेट लिमिटेडचे सल्लागार आहेत)
या लेखात व्यक्त केलेली मते लेखकाची आहेत आणि Buzz ची मते किंवा दृश्ये प्रतिबिंबित करण्याचा हेतू नाही.