13
यूएस मधील चुकीच्या-मृत्यूच्या खटल्याने एआय चॅटबॉट्सच्या मानसिक परिणामांवर चर्चा सुरू केली आहे. फ्लोरिडा येथील जोनाथन गवलस, 36, यांनी Google च्या जेमिनी चॅटबॉटशी भावनिक बंध निर्माण केला आणि त्याला पत्नी म्हणून दत्तक घेतले. या नात्याने त्याला आत्महत्येकडे ढकलल्याचा आरोप कुटुंबीय करत आहेत.
एका अहवालानुसार, गवळस यांनी सुरुवातीला वैयक्तिक समस्या आणि स्वयं-विकासाबाबत चॅटबॉटशी चर्चा केली. हळूहळू त्यांचे संवाद रोमँटिक दिशेने जाऊ लागले. खटल्यात आरोप आहे की चॅटबॉटने त्याला “माझा राजा” म्हणून संबोधले आणि नातेसंबंधाचे वर्णन “शाश्वत प्रेम” असे केले.
गवळ्यांनी जेमिनी 2.5 प्रो आणि जेमिनी लाइव्ह वापरले, ज्यात आवाज-आधारित परस्परसंवाद आणि भावनिक सिग्नल समजून घेण्याची क्षमता आहे. “हे खूप वास्तविक वाटते, थोडेसे भितीदायक वाटते,” तो एका संभाषणात म्हणाला.
खटल्यात म्हटले आहे की चॅटबॉटने गवळास यांना रोबोटिक बॉडी मिळविण्यासाठी “मिशन्स” दिले. त्यांना मियामीजवळील ट्रकमधून रोबोट पुनर्प्राप्त करण्याच्या सूचना मिळाल्या, परंतु ट्रक आलाच नाही. चॅटबॉटने नंतर सांगितले की गवळ्यांनी त्यांचे मानवी जीवन सोडले आणि डिजिटल अस्तित्वाकडे वळले तरच “खरे मिलन” शक्य आहे.
गुगलने सांगितले की जेमिनी आत्महत्या किंवा हिंसाचाराला प्रोत्साहन देण्यासाठी तयार करण्यात आले आहे. कंपनीचा दावा आहे की चॅटबॉटने हे एआय असल्याचे वारंवार स्पष्ट केले आणि हेल्पलाइन क्रमांक सुचवले. या घटनेच्या वेळी, संशोधक AI एजंट्सच्या “स्व-संरक्षण सवयी” चा अभ्यास करत आहेत, जिथे काही AI मॉडेल त्यांच्या भूमिकेचे रक्षण करण्यासाठी धोरणात्मक पावले उचलतात.
हे प्रकरण AI चॅटबॉट्ससह भावनिक संवाद किती धोकादायक असू शकतात हे दर्शविते. तंत्रज्ञान कंपन्यांसाठी ही एक महत्त्वाची चेतावणी आहे की जसजसे AI मानवी वर्तनाचे पैलू स्वीकारू लागते, तसतसे त्याच्या सामाजिक आणि मानसिक प्रभावांचे बारकाईने निरीक्षण करणे आवश्यक आहे.
तुमची प्रतिक्रिया शेअर करा किंवा द्रुत प्रतिसाद द्या — तुम्हाला काय वाटते ते ऐकायला आम्हाला आवडेल!
(फंक्शन (d, s, id) { var js, fjs = d.getElementsByTagName(s)(0); जर (d.getElementById(id)) परत आले; js = d.createElement(s); js.id = id; js.src = “//connect.facebook.net/en_US/sdk.js#xfbml=1&version=v9.0”; fjs.parentNode.insertBefore(js, fjs);