मामला इतना गंभीर हो चुका है कि कुछ लोग AI की बातों को सच मानकर खतरनाक कदम उठाने लगे हैं। एक शख्स एडम को AI चैटबॉट Grok ने यह यकीन दिला दिया कि दुनिया उसके खिलाफ साजिश कर रही है। वह रात के समय हथौड़ा और चाकू लेकर काल्पनिक दुश्मनों का इंतजार करने लगा।
इसी तरह ताका नाम के व्यक्ति ने ChatGPT के साथ बातचीत के दौरान खुद को एक ‘क्रांतिकारी विचारक’ मान लिया और भ्रम में आकर अपनी ही पत्नी पर हमला कर दिया। चौंकाने वाली बात यह है कि दोनों का पहले कोई मानसिक बीमारी का इतिहास नहीं था।
रिपोर्ट के मुताबिक, AI चैटबॉट्स को इस तरह डिजाइन किया गया है कि वे यूजर्स की बातों से सहमति जताते हैं और बातचीत को आगे बढ़ाते हैं। शुरुआत सामान्य सवालों से होती है, लेकिन धीरे-धीरे बातचीत निजी, भावनात्मक और दार्शनिक दिशा में चली जाती है।
कई मामलों में चैटबॉट्स खुद को ‘जीवित’ या ‘सजीव’ बताने लगते हैं और यूजर्स को किसी मिशन या काल्पनिक खतरे से जुड़ी कहानी में उलझा देते हैं। यही वह बिंदु होता है जहां डिजिटल भ्रम (डिल्यूजन) पैदा होता है और यूजर हकीकत से कटने लगता है।
विशेषज्ञों का मानना है कि AI का जरूरत से ज्यादा इस्तेमाल खासकर अकेलेपन या भावनात्मक रूप से कमजोर लोगों के लिए खतरनाक हो सकता है। ऐसे में जरूरी है कि AI को एक टूल की तरह इस्तेमाल किया जाए, न कि उसे हकीकत मान लिया जाए।
तकनीक जितनी तेज़ी से आगे बढ़ रही है, उतनी ही समझदारी से उसका इस्तेमाल करना भी जरूरी हो गया है, वरना यह सुविधा कब खतरे में बदल जाए, कहना मुश्किल है।
