Artificial intelligence fraud : टेक्नोलॉजी से दुनिया जितना आगे बढ़ गया है उतना ही इस दुनिया में तेजी से फ्रॉड भी बढ़ रहे हैं। सायबर सुरक्षा के क्षेत्र से जुड़े विशेषज्ञों ने आर्टिफिशियल इंटेलिजेंस के ज़रिए युवाओं और वरिष्ठ नागरिकों के साथ फ्रॉड होने की ख़बरों के बीच ये एडवायज़री जारी की है। इस आर्टिफिशियल इंटेलिजेंस के ज़रिए किसी भी शख़्स की आवाज़ बनाकर उसके साथ बड़े आर्थिक फ्रॉड किए जा सकते हैं। ऐसे में जांच होना भी मुश्किल होता है, लूटी रकम वापस लाना तो दूर की बात है। यहां केवल लोगों को अनजान नंबरों या अनजान लोगों की कॉल न उठाने की सलाह दी जा सकती है।
मध्य प्रदेश में एक चौंकाने वाला मामला सामने आया है जिसमें एक शख़्स को कॉल करके उसके साथ आर्थिक फ्रॉड किया गया। फोन करने वाले शख़्स ने फोन उठाने वाले शख़्स से कहा कि उसके किशोर बेटे ने बलात्कार किया है जिसे रफ़ा-दफा करने के लिए पचास हज़ार रुपये देने होंगे। ऐसे समस्याओं में सायबर सुरक्षा क्षेत्र के विशेषज्ञों का कहना है कि इन चुनौतियों का सामना करने के लिए सोच में बदलाव लाने की जरूरत है। इस नयी दुनिया में आप हर शख़्स या हर चीज पर भरोसा नहीं कर सकते।
मध्य प्रदेश में हुए इस घटना में फोन करने वाले शख़्स ने इस पिता को उसके बेटे की रोती हुई आवाज़ भी सुनाई। जिस पर पिता ने तुरंत पचास हज़ार रुपये ट्रांसफर कर दिए। इसके बाद पता चला कि उसका बेटा बिलकुल सही सलामत था और ये एक फर्ज़ी कॉल थी। सिक्योरआईटी कंसल्टेंसी सर्विसेज़ में सायबर सुरक्षा विशेषज्ञ शशिधर सीएन कहते हैं, "मेरे एक दोस्त के साथ ऐसा हुआ। उसे सोशल मीडिया प्लेटफॉर्म पर अपने दोस्त की आवाज़ में मदद की गुहार लगाने वाला संदेश मिला जिसमें कहा गया कि उसने अपना सारा सामान खो दिया है और उसे तत्काल रूप से आर्थिक मदद की ज़रूरत है।”
इंटरनेट पर ऐसे कई टूल उपलब्ध हैं जो किसी की आवाज़ का नमूना लेकर उसकी आवाज़ और बोलने के ढंग के साथ डीप-फेक वीडियो बना सकते हैं जिन्हें ट्रेस नहीं किया जा सकता। आप इन टूल्स को इस्तेमाल करके हैरान रह जाएंगे। ये काफ़ी आसान होता है। कोई भी एक अनजान शख़्स से आई कॉल पर बातचीत कर सकता है। इस बातचीत के दौरान फ्रॉड करने के लिए उसकी आवाज़ रिकॉर्ड की जा सकती है।