ऑडियो डीपफेक के लिए AI डिटेक्शन टूल कम पड़ जाते हैं। 4 टूल कैसे काम करते हैं और हम इसके बजाय क्या कर सकते हैं

अच्छा, यह एक गंभीर मुद्दा है जिसमें AI आर्टिफिशियल इंटेलिजेंस का उपयोग राजनीतिक मंच पर गलत तरीके से किया जा रहा है। कुछ महत्वपूर्ण बिंदुओं पर प्रकाश डालते हुए:

  1. न्यू ऑरलियंस के एक स्ट्रीट जादूगर ने केवल 20 मिनट और 1 डॉलर खर्च करके ऐसा ऑडियो तैयार किया, जिसका उद्देश्य राष्ट्रपति जो बिडेन के न्यू हैम्पशायर प्राइमरी में डेमोक्रेट्स को वोट देने से रोकना था। यह एक स्पष्ट दुरुपयोग है।
  2. संघीय संचार आयोग ने रोबोकॉल में AI-जनरेटेड आवाज़ों पर प्रतिबंध लगा दिया, क्योंकि ये जनता को गुमराह कर सकते हैं।
  3. हालाँकि AI-जनरेटेड ऑडियो को पहचानना आसान नहीं है, क्योंकि विशेषज्ञों के अनुसार, AI ऑडियो डिटेक्शन टूल्स में अभी सटीकता की कमी है।
  4. मंजीत रेगे ने कहा कि ऑडियो डीपफेक का पता लगाना इमेज या वीडियो डीपफेक की तुलना में अधिक चुनौतीपूर्ण हो सकता है।

इस समस्या के समाधान के लिए, लोगों को अन्य तकनीकों का उपयोग करके संभावित गलत सूचना को पहचानने की कोशिश करनी चाहिए। साथ ही, सरकार और तकनीकी कंपनियों को मिलकर इस दुरुपयोग को रोकने के लिए कड़े कदम उठाने चाहिए।

ऑडियो डीपफेक की पहचान करने की चुनौती

इस समस्या के प्रमुख बिंदु हैं:

  1. AI-जनरेटेड ऑडियो का उपयोग बढ़ रहा है, जिससे गलत सूचना फैलाने की चुनौतियाँ बढ़ रही हैं। कंप्यूटर विज्ञान और इंजीनियरिंग के प्रोफेसर सिवेई ल्यू ने बताया कि ऑडियो डीपफेक “टेक्स्ट-टू-स्पीच” और “वॉयस कन्वर्जन” के रूपों में आते हैं। ये सस्ते और आसान हो गए हैं।
  2. उदाहरण के लिए, स्टार्टअप इलेवनलैब्स निःशुल्क और सस्ती वॉयस क्लोनिंग सुविधाएं प्रदान करता है। ये उपकरण लोगों को यह निर्धारित करने में भी मदद कर सकते हैं कि क्या कोई ऑडियो AI-जनरेटेड है।
  3. विशेषज्ञों के अनुसार, ऑडियो डीपफेक का पता लगाना इमेज या वीडियो डीपफेक की तुलना में कठिन होता है क्योंकि ऑडियो एक-आयामी और क्षणभंगुर होता है। लोगों को इसे पहचानना मुश्किल हो सकता है।
  4. ऑडियो डीपफेक का दुरुपयोग कई क्षेत्रों में हो सकता है – जैसे खुफिया अभियान, अदालती मामले और राजनीति में गलत सूचना फैलाने के लिए। यह गंभीर चिंताओं को जन्म दे सकता है।

इस समस्या का समाधान सरकारी नियमों, तकनीकी उपायों और जनता को शिक्षित करने में निहित है। उद्योग, सरकार और नागरिक समाज को मिलकर काम करना होगा ताकि इस नई खतरे से निपटा जा सके।

पता लगाने के उपकरण अपर्याप्त हैं

यह निश्चित रूप से एक चुनौतीपूर्ण और चिंता का विषय है। कुछ महत्वपूर्ण बिंदु हैं:

  1. कई मुफ़्त ऑनलाइन उपकरण जो AI-जनरेटेड ऑडियो का पता लगाने का दावा करते हैं, अत्यधिक विश्वसनीय नहीं हैं। जैसे, ElevenLabs के उपकरण ने बिडेन ऑडियो को केवल 2% संभावना से AI-जनरेटेड मान लिया, जबकि अन्य टूल ने इसे मानवीय मान लिया।
  2. ल्यू का कहना है कि ऑडियो फ़ाइल संपीड़न और अन्य कारक उन विशेषताओं को नष्ट कर सकते हैं जिनका उपयोग डिटेक्टर AI जनरेशन का पता लगाने के लिए करते हैं। इससे ऑडियो डीपफेक का पता लगाना अधिक चुनौतीपूर्ण हो जाता है।
  3. विशेषज्ञों का मानना है कि वर्तमान में, आम जनता के लिए कोई पूरी तरह से विश्वसनीय ऑडियो डीपफेक डिटेक्शन टूल उपलब्ध नहीं है। उन्होंने एक संयुक्त दृष्टिकोण अपनाने की सलाह दी है।

इस समस्या का समाधान सरकार, उद्योग और शोधकर्ताओं के बीच सहयोग से हो सकता है। उन्हें मिलकर काम करके और उन्नत तकनीक विकसित करके, इस गंभीर चुनौती का सामना करना होगा।

ऑडियो AI

संभावित ऑडियो डीपफेक में क्या सुनना चाहिए

यह एक महत्वपूर्ण समस्या है जिसमें आर्टिफिशियल इंटेलिजेंस तकनीक का दुरुपयोग किया जा रहा है। विशेषज्ञों ने कुछ महत्वपूर्ण सुझाव दिए हैं:

  1. सुब्रह्मण्यन ने कहा कि पैसे, व्यक्तिगत जानकारी, पासवर्ड या दो कारक प्रमाणीकरण कोड मांगने वाले ऑडियो कॉल को “अत्यधिक सावधानी से लिया जाना चाहिए”। वे चेतावनी देते हैं कि लोग कभी भी ऐसी जानकारी फोन पर न दें।
  2. ल्यू और रेगे ने कहा कि लोगों को एआई-जनरेटेड ऑडियो के संकेतों पर नज़र रखनी चाहिए, जैसे अनियमित या अनुपस्थित श्वास शोर, जानबूझकर विराम और स्वर, और असंगत कमरे की ध्वनिकी।
  3. उन्होंने कहा कि उपयोगकर्ताओं को ऑडियो के स्रोतों को सत्यापित करने और तथ्यों की क्रॉस-चेकिंग करने का प्रयास करना चाहिए।
  4. रेगे ने चेतावनी दी कि “अनचाहे ऑडियो संदेशों या रिकॉर्डिंग पर संदेह करें, खासकर उन पर जो प्राधिकरण के लोगों, मशहूर हस्तियों या आपके परिचित लोगों से होने का दावा करते हैं।”
  5. ल्यू ने कहा कि लोगों को सामान्य ज्ञान का उपयोग करके ऐसे प्रश्न पूछने चाहिए जैसे कि कॉल किससे या कहाँ से आया है और क्या यह स्वतंत्र और असंबंधित स्रोतों द्वारा समर्थित है।
  6. रेगे ने कहा कि जब कानूनी मामलों, वित्तीय लेनदेन या महत्वपूर्ण घटनाओं की बात आती है, तो लोग ऑडियो या आवाज से परे अन्य सुरक्षित चैनलों के माध्यम से पहचान सत्यापित करने पर जोर देकर खुद को सुरक्षित कर सकते हैं।

सामान्य तौर पर, विशेषज्ञों का मानना है कि लोगों को सतर्क रहना और संदेहों की जांच करनी चाहिए, क्योंकि यह तकनीक बहुत यथार्थवादी हो गई है।

News

XXXXL Mouse Pad: Ultimate Desktop Gaming Surface in hindi more info click now

Leave a Comment