नागपुर के छात्र कृत्रिम बुद्धिमत्ता पर आधारित प्रौद्योगिकी का निर्माण करते हैं; 90% से अधिक सटीकता के साथ डीपफेक की पहचान करने में मदद करें

नागपुर के छात्र कृत्रिम बुद्धिमत्ता पर आधारित प्रौद्योगिकी का निर्माण करते हैं;  90% से अधिक सटीकता के साथ डीपफेक की पहचान करने में मदद करें

एचयदि यह किसी अन्य अभिनेता में अभिनय करता है तो आपकी पसंदीदा फिल्म कितनी बदलेगी? सोशल मीडिया पर हाल ही में एक प्रवृत्ति है जिसमें अभिनेताओं के साथ फिल्मों से संपादन क्लिप शामिल हैं जो मूल रूप से उनमें शामिल नहीं थे। आखिरी चीज जो मैंने देखी थी वह हॉरर फिल्म द शाइनिंग में कॉमेडियन / जिम कैरी थी। जब मैंने इसे पहली बार देखा तो मैं उलझन में था, क्योंकि मुझे पता था कि यह मूल में फिल्म में नहीं था, हालांकि, अभिनेता के चेहरे की हरकतें और भाव पूरी तरह से वास्तविक लग रहे थे, बिना किसी स्पष्ट संपादन के। मुझे बाद में पता चला कि ये वीडियो एक आर्टिफिशियल इंटेलिजेंस तकनीक का उपयोग करके बनाया गया है जिसे डीपफेक कहा जाता है।

डीपफेक क्या है?

यह कृत्रिम बुद्धिमत्ता प्रौद्योगिकी का एक रूप है जिसका उपयोग नकली वीडियो या घटनाओं की तस्वीरें बनाने के लिए किया जाता है। यह प्रक्रिया एक व्यक्ति के कई स्टिल इमेज और दूसरे व्यक्ति के वीडियो फुटेज को अपलोड करके काम करती है। बाद वाले के साथ पूर्व के चेहरे को आकार देकर, अभिव्यक्तियों और आंदोलनों का मिलान किया जा सकता है।

पर एक प्रश्नावली साइबरसिटी प्लेटफॉर्म द्वारा निर्मित, नकली वीडियो की संख्या तेजी से बढ़ रही है। रिपोर्ट में कहा गया है कि ऐसी तस्वीरें / वीडियो हर छह महीने में दोगुनी हो जाती हैं, और उनका हमेशा हमेशा के लिए उपयोग नहीं किया जा सकता है। सितंबर 2019 में, इंटरनेट पर 15,000 गहरे नकली वीडियो पाए गए, जिनमें से 96% अश्लील सामग्री हैं।

Siehe auch  भारत व्हाट्सएप के लिए ध्यान का केंद्र बना हुआ है: विल कैथार्ट

भारत में, एक राजनीतिक पार्टी के नेता को एक अन्य व्यक्ति की आलोचना करते हुए एक वीडियो दिखा, जो फरवरी में दिल्ली परिषद चुनावों से पहले व्हाट्सएप पर वायरल हो गया था। लेकिन इसके बारे में अधिक अटकलों के बाद, वीडियो को डीपफेक के साथ बनाया गया था।

मीडिया के शौकीनों से लेकर शोधकर्ता, पोर्न निर्माता और राजनीतिक दल तक, हर कोई डीपफेक का उपयोग करके सामग्री बनाता है। हालांकि, इन वीडियो की पहचान करने के लिए बहुत कम उपकरण हैं, और ऐसी सामग्री के प्रसार को रोकने के लिए कोई रणनीति नहीं है।

डीपफेक द्वारा उत्पन्न बड़े पैमाने पर गलत जानकारी को ध्यान में रखते हुए, रायसन कॉलेज ऑफ़ इंजीनियरिंग, नागपुर के चार छात्र एक ऐसा समाधान लेकर आए, जिसमें कृत्रिम बुद्धिमत्ता का उपयोग वीडियो क्लिप, छवियों या ऑडियो की पहचान करने के लिए किया गया है जिसका हेरफेर किया गया है।

बी-टेक आर्टिफिशियल इंटेलिजेंस में तीसरे वर्ष के छात्र अथर्फा बिशकर कहते हैं, “महीनों के शोध और विकास के बाद, हमने 96% सटीकता के साथ डीपफेक का पता लगाने के लिए कृत्रिम बुद्धिमत्ता और कम्प्यूटेशनल तंत्रिका नेटवर्क विकसित किया है।” पेशकार ने इस परियोजना पर तीन अन्य छात्रों – ऋषिता मिश्रा (वर्ष तीन, इलेक्ट्रॉनिक्स और संचार), यश मोहरिर (कंप्यूटर विज्ञान में वर्ष तीन) और अथर्व खेड़कर (वर्ष दो, बीटेक एआई) के साथ काम किया और उन्होंने खुद को ‘टीम डिटेक्ट’ कहा। ‘।

रेकोनी कॉलेज ऑफ इंजीनियरिंग से डिटेकड टीम।

फ़्रेम-बाय-फ़्रेम विश्लेषण के माध्यम से छोटे परिवर्तनों को पहचानें

अगस्त 2020 में, टीम ने शोध शुरू किया कि किस तरह के समाधान पहले से ही उपलब्ध हैं। कुछ साइबर सुरक्षा विशेषज्ञों के साथ बात करने के बाद, यह स्पष्ट था कि नकली तस्वीरों की पहचान करने के लिए उन्नत तकनीकें थीं, लेकिन वीडियो नहीं। तस्वीरें सॉफ्टवेयर का उपयोग करके पहचानी जाती हैं जो पृष्ठभूमि और अग्रभूमि के बीच किसी भी विकृति को पकड़ती हैं। यह विकृति कुछ भी हो सकती है। असमान आकार, रेखाएँ, या चेहरे की विशेषताएं।

Siehe auch  इंटरनेशनल टेक्नोलॉजी लॉ एसोसिएशन (ITechLaw) द्वारा 3-दिवसीय वर्चुअल इंटरनेशनल इंडिया समिट 2021

“इसलिए, हमने माना कि एक ऐसे मॉडल पर काम करना जो मीडिया (वीडियो, छवि, या ऑडियो) के किसी भी रूप का विश्लेषण कर सकता है और सटीक भविष्यवाणी कर सकता है कि यह नकली है या नहीं। इसके लिए हमने स्पैट-टेम्पोरल का विश्लेषण करने की विधि का उपयोग किया है। डेटा। यह फ्रेम-दर-फ्रेम विश्लेषण का संचालन करते हुए एक वीडियो में छोटे बदलावों की पहचान करता है, “अथर्हा खेडकर कहते हैं, यह कहते हुए कि विधि को सटीक माना जाता है क्योंकि इसमें पिछले फ्रेम की मेमोरी होती है।

मशीन लर्निंग मॉडल विकसित करने के कुछ महीनों के बाद, टीम ने रिज़ॉल्यूशन का परीक्षण करने के लिए कुछ फ़ॉनी, यथार्थवादी वीडियो का परीक्षण किया। बिश्कर कहते हैं, “यह 50% से अधिक नहीं था, क्योंकि हम अपने मशीन लर्निंग मॉडल का विस्तार करने के लिए पर्याप्त डेटा सेट (वीडियो) तक नहीं पहुंच पाए थे,” बिश्कर कहते हैं।

प्रणाली में महारत हासिल करने के लिए, बाश्कर कहते हैं कि उन्होंने वीडियो को संसाधित करने और विश्लेषण करने के लिए इस्तेमाल किए जाने वाले अन्य तरीकों को समझने के लिए शोध पत्रों को पढ़ना शुरू किया। “हमारे द्वारा बनाए गए नए मॉडल के साथ कुछ मौजूदा तरीकों का उपयोग करके, हम वीडियो को प्रभावी ढंग से संसाधित करने में सक्षम थे। परिणाम देखने के बाद, हमने नकली वीडियो का विश्लेषण करने के लिए केगल नामक वेबसाइट पर उपलब्ध डेटा सेट का उपयोग करना शुरू कर दिया। तस्वीरें।”

अब तक, टीम ने सावधानीपूर्वक 96% सटीकता के साथ 7,000 से अधिक वीडियो संसाधित किए हैं। वे साइबर फोरेंसिक टेक्नोलॉजीज (CFT) और नागपुर के साथ भी अपनी तकनीक का प्रसार करने और साइबर अपराध की जांच में संगठन की सहायता करने के लिए भागीदार हैं। “लेकिन हम अभी भी मॉडल विकसित कर रहे हैं, परिवर्तन कर रहे हैं, और 100% सटीकता प्राप्त करने के लिए सिस्टम को अपडेट कर रहे हैं,” अथर्व बिश्कर कहते हैं।

Siehe auch  भारत को एक सामंजस्यपूर्ण और उत्पादक संसदीय सत्र की आवश्यकता है

जनवरी में, टीम डिटेक्ट माइक्रोसॉफ्ट इमेजिनेशन वर्ल्ड कप में शामिल हुए और अपने शोध पत्र प्रस्तुत किए। उन्हें विश्व कप में भाग लेने के लिए भारत की चार टीमों में से एक के रूप में चुना गया था। विश्व कप विजेता के रूप में चुनी गई टीम को माइक्रोसॉफ्ट के सीईओ सत्य नडेला के निर्देशन में एक मेंटरशिप का अवसर मिलेगा।

दिव्य सेतु द्वारा संपादित

We will be happy to hear your thoughts

Hinterlasse einen Kommentar

Jharkhand Times Now