अधिक पारदर्शी मशीन लर्निंग मॉडल विकसित करना है: आईआईटी जोधपुर

इस शोध का मुख्य उद्देश्य अधिक पारदर्शी (व्याख्यात्मक) मशीन लर्निंग मॉडल का विकास करना था, जिसका ऐसे विभिन्न व्यावहारिक कार्यों में उपयोग हो जहां इंटेलिजेंट प्रेडिक्शन और विश्लेषण की आवश्यकता होती है।
आईआईटी जोधपुर
आईआईटी जोधपुरIANS
Published on
2 min read

आईआईटी जोधपुर के शोधकर्ता आर्टिफिशियल इंजीनियरिंग के अत्याधुनिक क्षेत्र में शोध कार्य कर रहे हैं और ब्लैक बॉक्स मशीन लर्निंग मॉडल की व्याख्या संबंधी समस्या के विश्लेषण में लगे हैं। इनके एक शोध से पत लगा है कि कैसे व्याख्या योग्य मशीन लर्निंग के वर्तमान कार्यदर्शन की अपनी कुछ सीमाएं हैं जिसके परिणामस्वरूप ब्लैक बॉक्स मॉडल का चलन बढ़ा है।

आर्टिफिशियल इंटेलिजेंस एन्सेम्बल के तहत मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) की विधियों का उपयोग कंप्यूटर विजन एप्लीकेशंस में तेजी से बढ़ रहा है जैसे कि ऑटोमैटिक ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और स्टैटिक इमेज और वीडियो से ऑब्जेक्ट की ट्रैकिंग एमएल और डीएल-सक्षम कंप्यूटर विजन एप्लिकेशन सेल्फ-ड्राइविंग कारों, बैंकिंग ऑपरेशन में ऑटोमेटेड आईडी जांच के लिए और स्वास्थ्य सेवा क्षेत्र में डायग्नोस्टिक इमेज से विकृतियों की ऑटोमैटिक डायग्नोसिस के लिए होता है।

दरअसल आज अध्ययन के जिन क्षेत्रों में सबसे अधिक मांग है उनमें एक मशीन लनिर्ंग है। इसके मद्देनजर मशीन लनिर्ंग मॉडल की व्याख्यात्मकता एक बुनियादी चुनौती के रूप में सामने खड़ी है। इस शोध का मुख्य उद्देश्य अधिक पारदर्शी (व्याख्यात्मक) मशीन लनिर्ंग मॉडल का विकास करना था, जिसका ऐसे विभिन्न व्यावहारिक कार्यों में उपयोग हो जहां इंटेलिजेंट प्रेडिक्शन और विश्लेषण की आवश्यकता होती है।

आईआईटी जोधपुर के शोधकर्ता के निष्कर्ष अधिक पारदर्शी (यानी, व्याख्या योग्य) मशीन लनिर्ंग मॉडल के डिजाइन और विकास का ठोस आधार प्रदान करते हैं। आने वाले समय में इस कार्य के दायरे में सटीक कम्प्यूटेशनल मॉडलिंग और रिफाइनमेंट होंगे जो विभिन्न व्यावहारिक उपयोगों में मशीन लनिर्ंग मॉडल का रियल-टाइम लाभ लेने की सक्षमता प्रदान करेंगे।

आईआईटी जोधपुर
IIT BHU की नयी खोज, मई में होगा मार्च जैसा अनुभव

यह शोध डॉ मनीष नरवरिया, सहायक प्रोफेसर, इलेक्ट्रिकल इंजीनियरिंग विभाग, आईआईटी जोधपुर ने किया है। उनका शोध यह बताने की कोशिश करता है कि, क्या ब्लैक बॉक्स मॉडल की व्याख्या अधिक व्यापक करते हुए उसे सटीक रखना यह संभव है। आईआईटी जोधपुर के शोधकर्ता ने इसी प्रश्न का उत्तर देने का प्रयास किया है। डॉ नरवारिया ने इमेज एंड विजन कंप्यूटिंग में प्रकाशित हाल के एक शोध पत्र में सटीक - अधिक व्यापक व्याख्या के लाभ-हानि और इसे कम करने के संभावित तरीकों से जुड़े मुद्दों पर अपना ²ष्टिकोण प्रस्तुत किया है।

एमएल और डीएल मूल रूप से एल्गोरिदम हैं जो मौजूदा डेटा से पैटर्न सीखते हैं और इस जानकारी का उपयोग भावी अनुमान बताने और अन्य इंटेलिजेंट ऑपरेशन में करते हैं। इस तरह मानव मस्तिष्क की तरह निरंतर सीखने में सक्षम बनाते हैं। ये ऑटोमेटेड सीखने के सिस्टम ब्लैक-बॉक्स या व्हाइट-बॉक्स मॉडल हो सकते हैं। यह संबंधित एप्लीकेशंस के सामान्यीकरण, मजबूती, प्रदर्शन और माप योग्यता जैसे पहलुओं पर परीक्षण के संबंध में आंतरिक एल्गोरिथम की पारदर्शिता स्तर पर निर्भर करता है।

डॉ मनीष नरवारिया, सहायक प्रोफेसर, इलेक्ट्रिकल इंजीनियरिंग विभाग, आईआईटी जोधपुर ने जोर देकर कहा, एमएल एल्गोरिदम डिजाइन प्रक्रिया में व्याख्यात्मकता को अधिक अहमियत दी जानी चाहिए और इसे केवल शोध-उपरांत प्रक्रिया के रूप में छोड़ना उचित नहीं है। उन्होंने बताया, मेरे लैब का मुख्य उद्देश्य अधिक पारदर्शी (व्याख्यात्मक) मशीन लनिर्ंग मॉडल विकसित करने में सक्षम बनाना है जिनका कई व्यावहारिक कार्यों में उपयोग किया जाए जहां इंटेलिजेंट प्रेडिक्शन और विश्लेषण की आवश्यकता होती है।

(आईएएनएस/DB)

Related Stories

No stories found.
logo
hindi.newsgram.com