एआई और एल्गोरिदम तेजी से हमारे वित्ती……
कंपनियां तेजी से एल्गोरिदम और आर्टिफिशियल इंटेलिजेंस (एआई) का उपयोग कर रही हैं, जो कि बड़े पैमाने पर डेटा का विश्लेषण करने के लिए हमारे बारे में यह तय करने के लिए कि हम किस वित्तीय उत्पादों के लिए योग्य हैं और हम उनके लिए कितना भुगतान करेंगे।इन परिष्कृत उपकरणों का उपयोग बैंकों द्वारा किया जाता है, जब उधार देने वाले निर्णय लेते हैं, नियोक्ताओं द्वारा नौकरी के अनुप्रयोगों की स्क्रीनिंग करते हैं, और अधिकांश राज्यों में, प्रीमियम सेट करते समय ऑटो और होम इंश्योरेंस कंपनियों द्वारा।
यदि निष्पक्षता और सटीकता सुनिश्चित करने के लिए प्रशिक्षित किया जाता है, तो एआई क्रेडिट तक पहुंच का विस्तार कर सकता है और मानव पूर्वाग्रह के कारण भेदभाव को कम कर सकता है।यदि नहीं, तो यह भारी वित्तीय नुकसान कर सकता है।
उदाहरण के लिए, यदि AI आपके ऋण आवेदन से इनकार करता है, तो आपके लिए यह जानने का कोई तरीका नहीं है कि वह निर्णय क्यों किया गया था या क्या डेटा का उपयोग किया गया था।
“कई एआई और मशीन लर्निंग मॉडल के साथ, वे अपने फोन पर डिजिटल ऐप के उपयोग से, सोशल मीडिया से डेटा को वैक्यूम कर रहे हैं, और आपको पता नहीं है कि उनके पास उस डेटाबेस में क्या है,” चक बेल ने कहा, उपभोक्ता रिपोर्ट में वित्तीय नीति वकील ने कहा।”यह किसी अन्य व्यक्ति के लिए भी हो सकता है, जिसका एक समान नाम है, और आप बिल्कुल नहीं।”
अधिकांश आवेदकों को पता नहीं है कि जब एआई द्वारा निर्णय किए जाते हैं।और यहां तक कि अगर उन्होंने किया, तो निर्णय लेने की प्रक्रिया अपारदर्शी है, इसलिए उन्हें कभी नहीं पता होगा कि किन कारकों पर विचार किया गया था।एआई टूल इंटरनेट से उस आवेदक के बारे में जानकारी को खुरच सकता है जो गलत या पूरी तरह से गलत है।
गैर-लाभकारी उपभोक्ता महासंघ अमेरिका के सीईओ सुसान वेनस्टॉक ने कहा, “यह ब्लैक-बॉक्स समस्या है।””अगर वहाँ खराब डेटा हो रहा है, तो आप कचरा डेटा प्राप्त करने जा रहे हैं,” Weinstock ने हाल के एक एपिसोड में कहा कि Theckbook के Consumerpedia पॉडकास्ट के एक एपिसोड में।”और फिर उपभोक्ता पूरी तरह से उस खराब डेटा की दया पर है। नियामकों को यह भी पता नहीं हो सकता है कि एल्गोरिथ्म पक्षपाती है।”
पिछले साल, उपभोक्ता रिपोर्ट और उपभोक्ता फेडरेशन ऑफ अमेरिकन ने उपभोक्ता वित्तीय सुरक्षा ब्यूरोवरिंग को एक पत्र कहा कि “एल्गोरिथम भेदभाव कई स्रोतों से उत्पन्न हो सकता है,” जैसे कि “अप्रमाणिक, गलत, या अपूर्ण प्रशिक्षण डेटा, साथ ही डेटा जो ऐतिहासिक पूर्वाग्रहों को दर्शाता है।”यह रंग और कम आय वाले उपभोक्ताओं के समुदायों को सस्ती क्रेडिट तक पहुंचने से रोक सकता है, उन्होंने लिखा।
डिजाइन प्रक्रिया के दौरान पूर्वाग्रहों को एआई मॉडल में एम्बेड किया जा सकता है, जैसे कि जब “संरक्षित विशेषताओं”, जैसे कि दौड़, अनुचित रूप से सीधे या प्रॉक्सी के माध्यम से उपयोग किए जाते हैं।
उदाहरण के लिए, एक उधार उपकरण के लिए बनाए गए एक डेटाबेस में ज़िप कोड शामिल हो सकते हैं, जो डेवलपर के लिए एक तटस्थ कारक लग सकता है, लेकिन दौड़, आय, लिंग या धर्म के लिए एक प्रॉक्सी के रूप में काम कर सकता है।
“जब आपके पास प्रॉक्सी भेदभाव होता है, तो बेल ने समझाया,” आप उन लोगों के संरक्षित वर्ग के साथ भेदभाव कर रहे हैं जो निष्पक्ष उपचार के लायक हैं, और आप वास्तव में इस तथ्य पर ध्यान नहीं दे रहे हैं कि वे आपके मॉडल से आहत हो रहे हैं।और यह अनिवार्य रूप से वह स्थिति है जो हमारे पास है। ”
एआई और एल्गोरिदम तेजी से हमारे वित्ती…
चेकबुक ने एआई एसोसिएशन, एक उद्योग व्यापार समूह, इस पर टिप्पणी करने के लिए कहा, लेकिन इसने हमारे अनुरोधों का जवाब नहीं दिया।
उपभोक्ता चिंताएँ
उपभोक्ता रिपोर्ट्स द्वारा 2024 का एक सर्वेक्षण कि अधिकांश अमेरिकी “कुछ हद तक असहज” या “बहुत असहज” हैं, एआई के साथ उनके जीवन के बारे में उच्च-दांव निर्णय लेने के साथ, जैसे कि वीडियो नौकरी के साक्षात्कार (72 प्रतिशत) का विश्लेषण करना, संभावित किराये के किरायेदारों (69 प्रतिशत) की स्क्रीनिंग करना, और उधार निर्णय (66 प्रतिशत) करना।
जब सीआर ने एक कंपनी के साथ नौकरी के लिए आवेदन करने के बारे में पूछा, जिसने एआई का उपयोग करके एआई को काम पर रखने के लिए इस्तेमाल किया, तो 83 प्रतिशत ने कहा कि वे यह जानना चाहेंगे कि कार्यक्रम ने अपने निर्णय को करने के लिए किस व्यक्तिगत जानकारी का इस्तेमाल किया और 93 प्रतिशत ने कहा कि वे चाहते थे कि कोई भी गलत व्यक्तिगत जानकारी को सही करने का अवसर एआई हायरिंग टूल पर निर्भर हो।
मशीनों को महत्वपूर्ण वित्तीय निर्णय लेने की अनुमति देने के साथ भारी असुविधा को अच्छी तरह से स्थापित किया जा सकता है।अनुसंधान से पता चलता है कि एआई झूठे परिणामों का उत्पादन कर सकता है और हानिकारक पूर्वाग्रहों को बढ़ा सकता है।
जनरेटिव एआई टूल “मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी चेतावनी से हैं, अन्यथा भ्रामक आउटपुट के लिए क्षमता।”वे “प्रामाणिक रूप से प्रतीत होने वाले डेटा” के साथ उपयोगकर्ताओं को प्रदान करने के लिए भी पाए गए हैं।ये अशुद्धि “बहुत आम हैं,” रिपोर्ट में कहा गया है, “उन्होंने अपना स्वयं का मोनिकर अर्जित किया है; हम उन्हें ‘मतिभ्रम के रूप में संदर्भित करते हैं।”
गार्ड्रिल की जरूरत है
उपभोक्ता अधिवक्ताओं का कहना है कि वे मानते हैं कि उपभोक्ताओं को एआई निर्णय लेने के कभी-विस्तार वाले उपयोग से बचाने के लिए नए कानूनों और विनियमों की आवश्यकता है।
सीआर के बेल ने चेकबुक को बताया, “हमें इस बारे में बातचीत करने की आवश्यकता है कि एआई कैसे निष्पक्ष और जवाबदेह हो सकता है, और इस तरह से उपयोग किया जाता है कि उपभोक्ताओं को वापस रखने में मदद मिलती है।””[वहाँ होना चाहिए] जब एल्गोरिथम उपकरण का उपयोग किया जा रहा हो, तो स्पष्ट प्रकटीकरण, ताकि उपभोक्ता को पता हो कि एआई का उपयोग किया जा रहा है। और हम देखना चाहते हैं कि लोग किसी इंसान से अपील कर सकें” यदि एक एल्गोरिथ्म उनके अनुप्रयोगों को अस्वीकार करता है।
एआई और एल्गोरिदम तेजी से हमारे वित्ती…
उपभोक्ता रिपोर्ट राज्य और संघीय नियम चाहती हैं, जो कि एक उपभोक्ता के बारे में “परिणामी निर्णय” करने के लिए उपयोग की जाने पर कंपनियों को क्या करना चाहिए, जैसे कि वे क्या करते हैं, जैसे कि वे ऋण के लिए अर्हता प्राप्त करते हैं, एक अपार्टमेंट किराये के लिए चुने जाते हैं, एक पदोन्नति प्राप्त करते हैं, या उनके बीमा आर को देखते हैं …
ट्विटर पर साझा करें: [bctt tweet=”एआई और एल्गोरिदम तेजी से हमारे वित्ती…” username=”SeattleID_”]