paint-brush
एआईले सबैभन्दा राम्रो जान्दछ—तर यदि तपाईं सहमत हुनुहुन्छ भने मात्रद्वारा@modeltuning
453 पढाइहरू
453 पढाइहरू

एआईले सबैभन्दा राम्रो जान्दछ—तर यदि तपाईं सहमत हुनुहुन्छ भने मात्र

द्वारा Model Tuning4m2025/02/17
Read on Terminal Reader

धेरै लामो; पढ्नकाे लागि

एआईले जानकारी पहुँच गर्ने लागत घटाउँछ, तर मुख्यधाराको ज्ञानलाई समर्थन गर्ने यसको प्रवृत्तिले "ज्ञानको पतन" निम्त्याउन सक्छ, विविधतालाई सीमित गर्दछ र नवीनतालाई दबाउँछ। यो अध्ययनले एआई-उत्पन्न सामग्रीमा निर्भरताले सार्वजनिक विश्वासलाई कसरी असर गर्छ भनेर मोडेल गर्छ र ज्ञानको गिरावटलाई रोक्न रणनीतिहरू सुझाव दिन्छ।
featured image - एआईले सबैभन्दा राम्रो जान्दछ—तर यदि तपाईं सहमत हुनुहुन्छ भने मात्र
Model Tuning HackerNoon profile picture
0-item

लेखक:

(१) एन्ड्रयू जे. पिटरसन, पोइटियर्स विश्वविद्यालय (andrew.peterson@univ-poitiers.fr)।

लिङ्कहरूको तालिका

सारांश र परिचय

सम्बन्धित काम

मिडिया, फिल्टर बबल र इको चेम्बरहरू

नेटवर्क प्रभाव र सूचना क्यास्केडहरू

मोडेलको पतन

LLM मा ज्ञात पूर्वाग्रहहरू

ज्ञानको मोडेल संकुचन

परिणामहरू

छलफल र सन्दर्भहरू


परिशिष्ट

पुच्छरको चौडाइ तुलना गर्दै

ज्ञानको पतनलाई परिभाषित गर्दै

सार

कृत्रिम बुद्धिमत्तामा विशाल मात्रामा डेटा प्रशोधन गर्ने, नयाँ अन्तर्दृष्टिहरू उत्पन्न गर्ने र बढी उत्पादकता अनलक गर्ने क्षमता भए पनि, यसको व्यापक अपनाइले अप्रत्याशित परिणामहरू निम्त्याउन सक्छ। हामी ती अवस्थाहरू पहिचान गर्छौं जस अन्तर्गत एआई, ज्ञानका निश्चित मोडहरूमा पहुँचको लागत घटाएर, विरोधाभासी रूपमा सार्वजनिक समझलाई हानि पुर्‍याउन सक्छ। ठूला भाषा मोडेलहरूलाई विशाल मात्रामा विविध डेटामा प्रशिक्षित गरिन्छ, तिनीहरूले स्वाभाविक रूपमा वितरणको 'केन्द्र' तर्फ आउटपुट उत्पन्न गर्छन्। यो सामान्यतया उपयोगी छ, तर पुनरावर्ती एआई प्रणालीहरूमा व्यापक निर्भरताले हामीले "ज्ञान पतन" को रूपमा परिभाषित गर्ने प्रक्रिया निम्त्याउन सक्छ, र तर्क गर्छ कि यसले नवीनता र मानव समझ र संस्कृतिको समृद्धिलाई हानि पुर्‍याउन सक्छ। यद्यपि, एआई मोडेलहरू विपरीत जसले उनीहरूलाई कुन डेटामा प्रशिक्षित गरिएको छ भनेर छनौट गर्न सक्दैनन्, मानिसहरूले रणनीतिक रूपमा ज्ञानका विविध रूपहरू खोज्न सक्छन् यदि उनीहरूले तिनीहरूलाई सार्थक ठान्छन् भने। यसको अनुसन्धान गर्न, हामी एउटा साधारण मोडेल प्रदान गर्छौं जसमा सिकारु वा आविष्कारकहरूको समुदायले परम्परागत विधिहरू प्रयोग गर्न वा छुट प्राप्त एआई-सहायता प्रक्रियामा भर पर्न र ज्ञान पतन हुने अवस्थाहरू पहिचान गर्न छनौट गर्छ। हाम्रो पूर्वनिर्धारित मोडेलमा, एआई-उत्पन्न सामग्रीमा २०% छुटले कुनै छुट नभएको भन्दा २.३ गुणा बढी सार्वजनिक विश्वासहरू उत्पन्न गर्दछ। अन्तमा, नतिजाहरूको आधारमा, हामी त्यस्ता नतिजाहरूको प्रतिरोध गर्न थप अनुसन्धान निर्देशनहरू विचार गर्छौं।

परिचय

जेनेरेटिभ एआईको आगमन हुनुभन्दा पहिले, सबै पाठ र कलाकृतिहरू मानिसहरूद्वारा उत्पादन गरिन्थ्यो, केही अवस्थामा उपकरणहरू वा कम्प्युटर प्रणालीहरूद्वारा सहयोग गरिएको थियो। ठूला भाषा मोडेलहरू (LLMs) को लगभग शून्य मानव प्रयासमा पाठ उत्पन्न गर्ने क्षमता, तथापि, छविहरू, अडियो र भिडियो उत्पन्न गर्ने मोडेलहरूसँगै, सुझाव दिन्छ कि मानिसहरूलाई सम्पर्क गरिएको डेटा एआई-उत्पन्न वा एआई-सहायता प्राप्त प्रक्रियाहरूद्वारा हावी हुन सक्छ।


अनुसन्धानकर्ताहरूले उल्लेख गरेका छन् कि सिंथेटिक टेक्स्टमा एआई मोडेलहरूको पुनरावर्ती प्रशिक्षणले "मोडेल पतन" भनेर चिनिने पतन निम्त्याउन सक्छ (शुमाइलोभ एट अल।, २०२३)। हाम्रो रुचि यस चिन्ताको उल्टोमा छ, बरु मानव समाज भित्र ज्ञानको वितरणमा सन्तुलन प्रभावहरूमा केन्द्रित छ। हामी सोध्छौं कि कुन अवस्थामा एआई-उत्पन्न सामग्रीको वृद्धि र एआई-मध्यस्थतामा जानकारीको पहुँचले मानव विचार, जानकारी खोज्ने र ज्ञानको भविष्यलाई हानि पुर्‍याउन सक्छ।


एआई-उत्पन्न जानकारीको प्रारम्भिक प्रभाव सम्भवतः सीमित छ, र एआईको हानिहरूमा अवस्थित कामले "डीपफेक" द्वारा फैलाइएको गलत जानकारीको तत्काल प्रभावहरूमा ध्यान केन्द्रित गर्दछ (हेडारी एट अल।, २०२३), एआई एल्गोरिदममा पूर्वाग्रह (नाजर एट अल।, २०२३), र राजनीतिक गलत जानकारी (चेन र शु, २०२३)। हाम्रो ध्यान केही हदसम्म लामो समयको क्षितिजमा छ, र सीमान्त अपनाउने भन्दा व्यापक रूपमा प्रभावको अनुसन्धान गर्दछ।


अनुसन्धानकर्ताहरू र इन्जिनियरहरूले हाल विभिन्न प्रणालीहरू निर्माण गरिरहेका छन् जसमा एआईले अन्य मानिसहरू र सूचना स्रोतहरूसँग हाम्रो अनुभवलाई मध्यस्थता गर्नेछ। यी LLMs बाट सिक्ने (चेन, चेन, र लिन, २०२०), LLMs (शर्मा, लियाओ, र सियाओ, २०२४) सँग खोज परिणामहरूलाई श्रेणीकरण गर्ने वा संक्षेप गर्ने, परम्परागत स्वत: पूर्णता (ग्राहम, २०२३; चोन्का, डिपेभिन, र हेले, २०२३) जस्तै लेख्न खोज शब्दहरू वा शब्दहरू सुझाव दिने, सहयोगीहरूलाई जोडी बनाउन प्रणालीहरू डिजाइन गर्ने (बल र लुईस, २०१८), विकिपिडियाबाट प्राप्त ज्ञान आधारहरूको LLM-आधारित समापन (चेन, रज्निभस्की, र वेइकुम, २०२३), सरकारी डेटाको व्याख्या गर्ने (फिशर, २०२४) र पत्रकारहरूलाई सहयोग गर्ने (ओपडाहल एट अल।, २०२३) जस्ता छन्, जसले बढ्दो सूचीबाट केहीलाई मात्र उद्धृत गर्दछ।


समयसँगै, यी प्रणालीहरूमा निर्भरता, र तिनीहरू बीच बहुआयामिक अन्तरक्रियाको अस्तित्वले "पुनरावृत्तिको अभिशाप" सिर्जना गर्न सक्छ (शुमाइलोभ एट अल।, २०२३), जसमा मानव ज्ञानको मूल विविधतामा हाम्रो पहुँच आंशिक र बढ्दो रूपमा साँघुरो उपसमूह विचारहरूद्वारा मध्यस्थता गरिन्छ। LLM-आधारित प्रणालीहरूको बढ्दो एकीकरणसँगै, प्रशिक्षण डेटामा सामान्य रहेका केही लोकप्रिय स्रोतहरू वा विश्वासहरू सार्वजनिक मानसिकतामा (र प्रशिक्षण डेटा भित्र) सुदृढ हुन सक्छन्, जबकि अन्य "लामो-पुच्छर" विचारहरू बेवास्ता गरिन्छन् र अन्ततः बिर्सिन्छन्।


यस्तो प्रक्रियालाई 'इको चेम्बर' वा सूचना क्यास्केड प्रभावद्वारा बलियो बनाउन सकिन्छ, जसमा यस प्रतिबन्धित जानकारीको सेटमा बारम्बार एक्सपोजरले व्यक्तिहरूलाई विश्वास गर्न बाध्य पार्छ कि ज्ञानको उपेक्षित, अवलोकन नगरिएको पुच्छरहरू कम मूल्यका छन्। एआईले निश्चित प्रकारको जानकारीमा पहुँचको लागतलाई मौलिक रूपमा छुट दिन सक्ने हदसम्म, यसले "स्ट्रिटलाइट प्रभाव" मार्फत थप हानि उत्पन्न गर्न सक्छ, जसमा उज्यालो क्षेत्र अन्तर्गत असमान मात्रामा खोजी गरिन्छ किनभने यसमा कसैको साँचोहरू समावेश हुने सम्भावना बढी हुन्छ तर त्यहाँ हेर्न सजिलो हुन्छ। हामी तर्क गर्छौं कि मानव ज्ञानको पुच्छरको परिणामस्वरूप कटौतीले निष्पक्षता, विविधताको समावेश, नवप्रवर्तनमा हराएको लाभ, र मानव संस्कृतिको सम्पदाको संरक्षण सहित विभिन्न चिन्ताहरूमा महत्त्वपूर्ण प्रभाव पार्नेछ।


हाम्रो सिमुलेशन मोडेलमा, यद्यपि, हामी यो सम्भावनालाई पनि विचार गर्छौं कि मानिसहरूले आफ्नो सूचना स्रोतहरूलाई सक्रिय रूपमा क्युरेट गर्न रणनीतिक छन्। यदि, हामीले तर्क गरेझैं, ज्ञानका ताई क्षेत्रहरूमा महत्त्वपूर्ण मूल्य छ जुन एआई-उत्पन्न सामग्रीद्वारा बेवास्ता गरिन्छ भने, केही व्यक्तिहरूले सम्भावित मूल्यको बारेमा पर्याप्त रूपमा सूचित छन् भनी मान्दै लाभहरू प्राप्त गर्न थप प्रयास गर्न सक्छन्।

मुख्य योगदानहरूको सारांश

हामी एउटा गतिशील पहिचान गर्छौं जहाँ एआईले निश्चित प्रकारको जानकारीमा पहुँचको लागत घटाए पनि, "ज्ञानको पतन" निम्त्याउन सक्छ, ज्ञानको लामो पुच्छरलाई बेवास्ता गर्दै र पुस्ताहरूमा पतित रूपमा साँघुरो दृष्टिकोण सिर्जना गर्दछ। हामी एक सकारात्मक ज्ञान फैलावट मोडेल प्रदान गर्दछौं जसमा व्यक्तिहरूले सस्तो एआई प्रविधिमा भर पर्ने वा साँचो ज्ञानको पूर्ण वितरणबाट नमूनाहरूमा लगानी गर्ने निर्णय गर्छन्। हामी समाज भित्र ज्ञानको पतन रोक्नको लागि व्यक्तिहरूलाई पर्याप्त रूपमा सूचित गरिएको अवस्थाहरूको सिमुलेशन मार्फत जाँच गर्छौं। अन्तमा, हामी एआई-युगमा ज्ञानको पतन रोक्न सम्भावित समाधानहरूको सिंहावलोकनको साथ निष्कर्ष निकाल्छौं।


यो पेपर CC BY-NC-SA 4.0 DEED लाइसेन्स अन्तर्गत arxiv मा उपलब्ध छ।