
लेखक:
(१) एन्ड्रयू जे. पिटरसन, पोइटियर्स विश्वविद्यालय (andrew.peterson@univ-poitiers.fr)।
मिडिया, फिल्टर बबल र इको चेम्बरहरू
नेटवर्क प्रभाव र सूचना क्यास्केडहरू
कृत्रिम बुद्धिमत्तामा विशाल मात्रामा डेटा प्रशोधन गर्ने, नयाँ अन्तर्दृष्टिहरू उत्पन्न गर्ने र बढी उत्पादकता अनलक गर्ने क्षमता भए पनि, यसको व्यापक अपनाइले अप्रत्याशित परिणामहरू निम्त्याउन सक्छ। हामी ती अवस्थाहरू पहिचान गर्छौं जस अन्तर्गत एआई, ज्ञानका निश्चित मोडहरूमा पहुँचको लागत घटाएर, विरोधाभासी रूपमा सार्वजनिक समझलाई हानि पुर्याउन सक्छ। ठूला भाषा मोडेलहरूलाई विशाल मात्रामा विविध डेटामा प्रशिक्षित गरिन्छ, तिनीहरूले स्वाभाविक रूपमा वितरणको 'केन्द्र' तर्फ आउटपुट उत्पन्न गर्छन्। यो सामान्यतया उपयोगी छ, तर पुनरावर्ती एआई प्रणालीहरूमा व्यापक निर्भरताले हामीले "ज्ञान पतन" को रूपमा परिभाषित गर्ने प्रक्रिया निम्त्याउन सक्छ, र तर्क गर्छ कि यसले नवीनता र मानव समझ र संस्कृतिको समृद्धिलाई हानि पुर्याउन सक्छ। यद्यपि, एआई मोडेलहरू विपरीत जसले उनीहरूलाई कुन डेटामा प्रशिक्षित गरिएको छ भनेर छनौट गर्न सक्दैनन्, मानिसहरूले रणनीतिक रूपमा ज्ञानका विविध रूपहरू खोज्न सक्छन् यदि उनीहरूले तिनीहरूलाई सार्थक ठान्छन् भने। यसको अनुसन्धान गर्न, हामी एउटा साधारण मोडेल प्रदान गर्छौं जसमा सिकारु वा आविष्कारकहरूको समुदायले परम्परागत विधिहरू प्रयोग गर्न वा छुट प्राप्त एआई-सहायता प्रक्रियामा भर पर्न र ज्ञान पतन हुने अवस्थाहरू पहिचान गर्न छनौट गर्छ। हाम्रो पूर्वनिर्धारित मोडेलमा, एआई-उत्पन्न सामग्रीमा २०% छुटले कुनै छुट नभएको भन्दा २.३ गुणा बढी सार्वजनिक विश्वासहरू उत्पन्न गर्दछ। अन्तमा, नतिजाहरूको आधारमा, हामी त्यस्ता नतिजाहरूको प्रतिरोध गर्न थप अनुसन्धान निर्देशनहरू विचार गर्छौं।
जेनेरेटिभ एआईको आगमन हुनुभन्दा पहिले, सबै पाठ र कलाकृतिहरू मानिसहरूद्वारा उत्पादन गरिन्थ्यो, केही अवस्थामा उपकरणहरू वा कम्प्युटर प्रणालीहरूद्वारा सहयोग गरिएको थियो। ठूला भाषा मोडेलहरू (LLMs) को लगभग शून्य मानव प्रयासमा पाठ उत्पन्न गर्ने क्षमता, तथापि, छविहरू, अडियो र भिडियो उत्पन्न गर्ने मोडेलहरूसँगै, सुझाव दिन्छ कि मानिसहरूलाई सम्पर्क गरिएको डेटा एआई-उत्पन्न वा एआई-सहायता प्राप्त प्रक्रियाहरूद्वारा हावी हुन सक्छ।
अनुसन्धानकर्ताहरूले उल्लेख गरेका छन् कि सिंथेटिक टेक्स्टमा एआई मोडेलहरूको पुनरावर्ती प्रशिक्षणले "मोडेल पतन" भनेर चिनिने पतन निम्त्याउन सक्छ (शुमाइलोभ एट अल।, २०२३)। हाम्रो रुचि यस चिन्ताको उल्टोमा छ, बरु मानव समाज भित्र ज्ञानको वितरणमा सन्तुलन प्रभावहरूमा केन्द्रित छ। हामी सोध्छौं कि कुन अवस्थामा एआई-उत्पन्न सामग्रीको वृद्धि र एआई-मध्यस्थतामा जानकारीको पहुँचले मानव विचार, जानकारी खोज्ने र ज्ञानको भविष्यलाई हानि पुर्याउन सक्छ।
एआई-उत्पन्न जानकारीको प्रारम्भिक प्रभाव सम्भवतः सीमित छ, र एआईको हानिहरूमा अवस्थित कामले "डीपफेक" द्वारा फैलाइएको गलत जानकारीको तत्काल प्रभावहरूमा ध्यान केन्द्रित गर्दछ (हेडारी एट अल।, २०२३), एआई एल्गोरिदममा पूर्वाग्रह (नाजर एट अल।, २०२३), र राजनीतिक गलत जानकारी (चेन र शु, २०२३)। हाम्रो ध्यान केही हदसम्म लामो समयको क्षितिजमा छ, र सीमान्त अपनाउने भन्दा व्यापक रूपमा प्रभावको अनुसन्धान गर्दछ।
अनुसन्धानकर्ताहरू र इन्जिनियरहरूले हाल विभिन्न प्रणालीहरू निर्माण गरिरहेका छन् जसमा एआईले अन्य मानिसहरू र सूचना स्रोतहरूसँग हाम्रो अनुभवलाई मध्यस्थता गर्नेछ। यी LLMs बाट सिक्ने (चेन, चेन, र लिन, २०२०), LLMs (शर्मा, लियाओ, र सियाओ, २०२४) सँग खोज परिणामहरूलाई श्रेणीकरण गर्ने वा संक्षेप गर्ने, परम्परागत स्वत: पूर्णता (ग्राहम, २०२३; चोन्का, डिपेभिन, र हेले, २०२३) जस्तै लेख्न खोज शब्दहरू वा शब्दहरू सुझाव दिने, सहयोगीहरूलाई जोडी बनाउन प्रणालीहरू डिजाइन गर्ने (बल र लुईस, २०१८), विकिपिडियाबाट प्राप्त ज्ञान आधारहरूको LLM-आधारित समापन (चेन, रज्निभस्की, र वेइकुम, २०२३), सरकारी डेटाको व्याख्या गर्ने (फिशर, २०२४) र पत्रकारहरूलाई सहयोग गर्ने (ओपडाहल एट अल।, २०२३) जस्ता छन्, जसले बढ्दो सूचीबाट केहीलाई मात्र उद्धृत गर्दछ।
समयसँगै, यी प्रणालीहरूमा निर्भरता, र तिनीहरू बीच बहुआयामिक अन्तरक्रियाको अस्तित्वले "पुनरावृत्तिको अभिशाप" सिर्जना गर्न सक्छ (शुमाइलोभ एट अल।, २०२३), जसमा मानव ज्ञानको मूल विविधतामा हाम्रो पहुँच आंशिक र बढ्दो रूपमा साँघुरो उपसमूह विचारहरूद्वारा मध्यस्थता गरिन्छ। LLM-आधारित प्रणालीहरूको बढ्दो एकीकरणसँगै, प्रशिक्षण डेटामा सामान्य रहेका केही लोकप्रिय स्रोतहरू वा विश्वासहरू सार्वजनिक मानसिकतामा (र प्रशिक्षण डेटा भित्र) सुदृढ हुन सक्छन्, जबकि अन्य "लामो-पुच्छर" विचारहरू बेवास्ता गरिन्छन् र अन्ततः बिर्सिन्छन्।
यस्तो प्रक्रियालाई 'इको चेम्बर' वा सूचना क्यास्केड प्रभावद्वारा बलियो बनाउन सकिन्छ, जसमा यस प्रतिबन्धित जानकारीको सेटमा बारम्बार एक्सपोजरले व्यक्तिहरूलाई विश्वास गर्न बाध्य पार्छ कि ज्ञानको उपेक्षित, अवलोकन नगरिएको पुच्छरहरू कम मूल्यका छन्। एआईले निश्चित प्रकारको जानकारीमा पहुँचको लागतलाई मौलिक रूपमा छुट दिन सक्ने हदसम्म, यसले "स्ट्रिटलाइट प्रभाव" मार्फत थप हानि उत्पन्न गर्न सक्छ, जसमा उज्यालो क्षेत्र अन्तर्गत असमान मात्रामा खोजी गरिन्छ किनभने यसमा कसैको साँचोहरू समावेश हुने सम्भावना बढी हुन्छ तर त्यहाँ हेर्न सजिलो हुन्छ। हामी तर्क गर्छौं कि मानव ज्ञानको पुच्छरको परिणामस्वरूप कटौतीले निष्पक्षता, विविधताको समावेश, नवप्रवर्तनमा हराएको लाभ, र मानव संस्कृतिको सम्पदाको संरक्षण सहित विभिन्न चिन्ताहरूमा महत्त्वपूर्ण प्रभाव पार्नेछ।
हाम्रो सिमुलेशन मोडेलमा, यद्यपि, हामी यो सम्भावनालाई पनि विचार गर्छौं कि मानिसहरूले आफ्नो सूचना स्रोतहरूलाई सक्रिय रूपमा क्युरेट गर्न रणनीतिक छन्। यदि, हामीले तर्क गरेझैं, ज्ञानका ताई क्षेत्रहरूमा महत्त्वपूर्ण मूल्य छ जुन एआई-उत्पन्न सामग्रीद्वारा बेवास्ता गरिन्छ भने, केही व्यक्तिहरूले सम्भावित मूल्यको बारेमा पर्याप्त रूपमा सूचित छन् भनी मान्दै लाभहरू प्राप्त गर्न थप प्रयास गर्न सक्छन्।
हामी एउटा गतिशील पहिचान गर्छौं जहाँ एआईले निश्चित प्रकारको जानकारीमा पहुँचको लागत घटाए पनि, "ज्ञानको पतन" निम्त्याउन सक्छ, ज्ञानको लामो पुच्छरलाई बेवास्ता गर्दै र पुस्ताहरूमा पतित रूपमा साँघुरो दृष्टिकोण सिर्जना गर्दछ। हामी एक सकारात्मक ज्ञान फैलावट मोडेल प्रदान गर्दछौं जसमा व्यक्तिहरूले सस्तो एआई प्रविधिमा भर पर्ने वा साँचो ज्ञानको पूर्ण वितरणबाट नमूनाहरूमा लगानी गर्ने निर्णय गर्छन्। हामी समाज भित्र ज्ञानको पतन रोक्नको लागि व्यक्तिहरूलाई पर्याप्त रूपमा सूचित गरिएको अवस्थाहरूको सिमुलेशन मार्फत जाँच गर्छौं। अन्तमा, हामी एआई-युगमा ज्ञानको पतन रोक्न सम्भावित समाधानहरूको सिंहावलोकनको साथ निष्कर्ष निकाल्छौं।
यो पेपर CC BY-NC-SA 4.0 DEED लाइसेन्स अन्तर्गत arxiv मा उपलब्ध छ।