paint-brush
AI-க்கு நன்றாகத் தெரியும் - ஆனால் நீங்கள் அதை ஏற்றுக்கொண்டால் மட்டுமே.மூலம்@modeltuning
453 வாசிப்புகள்
453 வாசிப்புகள்

AI-க்கு நன்றாகத் தெரியும் - ஆனால் நீங்கள் அதை ஏற்றுக்கொண்டால் மட்டுமே.

மூலம் Model Tuning4m2025/02/17
Read on Terminal Reader

மிக நீளமானது; வாசிப்பதற்கு

தகவல்களை அணுகுவதற்கான செலவை AI குறைக்கிறது, ஆனால் முக்கிய அறிவை ஆதரிக்கும் அதன் போக்கு "அறிவு சரிவுக்கு" வழிவகுக்கும், பன்முகத்தன்மையைக் கட்டுப்படுத்தும் மற்றும் புதுமைகளைத் தடுக்கும். AI-உருவாக்கும் உள்ளடக்கத்தை நம்பியிருப்பது பொது நம்பிக்கைகளை எவ்வாறு பாதிக்கிறது என்பதை இந்த ஆய்வு மாதிரியாகக் கொண்டுள்ளது மற்றும் அறிவு வீழ்ச்சியை எதிர்ப்பதற்கான உத்திகளை பரிந்துரைக்கிறது.
featured image - AI-க்கு நன்றாகத் தெரியும் - ஆனால் நீங்கள் அதை ஏற்றுக்கொண்டால் மட்டுமே.
Model Tuning HackerNoon profile picture
0-item

ஆசிரியர்:

(1) ஆண்ட்ரூ ஜே. பீட்டர்சன், போய்ட்டியர்ஸ் பல்கலைக்கழகம் (andrew.peterson@univ-poitiers.fr).

இணைப்புகளின் அட்டவணை

சுருக்கம் மற்றும் அறிமுகம்

தொடர்புடைய வேலை

ஊடகம், வடிகட்டி குமிழ்கள் மற்றும் எதிரொலி அறைகள்

நெட்வொர்க் விளைவுகள் மற்றும் தகவல் அடுக்குகள்

மாதிரி சுருக்கம்

எல்.எல்.எம்-களில் அறியப்பட்ட சார்புகள்

அறிவுச் சரிவின் ஒரு மாதிரி

முடிவுகள்

கலந்துரையாடல் மற்றும் குறிப்புகள்


பின் இணைப்பு

வால்களின் அகலத்தை ஒப்பிடுதல்

அறிவுச் சரிவை வரையறுத்தல்

சுருக்கம்

செயற்கை நுண்ணறிவு அதிக அளவிலான தரவைச் செயலாக்கவும், புதிய நுண்ணறிவுகளை உருவாக்கவும், அதிக உற்பத்தித்திறனைத் திறக்கவும் ஆற்றலைக் கொண்டிருந்தாலும், அதன் பரவலான ஏற்றுக்கொள்ளல் எதிர்பாராத விளைவுகளை ஏற்படுத்தக்கூடும். சில அறிவு முறைகளுக்கான அணுகல் செலவைக் குறைப்பதன் மூலம், AI எந்த நிலைமைகளின் கீழ் பொதுமக்களின் புரிதலுக்கு முரண்பாடாக தீங்கு விளைவிக்கும் என்பதை நாங்கள் அடையாளம் காண்கிறோம். பெரிய மொழி மாதிரிகள் பரந்த அளவிலான மாறுபட்ட தரவுகளில் பயிற்சியளிக்கப்பட்டாலும், அவை இயற்கையாகவே விநியோகத்தின் 'மையத்தை' நோக்கி வெளியீட்டை உருவாக்குகின்றன. இது பொதுவாக பயனுள்ளதாக இருக்கும், ஆனால் சுழல்நிலை AI அமைப்புகளை பரவலாக நம்பியிருப்பது "அறிவு சரிவு" என்று நாம் வரையறுக்கும் ஒரு செயல்முறைக்கு வழிவகுக்கும், மேலும் இது புதுமை மற்றும் மனித புரிதல் மற்றும் கலாச்சாரத்தின் செழுமைக்கு தீங்கு விளைவிக்கும் என்று வாதிடுகிறது. இருப்பினும், எந்தத் தரவைப் பயிற்றுவிக்க வேண்டும் என்பதைத் தேர்வுசெய்ய முடியாத AI மாதிரிகளைப் போலல்லாமல், மனிதர்கள் பல்வேறு வகையான அறிவை மதிப்புமிக்கதாகக் கருதினால் அவற்றை மூலோபாய ரீதியாகத் தேடலாம். இதை ஆராய, கற்பவர்கள் அல்லது புதுமைப்பித்தன்களின் சமூகம் பாரம்பரிய முறைகளைப் பயன்படுத்த அல்லது தள்ளுபடி செய்யப்பட்ட AI-உதவி செயல்முறையை நம்பியிருக்க தேர்வுசெய்து, அறிவு சரிவு ஏற்படும் நிலைமைகளை அடையாளம் காணும் ஒரு எளிய மாதிரியை நாங்கள் வழங்குகிறோம். எங்கள் இயல்புநிலை மாதிரியில், AI-உருவாக்கப்பட்ட உள்ளடக்கத்தில் 20% தள்ளுபடி என்பது தள்ளுபடி இல்லாததை விட உண்மையிலிருந்து 2.3 மடங்கு தொலைவில் பொது நம்பிக்கைகளை உருவாக்குகிறது. இறுதியாக, முடிவுகளின் அடிப்படையில், அத்தகைய விளைவுகளை எதிர்ப்பதற்கான கூடுதல் ஆராய்ச்சி வழிமுறைகளை நாங்கள் பரிசீலிக்கிறோம்.

அறிமுகம்

உருவாக்க AI வருவதற்கு முன்பு, அனைத்து உரை மற்றும் கலைப்படைப்புகளும் மனிதர்களால் உருவாக்கப்பட்டன, சில சந்தர்ப்பங்களில் கருவிகள் அல்லது கணினி அமைப்புகளின் உதவியுடன். பெரிய மொழி மாதிரிகள் (LLMகள்) கிட்டத்தட்ட பூஜ்ஜிய மனித முயற்சியுடன் உரையை உருவாக்கும் திறன், படங்கள், ஆடியோ மற்றும் வீடியோவை உருவாக்கும் மாதிரிகளுடன் சேர்ந்து, மனிதர்கள் வெளிப்படும் தரவு AI-உருவாக்கப்பட்ட அல்லது AI-உதவி செயல்முறைகளால் ஆதிக்கம் செலுத்தப்படலாம் என்பதைக் குறிக்கிறது.


செயற்கை உரையில் AI மாதிரிகளை மீண்டும் மீண்டும் பயிற்சி செய்வது "மாதிரி சரிவு" எனப்படும் சீரழிவுக்கு வழிவகுக்கும் என்று ஆராய்ச்சியாளர்கள் குறிப்பிட்டுள்ளனர் (ஷுமைலோவ் மற்றும் பலர், 2023). இந்த கவலையின் தலைகீழ் பக்கத்தில் எங்கள் ஆர்வம் உள்ளது, அதற்கு பதிலாக மனித சமூகத்திற்குள் அறிவு விநியோகத்தில் சமநிலை விளைவுகளில் கவனம் செலுத்துகிறது. எந்த சூழ்நிலையில் AI-உருவாக்கப்பட்ட உள்ளடக்கம் மற்றும் AI-மத்தியஸ்த தகவலுக்கான அணுகல் ஆகியவை மனித சிந்தனை, தகவல் தேடுதல் மற்றும் அறிவின் எதிர்காலத்திற்கு தீங்கு விளைவிக்கும் என்று நாங்கள் கேட்கிறோம்.


AI-உருவாக்கிய தகவல்களின் ஆரம்ப விளைவு குறைவாகவே இருக்கும், மேலும் AI-யின் தீங்குகள் குறித்த தற்போதைய பணிகள், "deepfakes" (Heidari et al., 2023) மூலம் பரப்பப்படும் தவறான தகவல்களின் உடனடி விளைவுகள், AI வழிமுறைகளில் சார்பு (Nazer et al., 2023) மற்றும் அரசியல் தவறான தகவல்கள் (Chen and Shu, 2023) ஆகியவற்றில் சரியாக கவனம் செலுத்துகின்றன. எங்கள் கவனம் ஓரளவு நீண்ட கால எல்லையைக் கொண்டுள்ளது, மேலும் ஓரளவு தத்தெடுப்பை விட பரவலான தாக்கத்தை ஆராய்கிறது.


ஆராய்ச்சியாளர்கள் மற்றும் பொறியியலாளர்கள் தற்போது பல்வேறு அமைப்புகளை உருவாக்கி வருகின்றனர், இதன் மூலம் AI மற்ற மனிதர்களுடனும் தகவல் மூலங்களுடனும் நமது அனுபவத்தை மத்தியஸ்தம் செய்யும். LLM களில் இருந்து கற்றுக்கொள்வது (Chen, Chen, and Lin, 2020), LLM களில் இருந்து தேடல் முடிவுகளை தரவரிசைப்படுத்துதல் அல்லது சுருக்கமாகக் கூறுதல் (Sharma, Liao, and Xiao, 2024), பாரம்பரிய தானியங்குநிரப்புதலுடன் எழுத தேடல் சொற்கள் அல்லது சொற்களை பரிந்துரைத்தல் (Graham, 2023; Chonka, Diepeveen, and Haile, 2023), கூட்டுப்பணியாளர்களை இணைக்க அமைப்புகளை வடிவமைத்தல் (Ball and Lewis, 2018), விக்கிபீடியாவிலிருந்து பெறப்பட்ட அறிவுத் தளங்களை LLM அடிப்படையிலான நிறைவு செய்தல் (Chen, Razniewski, and Weikum, 2023), அரசாங்கத் தரவை விளக்குதல் (Fisher, 2024) மற்றும் பத்திரிகையாளர்களுக்கு உதவுதல் (Opdahl et al., 2023), தொடர்ந்து வளர்ந்து வரும் பட்டியலிலிருந்து சிலவற்றை மட்டுமே மேற்கோள் காட்டுகின்றன.


காலப்போக்கில், இந்த அமைப்புகளைச் சார்ந்திருத்தல் மற்றும் அவற்றுக்கிடையே பன்முகத் தொடர்புகள் இருப்பது, "மறுநிகழ்வின் சாபத்தை" உருவாக்கக்கூடும் (ஷுமைலோவ் மற்றும் பலர், 2023), இதில் மனித அறிவின் அசல் பன்முகத்தன்மைக்கான நமது அணுகல் பகுதியளவு மற்றும் குறுகிய பார்வைகளின் துணைக்குழுவால் பெருகிய முறையில் மத்தியஸ்தம் செய்யப்படுகிறது. LLM-அடிப்படையிலான அமைப்புகளின் அதிகரித்து வரும் ஒருங்கிணைப்புடன், பயிற்சித் தரவுகளில் பொதுவாகக் காணப்பட்ட சில பிரபலமான ஆதாரங்கள் அல்லது நம்பிக்கைகள் பொது மனநிலையில் (மற்றும் பயிற்சித் தரவுகளுக்குள்) வலுப்படுத்தப்படலாம், அதே நேரத்தில் பிற "நீண்ட வால்" கருத்துக்கள் புறக்கணிக்கப்பட்டு இறுதியில் மறக்கப்படுகின்றன.


இத்தகைய செயல்முறை 'எக்கோ சேம்பர்' அல்லது தகவல் அடுக்கு விளைவு மூலம் வலுப்படுத்தப்படலாம், இதில் இந்த வரையறுக்கப்பட்ட தகவல் தொகுப்பை மீண்டும் மீண்டும் வெளிப்படுத்துவது, புறக்கணிக்கப்பட்ட, கவனிக்கப்படாத அறிவின் வால்கள் சிறிய மதிப்புடையவை என்று தனிநபர்களை நம்ப வைக்கிறது. சில வகையான தகவல்களை அணுகுவதற்கான செலவை AI தீவிரமாகக் குறைக்கும் அளவிற்கு, அது "தெருவிளக்கு விளைவு" மூலம் மேலும் தீங்கு விளைவிக்கும், இதில் ஒளிரும் பகுதியின் கீழ் விகிதாசாரமற்ற அளவு தேடல் செய்யப்படுகிறது, ஏனெனில் அது ஒருவரின் சாவிகளைக் கொண்டிருக்க அதிக வாய்ப்புள்ளது, ஆனால் அங்கு பார்ப்பது எளிதானது. மனித அறிவின் வால்களைக் குறைப்பது நியாயத்தன்மை, பன்முகத்தன்மையைச் சேர்ப்பது, புதுமையில் இழந்த லாபங்கள் மற்றும் மனித கலாச்சாரத்தின் பாரம்பரியத்தைப் பாதுகாத்தல் உள்ளிட்ட பல்வேறு கவலைகளில் குறிப்பிடத்தக்க விளைவுகளை ஏற்படுத்தும் என்று நாங்கள் வாதிடுகிறோம்.


இருப்பினும், எங்கள் உருவகப்படுத்துதல் மாதிரியில், மனிதர்கள் தங்கள் தகவல் மூலங்களை தீவிரமாக நிர்வகிப்பதில் மூலோபாயமாக இருப்பதற்கான சாத்தியக்கூறுகளையும் நாங்கள் கருதுகிறோம். நாங்கள் வாதிடுவது போல, AI-உருவாக்கிய உள்ளடக்கத்தால் புறக்கணிக்கப்படும் அறிவுப் பகுதிகளில் குறிப்பிடத்தக்க மதிப்பு இருந்தால், சில தனிநபர்கள் சாத்தியமான மதிப்பைப் பற்றி போதுமான அளவு அறிந்திருப்பதாகக் கருதி, ஆதாயங்களை உணர கூடுதல் முயற்சியை மேற்கொள்ளலாம்.

முக்கிய பங்களிப்புகளின் சுருக்கம்

சில வகையான தகவல்களை அணுகுவதற்கான செலவை மட்டுமே குறைத்தாலும், AI "அறிவு சரிவுக்கு" வழிவகுக்கும், அறிவின் நீண்ட வால்களைப் புறக்கணித்து, தலைமுறைகளாக சீரழிந்த குறுகிய கண்ணோட்டத்தை உருவாக்கும் ஒரு இயக்கவியலை நாங்கள் அடையாளம் காண்கிறோம். மலிவான AI தொழில்நுட்பத்தை நம்புவதா அல்லது உண்மையான அறிவின் முழு விநியோகத்திலிருந்து மாதிரிகளில் முதலீடு செய்வதா என்பதை தனிநபர்கள் தீர்மானிக்கும் ஒரு நேர்மறையான அறிவுத் தெளிப்பு மாதிரியை நாங்கள் வழங்குகிறோம். சமூகத்திற்குள் அறிவு சரிவைத் தடுக்க தனிநபர்கள் போதுமான அளவு தகவல் பெற்றுள்ள நிலைமைகளை உருவகப்படுத்துதல்கள் மூலம் நாங்கள் ஆராய்வோம். இறுதியாக, AI-சகாப்தத்தில் அறிவு சரிவைத் தடுப்பதற்கான சாத்தியமான தீர்வுகளின் கண்ணோட்டத்துடன் முடிக்கிறோம்.