paint-brush
AI ведае лепш за ўсё, але толькі калі вы з гэтым згодныяпа@modeltuning
453 чытанні
453 чытанні

AI ведае лепш за ўсё, але толькі калі вы з гэтым згодныя

па Model Tuning4m2025/02/17
Read on Terminal Reader

Занадта доўга; Чытаць

ШІ зніжае кошт доступу да інфармацыі, але яго тэндэнцыя аддаваць перавагу асноўным ведам можа прывесці да «калапсу ведаў», абмяжоўваючы разнастайнасць і душачы інавацыі. Гэта даследаванне мадэлюе, як залежнасць ад кантэнту, створанага штучным інтэлектам, уплывае на грамадскія перакананні, і прапануе стратэгіі супрацьдзеяння зніжэнню ведаў.
featured image - AI ведае лепш за ўсё, але толькі калі вы з гэтым згодныя
Model Tuning HackerNoon profile picture
0-item

Аўтар:

(1) Эндру Дж. Петэрсан, Універсітэт Пуацье (andrew.peterson@univ-poitiers.fr).

Табліца спасылак

Анатацыя і ўводзіны

Звязаная праца

Носьбіт, бурбалкі фільтра і рэхакамеры

Сеткавыя эфекты і інфармацыйныя каскады

Развал мадэлі

Вядомыя ўхілы ў LLM

Мадэль калапсу ведаў

Вынікі

Абмеркаванне і спасылка


дадатак

Параўнанне шырыні хвастоў

Вызначэнне калапсу ведаў

Анатацыя

Нягледзячы на тое, што штучны інтэлект мае патэнцыял для апрацоўкі велізарных аб'ёмаў даных, стварэння новых ідэй і павышэння прадукцыйнасці, яго шырокае распаўсюджванне можа пацягнуць за сабой непрадбачаныя наступствы. Мы вызначаем умовы, пры якіх ШІ, зніжаючы кошт доступу да пэўных відаў ведаў, парадаксальным чынам можа нанесці шкоду грамадскаму разуменню. У той час як вялікія моўныя мадэлі навучаюцца на вялізных аб'ёмах разнастайных даных, яны натуральным чынам генеруюць выхад у «цэнтр» размеркавання. У цэлым гэта карысна, але шырокая залежнасць ад рэкурсіўных сістэм штучнага інтэлекту можа прывесці да працэсу, які мы вызначаем як «калапс ведаў», і сцвярджаем, што гэта можа нанесці шкоду інавацыям і багаццю чалавечага разумення і культуры. Аднак, у адрозненне ад мадэляў штучнага інтэлекту, якія не могуць выбіраць, на якіх дадзеных яны навучаюцца, людзі могуць стратэгічна шукаць розныя формы ведаў, калі яны лічаць іх карыснымі. Каб даследаваць гэта, мы прапануем простую мадэль, у якой супольнасць навучэнцаў або наватараў выбірае выкарыстанне традыцыйных метадаў або абапірацца на льготны працэс з дапамогай штучнага інтэлекту і вызначае ўмовы, пры якіх адбываецца калапс ведаў. У нашай мадэлі па змаўчанні зніжка ў 20% на кантэнт, створаны штучным інтэлектам, у 2,3 разы далей ад ісціны, чым калі скідкі няма. Нарэшце, на аснове вынікаў мы разглядаем далейшыя напрамкі даследаванняў, каб супрацьстаяць такім вынікам.

Уводзіны

Да з'яўлення генератыўнага штучнага інтэлекту ўсе тэксты і ілюстрацыі ствараліся людзьмі, у некаторых выпадках з дапамогай інструментаў або камп'ютэрных сістэм. Аднак здольнасць вялікіх моўных мадэляў (LLM) ствараць тэкст практычна без чалавечых намаганняў, а таксама мадэлі для стварэння малюнкаў, аўдыё і відэа дазваляюць выказаць здагадку, што даныя, да якіх падвяргаюцца людзі, могуць пераважаць працэсы, створаныя штучным інтэлектам або з дапамогай штучнага інтэлекту.


Даследчыкі адзначылі, што рэкурсіўнае навучанне мадэляў штучнага інтэлекту на сінтэтычным тэксце можа прывесці да дэгенерацыі, вядомай як «калапс мадэлі» (Шумайлаў і інш., 2023). Нас цікавіць адваротны бок гэтай заклапочанасці, замест гэтага мы засяроджваемся на ўплыве раўнавагі на размеркаванне ведаў у чалавечым грамадстве. Мы пытаемся, пры якіх умовах рост кантэнту, створанага штучным інтэлектам, і апасродкаванага AI доступу да інфармацыі можа нанесці шкоду будучыні чалавечага мыслення, пошуку інфармацыі і ведаў.


Першапачатковы эфект ад інфармацыі, атрыманай штучным інтэлектам, як мяркуецца, абмежаваны, і існуючая праца па шкодзе штучнага інтэлекту справядліва сканцэнтравана на непасрэдных наступствах ілжывай інфармацыі, якая распаўсюджваецца з дапамогай «глыбокіх падробак» (Heidari et al., 2023), прадузятасці ў алгарытмах штучнага інтэлекту (Nazer et al., 2023) і палітычнай дэзінфармацыі (Chen and Shu, 2023). Наша ўвага накіравана на некалькі больш працяглы часовы гарызонт і даследуе ўплыў шырокага, а не маргінальнага прыняцця.


Даследчыкі і інжынеры ў цяперашні час ствараюць мноства сістэм, з дапамогай якіх штучны інтэлект будзе пасрэднічаць наш досвед зносін з іншымі людзьмі і з крыніцамі інфармацыі. Яны вар'іруюцца ад навучання ў LLM (Chen, Chen і Lin, 2020), ранжыравання або абагульнення вынікаў пошуку з дапамогай LLM (Sharma, Liao, and Xiao, 2024), прапановы пошукавых тэрмінаў або слоў для напісання пры традыцыйным аўтазапаўненні (Graham, 2023; Chonka, Diepeveen і Haile, 2023), распрацоўкі сістэм для аб'яднання супрацоўнікаў (Ball і Lewis, 2018), папаўненне баз ведаў з Вікіпедыі (Chen, Razniewski, and Weikum, 2023), інтэрпрэтацыя дзяржаўных даных (Fisher, 2024) і дапамога журналістам (Opdahl et al., 2023).


З цягам часу залежнасць ад гэтых сістэм і існаванне шматгранных узаемадзеянняў паміж імі можа стварыць «праклён рэкурсіі» (Шумайлаў і інш., 2023), у якім наш доступ да першапачатковай разнастайнасці чалавечых ведаў усё больш апасродкаваны частковай і ўсё больш вузкай часткай поглядаў. З павелічэннем інтэграцыі сістэм, заснаваных на LLM, пэўныя папулярныя крыніцы або перакананні, якія былі агульнымі ў вучэбных дадзеных, могуць умацавацца ў грамадскім свядомасці (і ў навучальных дадзеных), у той час як іншыя «доўгія хвасты» ідэі грэбуюць і ў канчатковым выніку забываюцца.


Такі працэс можа быць узмоцнены эфектам «рэха-камеры» або эфекту інфармацыйнага каскаду, пры якім шматразовае ўздзеянне гэтага абмежаванага набору інфармацыі прымушае людзей верыць, што забытыя, неназіраныя хвасты ведаў не маюць вялікага значэння. У той ступені, у якой штучны інтэлект можа радыкальна знізіць кошт доступу да пэўных відаў інфармацыі, ён можа яшчэ больш нанесці шкоду праз «эфект вулічнага святла», пры якім непрапарцыянальна вялікая колькасць пошуку праводзіцца ў асветленым месцы не таму, што ў ім больш верагодна, што ў ім знаходзяцца ключы, а таму, што там прасцей глядзець. Мы сцвярджаем, што выніковае згортванне хвастоў чалавечых ведаў акажа значны ўплыў на шэраг праблем, у тым ліку на справядлівасць, уключэнне разнастайнасці, страчаныя выгады ў інавацыях і захаванне спадчыны чалавечай культуры.


Тым не менш, у нашай сімуляцыйнай мадэлі мы таксама разглядаем магчымасць таго, што людзі займаюцца стратэгіяй актыўнага курыравання сваіх крыніц інфармацыі. Калі, як мы сцвярджаем, ёсць значная каштоўнасць у тых галінах ведаў, якімі грэбуе кантэнт, створаны штучным інтэлектам, некаторыя людзі могуць прыкласці дадатковыя намаганні, каб рэалізаваць выгады, мяркуючы, што яны дастаткова інфармаваныя аб патэнцыйнай каштоўнасці.

Рэзюмэ асноўных укладаў

Мы вызначаем дынаміку, пры якой ШІ, нягледзячы на тое, што толькі зніжае кошт доступу да пэўных відаў інфармацыі, можа прывесці да «калапсу ведаў», грэбуючы доўгімі хвастамі ведаў і ствараючы дэгенератыўна вузкую перспектыву на працягу пакаленняў. Мы прапануем мадэль станоўчага распаўсюджвання ведаў, у якой людзі вырашаюць, спадзявацца на больш танную тэхналогію штучнага інтэлекту або інвеставаць ва ўзоры поўнага распаўсюджвання сапраўдных ведаў. Мы разглядаем з дапамогай мадэлявання ўмовы, пры якіх людзі дастаткова інфармаваныя, каб прадухіліць калапс ведаў у грамадстве. Нарэшце, мы завяршаем агляд магчымых рашэнняў для прадухілення калапсу ведаў у эпоху штучнага інтэлекту.


Гэты дакумент даступны на arxiv пад ліцэнзіяй CC BY-NC-SA 4.0 DEED.