
May-akda:
(1) Andrew J. Peterson, Unibersidad ng Poitiers (andrew.peterson@univ-poitiers.fr).
Ang media, filter bubble at echo chamber
Mga epekto sa network at Mga Kaskad ng Impormasyon
Isang Modelo ng Pagbagsak ng Kaalaman
Paghahambing ng lapad ng mga buntot
Pagtukoy sa pagbagsak ng kaalaman
Bagama't ang artificial intelligence ay may potensyal na magproseso ng napakaraming data, makabuo ng mga bagong insight, at mag-unlock ng higit na produktibo, ang malawakang paggamit nito ay maaaring magsama ng mga hindi inaasahang kahihinatnan. Tinutukoy namin ang mga kundisyon kung saan ang AI, sa pamamagitan ng pagbawas sa gastos ng pag-access sa ilang mga mode ng kaalaman, ay maaaring makapinsala sa pampublikong pang-unawa. Habang ang mga malalaking modelo ng wika ay sinanay sa napakaraming magkakaibang data, natural silang bumubuo ng output patungo sa 'gitna' ng pamamahagi. Ito ay karaniwang kapaki-pakinabang, ngunit ang malawakang pag-asa sa mga recursive AI system ay maaaring humantong sa isang proseso na tinukoy namin bilang "pagbagsak ng kaalaman", at magtaltalan na maaari itong makapinsala sa pagbabago at ang kayamanan ng pag-unawa at kultura ng tao. Gayunpaman, hindi tulad ng mga modelo ng AI na hindi makakapili kung anong data ang kanilang sinanay, ang mga tao ay maaaring madiskarteng maghanap ng magkakaibang anyo ng kaalaman kung sa tingin nila ay kapaki-pakinabang ang mga ito. Para imbestigahan ito, nagbibigay kami ng simpleng modelo kung saan pinipili ng isang komunidad ng mga mag-aaral o innovator na gumamit ng mga tradisyonal na pamamaraan o umasa sa isang may diskwentong proseso na tinulungan ng AI at tukuyin ang mga kondisyon kung saan nangyayari ang pagbagsak ng kaalaman. Sa aming default na modelo, ang isang 20% na diskwento sa nilalamang binuo ng AI ay bumubuo ng mga pampublikong paniniwala nang 2.3 beses na mas malayo sa katotohanan kaysa kapag walang diskwento. Sa wakas, batay sa mga resulta, isinasaalang-alang namin ang mga karagdagang direksyon sa pananaliksik upang malabanan ang mga naturang resulta.
Bago ang pagdating ng generative AI, lahat ng teksto at likhang sining ay ginawa ng mga tao, sa ilang mga kaso ay tinulungan ng mga tool o computer system. Ang kakayahan ng mga malalaking modelo ng wika (LLM) na makabuo ng text na may halos zero na pagsisikap ng tao, gayunpaman, kasama ng mga modelo upang makabuo ng mga larawan, audio, at video, ay nagmumungkahi na ang data kung saan nalantad ang mga tao ay maaaring dominado ng AI-generated o AI-aided na mga proseso.
Napansin ng mga mananaliksik na ang recursive na pagsasanay ng mga modelo ng AI sa sintetikong teksto ay maaaring humantong sa pagkabulok, na kilala bilang "pagbagsak ng modelo" (Shumailov et al., 2023). Ang aming interes ay nasa kabaligtaran ng pag-aalala na ito, sa halip ay nakatuon sa mga epekto ng balanse sa pamamahagi ng kaalaman sa loob ng lipunan ng tao. Nagtatanong kami sa ilalim ng anong mga kundisyon na maaaring makapinsala sa hinaharap ng pag-iisip, paghahanap ng impormasyon, at kaalaman ng tao ang pag-usbong ng content na binuo ng AI at pag-access ng AI-mediated sa impormasyon.
Ang paunang epekto ng impormasyong nabuo ng AI ay malamang na limitado, at ang umiiral na gawain sa mga pinsala ng AI ay wastong nakatuon sa mga agarang epekto ng maling impormasyon na kumakalat ng "deepfakes" (Heidari et al., 2023), bias sa mga algorithm ng AI (Nazer et al., 2023), at maling impormasyon sa pulitika (Chen at Shu, 2023). Ang aming pagtuon ay may medyo mas mahabang abot-tanaw, at sinusuri ang epekto ng laganap, sa halip na marginal na pag-aampon.
Ang mga mananaliksik at inhinyero ay kasalukuyang gumagawa ng iba't ibang mga sistema kung saan ang AI ay mamamagitan sa aming karanasan sa ibang mga tao at sa mga mapagkukunan ng impormasyon. Ang mga ito ay mula sa pag-aaral mula sa mga LLM (Chen, Chen, at Lin, 2020), pagraranggo o pagbubuod ng mga resulta ng paghahanap gamit ang mga LLM (Sharma, Liao, at Xiao, 2024), na nagmumungkahi ng mga termino para sa paghahanap o mga salita na isusulat tulad ng tradisyonal na autocomplete (Graham, 2023; Chonka, Diepeveen, at Haile, 2023), mga sistema ng pagdidisenyo ng mga collaborator (Ball at Lewis). 2018), batay sa LLM na pagkumpleto ng mga base ng kaalaman na nagmula sa Wikipedia (Chen, Razniewski, at Weikum, 2023), pagbibigay-kahulugan sa data ng gobyerno (Fisher, 2024) at pagtulong sa mga mamamahayag (Opdahl et al., 2023), upang banggitin lamang ang ilan mula sa patuloy na lumalagong listahan.
Sa paglipas ng panahon, ang pag-asa sa mga sistemang ito, at ang pagkakaroon ng mga multifaceted na pakikipag-ugnayan sa kanila, ay maaaring lumikha ng isang "sumpa ng recursion" (Shumailov et al., 2023), kung saan ang ating pag-access sa orihinal na pagkakaiba-iba ng kaalaman ng tao ay lalong pinapamagitan ng isang bahagyang at lalong makitid na subset ng mga pananaw. Sa dumaraming integrasyon ng mga system na nakabatay sa LLM, ang ilang tanyag na pinagmumulan o paniniwala na karaniwan sa data ng pagsasanay ay maaaring mapalakas sa pampublikong mindset (at sa loob ng data ng pagsasanay), habang ang iba pang mga ideyang "mahabang buntot" ay napapabayaan at kalaunan ay nakalimutan.
Ang ganitong proseso ay maaaring palakasin ng isang 'echo chamber' o epekto ng cascade ng impormasyon, kung saan ang paulit-ulit na pagkakalantad sa pinaghihigpitang hanay ng impormasyon na ito ay humahantong sa mga indibidwal na maniwala na ang napabayaan, hindi naobserbahang mga buntot ng kaalaman ay walang halaga. Sa lawak na ang AI ay maaaring radikal na diskwento sa halaga ng pag-access sa ilang mga uri ng impormasyon, maaari itong higit pang makabuo ng pinsala sa pamamagitan ng "streetlight effect", kung saan ang isang hindi katimbang na dami ng paghahanap ay ginagawa sa ilalim ng may ilaw na lugar hindi dahil ito ay mas malamang na naglalaman ng mga susi ng isang tao ngunit dahil mas madaling tumingin doon. Nagtatalo kami na ang magreresultang pagbabawas ng mga buntot ng kaalaman ng tao ay magkakaroon ng makabuluhang epekto sa isang hanay ng mga alalahanin, kabilang ang pagiging patas, pagsasama ng pagkakaiba-iba, mga nawawalang pakinabang sa pagbabago, at ang pangangalaga ng pamana ng kultura ng tao.
Sa aming modelo ng simulation, gayunpaman, isinasaalang-alang din namin ang posibilidad na ang mga tao ay estratehiko sa aktibong pag-curate ng kanilang mga mapagkukunan ng impormasyon. Kung, tulad ng aming pinagtatalunan, may makabuluhang halaga sa mga lugar ng kaalaman ng tai' na napapabayaan ng nilalamang binuo ng AI, maaaring maglagay ng karagdagang pagsisikap ang ilang indibidwal upang matanto ang mga natamo, sa pag-aakalang sapat na ang kaalaman nila tungkol sa potensyal na halaga.
Tinutukoy namin ang isang dynamic na kung saan ang AI, sa kabila ng pagbabawas lamang ng gastos sa pag-access sa ilang uri ng impormasyon, ay maaaring humantong sa "pagbagsak ng kaalaman," pagpapabaya sa mahabang buntot ng kaalaman at paglikha ng isang napakaliit na pananaw sa mga henerasyon. Nagbibigay kami ng positibong modelo ng mga spillover ng kaalaman kung saan nagpapasya ang mga indibidwal kung aasa sa mas murang teknolohiya ng AI o mamumuhunan sa mga sample mula sa buong pamamahagi ng tunay na kaalaman. Sinusuri namin sa pamamagitan ng mga simulation ang mga kondisyon kung saan ang mga indibidwal ay sapat na kaalaman upang maiwasan ang pagbagsak ng kaalaman sa loob ng lipunan. Sa wakas, nagtatapos kami sa isang pangkalahatang-ideya ng mga posibleng solusyon upang maiwasan ang pagbagsak ng kaalaman sa panahon ng AI.
Ang papel na ito ay makukuha sa arxiv sa ilalim ng CC BY-NC-SA 4.0 DEED na lisensya.