paint-brush
Tekoäly tietää parhaiten – mutta vain jos olet sen kanssa samaa mieltäkirjoittaja@modeltuning
453 lukemat
453 lukemat

Tekoäly tietää parhaiten – mutta vain jos olet sen kanssa samaa mieltä

kirjoittaja Model Tuning4m2025/02/17
Read on Terminal Reader

Liian pitkä; Lukea

Tekoäly vähentää tiedon saannin kustannuksia, mutta sen taipumus suosia valtavirtatietoa voi johtaa "tiedon romahtamiseen", monimuotoisuuden rajoittamiseen ja innovaatioiden tukahduttamiseen. Tämä tutkimus mallintaa, kuinka tekoälyn luomaan sisältöön luottaminen vaikuttaa yleiseen uskomukseen, ja ehdottaa strategioita tiedon vähenemisen estämiseksi.
featured image - Tekoäly tietää parhaiten – mutta vain jos olet sen kanssa samaa mieltä
Model Tuning HackerNoon profile picture
0-item

Tekijä:

(1) Andrew J. Peterson, Poitiersin yliopisto (andrew.peterson@univ-poitiers.fr).

Linkkitaulukko

Abstrakti ja johdanto

Aiheeseen liittyviä töitä

Media, suodatinkuplat ja kaikukammiot

Verkkoefektit ja tietokaskadit

Mallin romahtaminen

Tunnettuja ennakkoluuloja LLM:issä

Tiedon romahtamisen malli

Tulokset

Keskustelu ja referenssit


Liite

Hänntien leveyden vertailu

Määrittelevä tiedon romahdus

Abstrakti

Vaikka tekoälyllä on potentiaalia käsitellä valtavia määriä dataa, tuottaa uusia oivalluksia ja parantaa tuottavuutta, sen laajalle levinneellä käyttöönotolla voi olla odottamattomia seurauksia. Tunnistamme olosuhteet, joissa tekoäly voi paradoksaalisesti vahingoittaa yleistä ymmärrystä vähentämällä tiettyjen tiedon muotojen saatavuuden kustannuksia. Vaikka suuria kielimalleja koulutetaan valtaviin määriin monipuolista dataa, ne luovat luonnollisesti tulosteita jakelun "keskipisteeseen". Tämä on yleensä hyödyllistä, mutta laajalle levinnyt riippuvuus rekursiivisista tekoälyjärjestelmistä voi johtaa prosessiin, jonka määrittelemme "tiedon romahtamiseksi", ja väitämme, että tämä voisi vahingoittaa innovaatioita sekä ihmisten ymmärryksen ja kulttuurin rikkautta. Toisin kuin tekoälymallit, jotka eivät voi valita, minkä tiedon perusteella he ovat koulutettuja, ihmiset voivat strategisesti etsiä erilaisia tiedon muotoja, jos he pitävät niitä hyödyllisinä. Tämän tutkimiseksi tarjoamme yksinkertaisen mallin, jossa oppijoiden tai innovaattorien yhteisö päättää käyttää perinteisiä menetelmiä tai luottaa alennettuun tekoälyavusteiseen prosessiin ja tunnistaa olosuhteet, joissa tiedon romahdus tapahtuu. Oletusmallissamme 20 %:n alennus tekoälyn tuottamasta sisällöstä luo julkisia uskomuksia 2,3 kertaa kauemmaksi totuudesta kuin silloin, kun alennusta ei ole. Lopuksi, tulosten perusteella harkitsemme lisätutkimussuuntia tällaisten tulosten torjumiseksi.

Johdanto

Ennen generatiivisen tekoälyn tuloa kaikki tekstit ja taideteokset olivat ihmisten tuottamia, joissakin tapauksissa työkalujen tai tietokonejärjestelmien avulla. Suurten kielimallien (LLM) kyky tuottaa tekstiä lähes nollalla ihmisen ponnisteluilla, mutta mallit, jotka luovat kuvia, ääntä ja videota, viittaavat siihen, että tekoälyn tuottamat tai tekoälyn tukemat prosessit voivat hallita tietoja, joille ihmiset altistuvat.


Tutkijat ovat havainneet, että tekoälymallien rekursiivinen harjoittelu synteettiselle tekstille voi johtaa rappeutumiseen, joka tunnetaan nimellä "mallin romahdus" (Shumailov et al., 2023). Kiinnostuksemme on tämän huolen käänteinen, keskittyen sen sijaan tasapainovaikutuksiin tiedon jakautumisessa ihmisyhteiskunnassa. Kysymme, missä olosuhteissa tekoälyn tuottaman sisällön lisääntyminen ja tekoälyn välittämä tiedon saatavuus voivat vahingoittaa ihmisajattelun, tiedonhaun ja tiedon tulevaisuutta.


Tekoälyn tuottaman tiedon alkuperäinen vaikutus on oletettavasti rajallinen, ja nykyinen tekoälyn haittoja koskeva työ keskittyy oikeutetusti "deepfake"-välityksellä levittämän väärän tiedon välittömiin vaikutuksiin (Heidari et al., 2023), tekoälyalgoritmien harhaan (Nazer et al., 2023) ja poliittiseen väärään informaatioon (Chen ja Shu, 20). Painopisteemme on hieman pidempi aikahorisontti, ja se tutkii ennemminkin laajalle levinneen kuin marginaalisen käyttöönoton vaikutuksia.


Tutkijat ja insinöörit rakentavat parhaillaan erilaisia järjestelmiä, joiden avulla tekoäly välittää kokemuksiamme muiden ihmisten ja tietolähteiden kanssa. Näitä ovat oppiminen LLM:iltä (Chen, Chen ja Lin, 2020), hakutulosten rankaisemisesta tai yhteenvetämisestä LLM:ien kanssa (Sharma, Liao ja Xiao, 2024), hakutermien tai sanojen ehdottamisesta kirjoitettavaksi kuten perinteisessä automaattisessa täydennyksessä (Graham, 2023; Chonka, Diepeveen ja Haile), suunnittelusta (20, 2B ja Pa3) järjestelmiin. 2018), Wikipediasta (Chen, Razniewski ja Weikum, 2023) hankittujen tietokantojen LLM-pohjainen täydennys, tulkitsemalla hallituksen tietoja (Fisher, 2024) ja auttamalla toimittajia (Opdahl et al., 2023), mainitakseni vain muutamia jatkuvasti kasvavasta luettelosta.


Ajan mittaan riippuvuus näistä järjestelmistä ja monitahoisten vuorovaikutusten olemassaolo niiden välillä voi luoda "rekursion kirouksen" (Shumailov et al., 2023), jossa pääsymme alkuperäiseen ihmistiedon monimuotoisuuteen välittyy yhä enemmän osittaisten ja yhä kapeampien näkemysten osajoukon kautta. LLM-pohjaisten järjestelmien lisääntyvän integroinnin myötä tietyt suositut lähteet tai uskomukset, jotka olivat yleisiä koulutustiedoissa, saattavat vahvistua yleisessä ajattelutavassa (ja koulutustiedoissa), kun taas muut "pitkähäntä" ideat jätetään huomiotta ja lopulta unohdetaan.


Tällaista prosessia saattaa vahvistaa "kaikukammio" tai informaatiokaskadivaikutus, jossa toistuva altistuminen tälle rajoitetulle informaatiojoukolle saa yksilöt uskomaan, että tiedon laiminlyötyillä, huomaamattomilla tiedoilla on vähän arvoa. Siltä osin kuin tekoäly voi radikaalisti alentaa tietyntyyppisten tietojen käyttökustannuksia, se voi edelleen aiheuttaa haittaa "katuvaloefektin" kautta, jossa valaistun alueen alla etsitään suhteettoman paljon, ei siksi, että se sisältää todennäköisemmin avaimia, vaan siksi, että sieltä on helpompi katsoa. Väitämme, että tuloksena oleva inhimillisen tiedon hännän supistaminen vaikuttaisi merkittävästi useisiin huolenaiheisiin, mukaan lukien oikeudenmukaisuus, monimuotoisuuden sisällyttäminen, innovaatioiden menetetyt hyödyt ja ihmiskulttuurin perinnön säilyttäminen.


Simulaatiomallissamme harkitsemme kuitenkin myös sitä mahdollisuutta, että ihmiset ovat strategisia tietolähteiensä aktiivisessa kuratoinnissa. Jos, kuten väitämme, niillä tiedon osa-alueilla, jotka jäävät huomiotta tekoälyn tuottaman sisällön vuoksi, on merkittävää arvoa, jotkut henkilöt voivat ponnistella lisää saavuttaakseen hyödyt, olettaen, että he ovat riittävästi perillä mahdollisesta arvosta.

Yhteenveto tärkeimmistä panostuksista

Tunnistamme dynamiikan, jossa tekoäly voi johtaa "tiedon romahtamiseen" huolimatta siitä, että se vähentää vain tietyntyyppisten tietojen saannin kustannuksia, jolloin tiedon pitkät pyrstöjä ei huomioida ja luodaan rappeutuneen kapea näkökulma sukupolvien yli. Tarjoamme positiivisen tietämyksen leviämismallin, jossa yksilöt päättävät, luottavatko halvempaan tekoälyteknologiaan vai investoivatko näytteisiin todellisen tiedon täyden jakelusta. Tutkimme simulaatioiden avulla olosuhteita, joissa yksilöt ovat riittävästi tietoisia estääkseen tiedon romahtamisen yhteiskunnassa. Lopuksi teemme yleiskatsauksen mahdollisista ratkaisuista, joilla estetään tiedon romahtaminen tekoälyn aikakaudella.


Tämä paperi on saatavilla arxivissa CC BY-NC-SA 4.0 DEED -lisenssillä.