Jezik malih otrok najbolje opisujejo slovnično specifične slovnice, ne pa abstraktne • Alexander Berdichevsky • Znanstvene novice o "Elementih" • Jezikoslovje, psihologija

Jezik malih otrok najbolje opisujejo leksikalne-specifične slovnice, ne pa abstraktne.

Ko mladi otroci začnejo govoriti, ne ustvarjajo stavkov iz samostanov, pridevnikov in glagolov v skladu s tradicionalnimi slovničnimi pravili, temveč uporabijo pripravljene fraze ali fraze in se postopoma naučijo zamenjati eno besedo z drugo. Fotografija s

Ko otrok uči svoj materni jezik, nihče še vedno ne ve. Teorije, ki opisujejo ta proces, se razlikujejo glede na to, koliko abstraktnega znanja pripisujejo otroku. Ameriško-nemška kognitivna skupina je pokazala, da so slovnice, zgrajene na podlagi uporabe konkretnega leksikalnega materiala, model otroškega govora bolje kot popolnoma abstraktne slovnice. Po poti so pokazali, da slovnica s starostjo, ki obstaja "v glavi" otroka, postane manj individualna; da je v treh letih veliko bolj zapleteno kot v dveh; in da v dveh letih otroci že imajo nekaj idej o kategoriji samostalnika, v treh letih pa o kategoriji glagola.

Univerzalna slovnica

Kako otrok uspeva obvladati jezik je eno najtežjih vprašanj v kognitivni znanosti.Presenetljivo je, na eni strani, kako hitro se to zgodi, in drugič, koliko majhnih zunanjih informacij otrok potrebuje, da bi povsem obvladal celoten jezikovni sistem.

Ena od hipotez, ki pojasnjuje obstoj takšnih sposobnosti, je obstoj nekakšne univerzalne slovnice (HS). HS je skupen niz pravil za vse jezike, ki jih oseba ni treba naučiti: njihova posest je prirojena sposobnost.

Zgodovina teorij, ki poskušajo opisati UG, se je začela v 50. letih 20. stoletja zahvaljujoč ameriškemu jezikoslovju Noamu Chomskyju. Chomsky je jasno opredelil hipotezo HS in predlagala jezikovno teorijo, v kateri bi jo lahko opisali. Ta teorija – generativna slovnica – je imela velik vpliv na vsa sodobna jezikoslovja in že dolgo časa je postala prevladujoča paradigma v njem.

Vendar pa nihče ni uspel ustvariti dober opis UG ali teorije, ki bi opisala, kako otrok uči določen jezik, ki temelji na njem. Sčasoma se je popularnost hipoteze UG zmanjšala, celo Chomsky pa ga je deloma opustil.

Kljub temu je bil vpliv Chomskyjevih zgodnjih idej tako dober, da je do sedaj precejšen del jezikovnih del posvečen spornosti s temi zamislimi in njihovimi zapuščinami.

Abstraktne kategorije

Primer takšne dediščine je pojem, da otrokovo jezikovno znanje vključuje številna abstraktna pravila in kategorije. Jezikovna kompetenca je sistem pravil, ki obstaja "v glavi" osebe in mu omogoča, da govori v danem jeziku.

V nedavni številki revije PNAS Colin Bannard z Univerze v Teksasu v Austinu, skupaj z Elena Liven in Michael Tomasello iz Inštituta za evolucijsko antropologijo v Leipzigu Max Planck, je to zamislil v dvomih.

Na podlagi prejšnjih študij o Tomazellu in Livenu, pa tudi o delu drugih avtorjev, raziskovalci domnevajo, da se jezikovne spretnosti majhnih otrok popolnoma razlikujejo od tistih odraslih. Zlasti abstraktne kategorije se za njega ne uporabljajo.

Primer abstraktne kategorije je del govora. Tudi če odrasli materni govornik ne pozna pogojev – recimo, glagol ali samostalnik – še vedno spozna te besede hodi, narediti, študirati obnašanje v eni smeri in tabelo, stol, članek – drugim. Besede iz prvega razreda imajo na primer različne čase, besede iz drugega pa imajo različne primere.

Glede na hipotezo raziskovalcev otroci nimajo znanja o teh dveh razredih, a le vedo o vedenju posameznih besed. Na podlagi tega posebnega znanja postopoma začnejo posploševati, najprej zasebne, nato pa vse bolj obsežne. Zato je treba ob upoštevanju te značilnosti opisati njihovo jezikovno usposobljenost. Na primer, nemogoče je uvesti pravilo: "glagol je vedno v skladu s samostalnikom v osebi in številko", ker je nepravilno delati s kategorijami "glagol" in "samostalnik".

Bannard, Liven in Tomazello so izumili metodo za preizkušanje te hipoteze. Bannard je opravil preizkus na velikem otroškem govoru.

Podatkovni list in postopek preverjanja

Korpus podatkov je obsegal govor dveh otrok: Annie in Brian. Raziskovalci so zabeležili in prepisali 30 ur govora za vsakega otroka v starosti dveh let in v starosti treh let (posnetki so bili opravljeni v šestih tednih po ustreznem rojstnem dnevu). uro pri treh letih) in doma (vse ostalo).

S primeri posnetkov otrokovega govora v formatu CHAT, ki jo je uporabila,To lahko najdete na spletnem mestu Child Data Exchange System (CHILDES). Sre Primer dialoga z mamo deklice, starega 2 leti in 4 mesece.

Glavna je bila uporabljena za samodejno oblikovanje formalne slovnice (za formalne gramatike, glej spodaj), ki bi modelirala otrokovo jezikovno kompetenco. S pomočjo posebnih statističnih metod je računalnik dobil slovnico, ki ustvarja vse izjave v tem korpusu. Natančneje, niti ena slovnica, ampak dve.

One – popolnoma abstraktno – je bil urejen v skladu s tradicionalnimi idejami o jezikovni kompetenci otroka. Prvič povzroči abstraktno sintaktično strukturo stavka (glej opis CGG-1 spodaj), nato pa besede vanj nadomestijo.

Drugi je leksikalno specifične – v skladu s stališči raziskovalcev. Ustvarja ne popolnoma abstraktne sintaktične strukture, ampak sheme, delno sestavljene iz konkretnih besed, delno – slotov (celic), ki so napolnjene z drugimi besedami ali shemami.

Nato so testirali obe gramati. Izkazalo se je, da slovnično specifična slovnica opisuje bolj kot popolno abstraktno.

Spodaj je splošen opis generatorjev slovnice – formalizem, na katerega se sklicujejo raziskovalci, nato opis dejanske slovnice Bannarda, nato pa podroben opis izvedenih poskusov in dobljenih rezultatov.

Ustvarjanje slovnic

Grammar brez konteksta

V splošnem primeru slovnica X je sistem pravil, ki za vsak stavek lahko ugotovi, ali je določen stavek slovnično pravilen v X ali ne, in če je tako, kako je urejeno. Če je ta sistem mogoče formalizirati in ga na primer naučiti računalniku, potem govorijo formalna slovnica.

Najbolj znani razred formalnih slovnic je generatorji ali generativno, slovnicaspet vodi v dela Chomsky. (Načeloma sta "generativna slovnica" in "generativna slovnica" enaka, vendar pa se jezikovna teorija Chomskega običajno imenuje "generativna slovnica" v ruskem jeziku, vrsta formalne slovnice pa je na splošno "generativna slovnica".) Generativna slovnica (PG) vam omogoča prikaz vseh pravilnih stavkov tega jezika in samo njih. GHG je skup generacijskih pravil (proizvodov) oblike X → Y (X gre v Y).Stoji levo od puščice leva stran pravila, kaj je na desni, oziroma, desno stran. Spomnimo se, da je najpomembnejša naloga Chamskya pojasniti, kako otrok uspeva dobro govoriti jezik (in ga razumeti), praktično brez učenja. PG opisujejo, kako naravni zvočnik ustvarja stavke. Zagovorniki toplogrednih plinov predlagajo, da je to ustrezen model dejanskih kognitivnih mehanizmov.

PG-ji so primerni ne le za generiranje, temveč tudi za analizo: praviloma z uporabo posebnih algoritmov (glej algoritem CYK), je mogoče hitro ugotoviti, ali je v določenem PG (ali je slovnično pravilno) ustvarjen določen stavek.

Najpomembnejši razred toplogrednih plinov je kontekstna slovnica (KSG). V KSG, kontekst, v katerem se nahaja, nikoli ne vpliva na levi del pravila (strogo gledano, v KSG ostaja točno en ne-terminalni znak).

Razmislite o preprosti slovnici KSG-1, ki povzroča skladenjske strukture nekaterih stavkov angleškega jezika (njegov jezikovni "pomen" je dan na levo od vsakega formalnega pravila):

PraviloJezikovna interpretacija
1S → NP VPStavek je sestavljen iz samostalne fraze in skupine glagolov.
2NP → ART NSkupina imen lahko sestavlja članek in samostalnik …
3NP → N… ali samo samostalnik …
4NP → PRILOGA N… ali pridevnik in samostalnik …
5NP → NP S*… ali iz nominalne skupine in stavka …
6NP → PRO… ali iz zaimka.
7VP → V NPGlagolsko skupino lahko sestavljajo glagol in samostalni izraz …
8VP → V VP… ali glagol in glagolsko skupino.

*Bodite pozorni na pravila 5 in 8: izrecno izražajo pomembno lastnost toplogrednih plinov – sposobnost modeliranja rekurzivne strukture jezik.

Tabela 1. Primer kontekstne slovnice. Pravila predavanja (PDF, 175 Kb) Jamesa Allena

Znak S je vedno vnesen. Razmislite, kaj se lahko zgodi kasneje. Na primer:

S → NP VP (po pravilu 1),

NP VP → PRO VP (v skladu s pravilom 6),

PRO VP → PRO V NP (po pravilu 7),

PRO V NP → PRO V ART N (v skladu s pravilom 2).

Skupaj smo ustvarili verigo PRO V ART N. Vprašanje je, kje je obljubljeni predlog angleškega jezika? Predstavljajte si, da je naš CSG dopolnjen s slovarjem angleškega jezika in uvajamo dodatna pravila tipa: N se lahko nadomesti s katerokoli samostalnikom, V – s katerimkoli glagolom itd. Potem lahko dobimo stavke, kot je npr. Vzel sem jabolko, Videl je mizo in tako dalje. Poleg tega, če se natančno spomnimo, kako smo izvirali iz tega stavka, ga bomo dobili sintaktična struktura. Zaradi jasnosti grafično prikazujemo generacijo:

Sl. 1. Analiza predloga v KSG-1

Vzeli smo zgradbo, imenovano drevo neposrednih komponent. Drevo sestavlja vozli. Izkušnje kažejo, da je to dober model sintaktične strukture stavka, vsaj z vidika jezikoslovca, ki se ukvarja samo z opisom jezika. Kako dobro odraža, kaj se dogaja v možganih, vprašanje je veliko bolj zapleteno.

Očitno je, da so v KSG-1 simboli ART, ADJ, N, PRO in V terminal: ne morejo stati na levi strani pravil. Vsak končni izdelek KSG-1 bo zaporedje teh znakov. S, NP in VP so ne-terminal znaki: v katerem koli končnem ustvarjenem zaporedju ne bodo. To je logično: simboli terminov so oznake delov govora, ki se bodo nadomestile z določenimi besedami, ne-terminalne pa večje skladenjske skupine, ki bodo nato nujno razčlenjene na nedeljive enote.

Verjetnostna slovnica brez slovnice

Preverite, ali lahko GGP-1 ustvari stavek Sovražim sitne sosede. Mogoče tudi na dva načina.Ta stavek je mogoče pripisati dvema različnim skladenjskim strukturam: »sovražim se moteč s sosedami« in »sovražim sosede, ki motijo ​​(jaz)«.

Sl. 2 Dva možna razčlenjevanja enega stavka v CRG. Slika iz predavanja (PDF, 175 Kb) Jamesa Allena

Pojavlja se vprašanje: ali je mogoče določiti, katere od teh struktur je bolj verjetno? V okviru običajnega KSG – ne. Za to so bili ustvarjeni verjetnostni (stohastični, verjetni) kontekstni gramati (Vssg).

V najpreprostejšem VKSG vsako pravilo ustreza verjetnosti, s katero se lahko realizira (izvajanje vseh pravil šteje za neodvisne dogodke).

Očitno je, na primer, da se v pravilu 1 izvaja pravilo 1 z verjetnostjo 1 (S vedno gre na NP VP). Toda, da bi verjetnosti pripisali pravilom 7 in 8, morate vedeti, kaj pogosto gre v skupino glagolov – glagol in glagolsko skupino ali glagol in samostalnik. Najvidnejši način, da ugotovimo, je vzeti veliko stavko, ki se lahko ustvari v tej slovnici, ročno zgradi skladenjsko strukturo vsakega stavka, izračuna frekvenco vsakega prehoda in ga vzame kot verjetnost.Izvajamo podoben izračun na mini paketu naših treh stavkov (obravnavali bomo drugi stavek za dva homonymousa). Prehod VP → V NP se zgodi trikrat, prehod VP → V VP pa enkrat. Skupna verjetnost izvedbenih pravil 7 je 0,75, pravila 8 pa 0,25.

Bralec lahko sam izračunava verjetnost za druga pravila in določi, katere strukture drugega stavka je bolj verjetno (ker menimo, da so izvedbe pravil neodvisni dogodki, lahko najdemo verjetnost ustvarjanja strukture z množenjem verjetnosti pravil). Ne morete biti omejeni na verjetnosti abstraktnih pravil, vendar upoštevajte verjetnost pravil leksikalne polnitve, na primer: V → sovraštvo, V → nadležno, ADJ → nadležno, itd.

Za to analizo jezikov se uporabljajo veliko bolj sofisticirani CGC in HKSA. V KSG-1, na primer, potreba po uskladitvi predmeta in predikata se nikakor ne odraža, zato je stavek tipa Vzamem jabolko priznava tudi pravico.

VKSG je bil temelj formalizma, ki ga je Bannard uporabil pri svojem delu.

Bannardov model

Raziskovalci se držijo hipoteze, da se otroci najprej naučijo zelo specifičnih konstrukcij, vezanih na določene besede.Postopoma (po dveh letih) te konstrukcije postanejo bolj abstraktne. Ta pristop se imenuje na podlagi uporabe, ki se lahko prevede kot uporabniško usmerjenoin v tem primeru kot usmerjen v besedišče. V tem pristopu se štejejo konkretne besede, stabilni izrazi, pa tudi bolj abstraktne konstrukcije.

V svojem modelu Bannard razlikuje med dvema vrstama znakov. Prva je posebni znaki: besede (pijte) izjave (Jaz hočeš pijte) ali deli izjav (hočeš pijte). Drugo – sheme – je sestavljen iz posebnih znakov in sloti – prazne kraje, kjer lahko vstavite druge znake (obeh vrst). Shema vedno vsebuje posebne besede.

Podobni znaki se lahko združijo v skupine, ki približno ustrezajo osnovnemu semantiku kategorije. Pri drstenju se za vsako vozlišče dodeli določena kategorija in jo lahko izpolnijo samo znaki te kategorije.

Na sliki. 3 prikazuje, kako lahko označite dve kategoriji, lahko ustvarite in analizirate frazo Moški hoče čokoladni piškoti z uporabo shem (desno) in brez njega (levo).

Sl. 3 Možna analiza fraz moški želi čokoladni piškoti. A – z uporabo samo posebnih znakov, B – z uporabo shem. Slika iz obravnavanega članka vPNAS

Le znaki, ki imenujejo predmet (nominalne skupine, samostalniki, zaimki itd.), Lahko spadajo v kategorijo REF (iz besede "referent"), znaki, ki pokličejo postopek ali akcijo (glagoli, skupine glagolov) spadajo v kategorijo PROCESS. Kategorija UTCAR ("izgovor") je uvedena za tehnične namene in je začetni simbol za vsako generacijo.

Naslednja približna analogija je mogoča med slovnico Bannard in GGP-1. Sheme so všeč ne-terminalni znaki: vsekakor jih bo dopolnilo nekaj drugega. Koncept kategorije ki niso izrecno zastopane v GC-1, vendar je očitno, da bi NP, N in PRO spadali v kategorijo REF, V in VP pa v kategorijo PROCESS. Posebni znaki so všeč terminalni simboliToda bistvena razlika je v tem, da ima Bannard določene znake kot konkretni leksikalni material, v CGS-1 pa so tudi abstraktni znaki. Zamenjali jih bodo s konkretnimi besedami šele v zaključni fazi, po nastanku skladenjske strukture.

To je glavna razlika med takšnim formalizmom in običajnim CRG: Bannard v pravem delu pravil vedno obstajajo posebne besede (vendar sodi po sliki,ta stavek ni pomemben za izdelavo prvega vozlišča iz kategorije storitve UTTERANCE). To daje avtorjem možnost, da imenujejo svoja pravila. leksikalno specifične, jim nasprotujejo abstraktnim pravilom in sčasoma pridejo do njihovih glavnih zaključkov.

Model dela

Slovnica Bannard je zgrajena na naslednji način. Za vsako izjavo v glavnem delu korpusa se iščejo vse druge izjave, ki imajo vsaj eno skupno besedo z navedenim. Najdeni vsi izjavi Izravnana (glej sliko 4.), po kateri se izločijo vse možne sheme in posebni znaki. V tem primeru bo shema izvlečena X ima X eno in posebne znake Mumija in to. Postopek poravnave in ekstrakcije se ponovi za vse podmnožice določene izjave, ki so sestavljene iz več kot ene besede (v tem primeru Mama je imela, Mama ima to, imam to, imam ta in ta) – in tako naprej.

Sl. 4 Po uskladitvi vseh izjav s splošnimi besedami se znaki izločijo. V tem primeru shema X ima X eno in posebne besede Mumija in to. Slika iz obravnavanega članka vPNAS

Po pridobitvi vseh možnih znakov je treba najti leksikalno specifičen HKSG, ki bi na podlagi teh znakov ustvaril vse izjave v korpusu.To se naredi samodejno z uporabo Bayesovega nenadzorovane slovnice (glej člene: M. Johnson et al., 2007. PCFGs preko Markovske verige Monte Carlo, PDF, 106 Kb, J. Finkel in drugi, 2007. Beskonačno drevo , PDF, 280 Kb, P. Liang et al., 2007. Infinite PCFG z uporabo hierarhičnih procesov Dirichlet, PDF, 262 Kb).

Niti kategorije niti pravila generiranja niso določene vnaprej, program sam po sebi izvira, izbiro optimalne slovnice (natančneje, ne ena pravilna, temveč obseg najprimernejših gramatov). Edina stvar, ki je postavljena, je prednost ekonomičnim slovnicam: tisti, v katerih je manj kategorij in znakov. Kot rezultat, izhajajoča slovnica v celoti oblikuje vse izjave v korpusu.

Abstraktna slovnica je zgrajena na enak način: program samodejno deli besedo v kategorije in prikaže pravila generiranja (X → Y). Število kategorij in pravil tudi ni določeno vnaprej.

Tako so raziskovalci sčasoma dobili štiri abstraktne in štiri leksikološke slovnice (Brian-2, Anni-2, Brian-3, Anni-3), ter štiri korpuse, na katerih jih lahko testirajo.

Poskus 1: popolnost analize in merilo presenečenja

Popolnost

Leksikološka slovnica Brian-2 (pridobljena za korpus Brianovih izjav v starosti dveh let) je bila sestavljena iz 802 znakov in treh kategorij, Anni-2 – od 1898 znakov in štirih kategorij, Brian-3 – od 5343 znakov in šest kategorij,Anni-3 – od 5385 znakov in šest kategorij. Razlika ni presenetljiva: v dveh letih je Annie govorila veliko bolje kot Brian. Po raziskavi MacArthur Survey (MacArthur-Bates Communicative Development Inventories) je bila pred 75-odstotnim deležem njenih vrst v razvoju jezikov, Brian pa je bila le 25-odstotna.

Očitno je, da s starostjo slovnice postanejo manj individualne in razlike se izravnajo.

Raziskovalci so preverili, kako dobro te slovnice omogočajo analizo ustreznih testnih primerov. Glavni kazalnik je bila popolnost, to je delež uspešnih analiz.

Razmislite, kaj je popolnost, na primer KSG-1. Nekateri predlogi, ki jih lahko ustvari (na primer, Vzel sem jabolko), nekateri niso (na primer, Med vrsticami berem). Tako je telo dveh stavkov Vzel sem jabolko in Sovražim sitne sosede KSG-1 bo lahko celovito analiziral 100% in telo dveh stavkov Vzel sem jabolko in Berem med vrsticami – s polnostjo 50%.

Rezultati so prikazani na sl. 5

Sl. 5 Popolnost analize testnih primerov. Y-os popolnost je preložena (delež uspešno analiziranih izjav). Izvalitev označuje zahtevano število vložkov (od spodaj navzgor, od nič do osem). Črno kaže delež izjav, s katerimi se slovnica ni spopadla. Slika iz obravnavanega članka vPNAS

Os ordinata je popolna. V vseh štirih primerih je precej visoka: 84%, 75%, 70% in 81%.

Diagram prikazuje še en zanimiv parameter – število operacij vstavipotrebno za pravilno analizo izjav. Vstavljanje je zamenjava znaka (določene ali sheme) v režo sheme (glej opis zgoraj opisanega modela Bannard), to pomeni, da preprosto izpolnite režo v shemi. Na dnu vsakega stolpca je delež stavkov, za analizo katerih ni potrebe po sestavljanju posameznega vstavka (to pomeni, da so vsi ti izpiski shranjeni v slovnici v obliki določenega znaka). Zgoraj je delež tistih, za katere je potrebna analiza, kateri je treba vstaviti. Vidimo lahko, da je 58% Brianovih izjav v starosti dveh let mogoče analizirati z uporabo več kot enih vstavkov (z drugimi besedami, z vidika slovnice so zelo primitivne). Dva vložka je dovolj za 80% izjav, samo ena izjava zahteva štiri vložke. V dveh letih je Anniejeva slovnica manj primitivna: s pomočjo največ enega vložka lahko analiziramo le 32%, vendar sta dva vložka dovolj za 61%.

V treh letih slovnica postane veliko težja.Brian nima več kot en vložek dovolj za 26% izjav, 10% pa zahteva vsaj štiri vložke. Annie ima ustrezne deleže 13% in 36% (to je, da je še vedno pred Brianom v lasti govora). Avtorji opozarjajo na značilnosti jezikovnih dejavnosti otrok, ki jih je mogoče oceniti na tak način produktivnost in zaključiti, da se za tri leta znatno povečajo.

Ukrep čudeža

Raziskovalci so tudi preverili, kako dobljeni modeli predvidevajo testne podatke. Kot kazalnik so izbrali prepustnost (zmedenost) – merilo, kako dobro porazdelitev verjetnosti dogodkov (besed in stavkov) sovpada z razporeditvijo dogodkov v realnih podatkih, z drugimi besedami, merilo, kako presenečen je model z dejanskimi podatki. Čim manjša je zmedenost, večja je verjetnost določenega korpusa besedil v dani slovnici in ustrezno model.

Lahko se izračuna perverznost, a kako oceniti pridobljene vrednosti? Za primerjavo uporabljajo raziskovalci popolnoma abstraktno Vksg se prikaže na istih podatkih. Te slovnice so podobne našemu KSG-1: besede v njih so vsebovane samo v slovarju in se ne pojavljajo v pravilih generiranja. Na sliki. 6, je razvidno, da je v leksikalni specifični HKSL občutljivost manjša.

Sl. 6 Prikazana je perpleksnost leksikoloških verjetnostnih kontekstnih gramatik (UB-PCFG, verjetnostna verzija brez gramatike brez konteksta), ki se avtomatično dobi za štiri korpuse otroškega govora bela barva. Preudarnost povsem abstraktnih verjetnostnih kontekstnih grammatičnih gramofonov (HKSL), ki se tudi samodejno izpeljujejo za te lupine, – senčenje. Črno za abstraktno VKSG je prikazano prepustnost s popravki, da so različni stavki, s katerimi se soočajo in s katerimi se lexico soočajo s specifičnimi gramatiki, drugačni (zato neposredna primerjava ni precej pomembna). Slika iz obravnavanega članka v PNAS

Preizkus 2: navzkrižna predvidljivost

Kolikor je posledična slovnica vezana na značilnosti tega otroka ali določene starosti? Da bi našli odgovor na to vprašanje, so raziskovalci uporabili vsako od štirih grammatičnih primerov v vsakem od štirih testnih primerov. Rezultati (popolnost in preudarnost) so podani v tabeli 2:

Slovnica Brian-2Slovnica Anni-2Slovnica Brian-3Anni-3 slovnica
Korpus Brian-284% (105,4)36% (636,3)46% (1076)34% (1486,2)
Anni-2 korpus15% (381,9)75% (184,1)71% (317,6)81% (425,9)
Korpus Brian-38% (455,7)42% (361,5)70% (364,6)63% (363,7)
Anni-3 korpus3% (489,5)29% (526,4)59% (575,8)81% (276,5)

Tabela 2. Popolnost in preudarnost pri uporabi različnih gramatik v različnih testnih primerih (iz obravnavanega članka v PNAS)

Vidimo, da slovnice, pridobljene v starosti dveh let, niso primerne za primere, opravljene v starosti treh let. V primeru Briana je to še posebej močno (očitno je, da je bil relativni razvoj v tretjem letu njegovega življenja večji od Annieja). Vendar je veliko bolj zanimivo, da slovnice, pridobljene v treh letih, ne uspevajo dobro s primeri v dveh letih. Res je, da je popolnost uporabe slovnice Anni-3 na korpus Anni-2 višja od tiste v slovnici Anni-2, po drugi strani pa je prepletenost veliko višja. Gramija Brian-3 s telo Brian-2 spopada mnogo slabše od slovnice Brian-2, v obeh parametrih. To odpravlja strah, da so slovnice preveč »mehke«, kar pomeni, da dovoljujejo preveč izjav.

Kar se tiče razlik med otroki, je jasno, da se Brianova slovnica iz Anniejevih podatkov bolj obvladuje kot Anniejeva slovnica, Anniejeva slovnica pa se slabša z Brianovimi podatki kot Brianova slovnica. Pomembno pa je, da je v treh letih razlika manjša kot v dveh. To potrjuje tezo leksikalno usmerjenega pristopa: na začetku so slovnice zelo individualne, postopoma postajajo vse bolj podobne konvencionalnim.

Poskus 3: dodajanje kategorij

Pristop, usmerjen v besedišče, predpostavlja, da otroci počasi obvladujejo abstraktne kategorije. V prejšnjih delih je Tomazello trdil, da so otroci že 23 mesecev imeli kategorijo samostalnika, pri 25 mesecih še niso imeli kategorije glagola.

Raziskovalci so preučili, kaj se zgodi, če se avtomatska slovnica "potisne" malo s predhodno dodelitvijo besed v nekatere slovnične kategorije. Prvič, dodali so kategorije skupne imenine (N) in ustrezne imenice (PropN), to je, da so označevale imenice; potem je bila dodana glagolska kategorija (V). Za to je bilo uporabljeno ročno označevanje primerov, pri čemer je bila vsaki besedi dodeljena njen del govora.

Rezultati so predstavljeni na sl. 7

Sl. 7 Popolnost analize (odpoklic), odvisno od danih kategorij (vrh za Brian, spodaj za Annie; lahke stolpce – v dveh letih, temno – v treh). Levi par stolpcev: nobene kategorije niso navedene srednji par: določene so kategorije splošnega imena in lastnega imena, desni par: Kategorije skupnega imena, pravilnega imena in glagola so nastavljene. Slika iz obravnavanega članka vPNAS

Po dveh letih za oba otroka dodajanje kategorij imen bistveno poveča popolnost: 6% za Brian, 13% za Annie. Dodajanje glagolske kategorije poveča popolnost le malo: drugo 2% za Brian (in popolnost leži v možni napaki prejšnjega rezultata, ko so podane samo kategorije imen); še 3% za Annie (tukaj popolnost presega omejitve morebitne napake).

V treh letih, v Brianu, dodajanje kategorij imen izboljša popolnost za 14% in glagol za dodatnih 7%. Za Annie se rezultati ne spreminjajo: spet 13% in še 3%.

Ti rezultati so v splošnem skladni s predpostavkami avtorjev: v dveh letih imajo otroci že nekaj splošnih idej o kategorijah imen in v treh letih kategorij glagola. Dejstvo, da je Annie v treh letih, ki je dodala kategorijo glagolov, skoraj nima učinka zelo dobro. Avtorji kažejo, da je v dveh letih obvladala vse tri kategorije in s tremi večjimi spremembami ni prišlo.

V vsakem primeru raziskovalci ugotavljajo, da razvoj kategorij poteka zelo postopoma, zato je sprejemanje in uvajanje vseh kategorij imen in kategorij glagola hkrati precej surova metoda.Omogoča vam z zaupanjem povedati le eno stvar: v dveh letih kategorije otroških imen niso več v celoti povezane z določenimi besedami. V treh letih lahko rečemo tudi o kategoriji glagola.

Zaključek

Avtorji so lahko potrdili svojo hipotezo: slovnično specifične slovnice delajo bolje kot abstraktne. In morda ne delajo bolje, temveč bolje odražajo kognitivno realnost. Poleg tega te slovnice nam omogočajo, da opisujemo, kako se otrokovo jezikovno znanje razvija in postane bolj zapleteno (zelo v tretjem letu življenja).

Študija je potrdila druge leksikalno usmerjene teze. Najprej s starostjo slovnica postane manj individualna in bolj zamenljiva. Drugič, razvoj slovničnih kategorij se dogaja postopoma (samostalnik – prej, glagol – pozneje).

Intuitivno so vse te ugotovitve precej verjetne. Zavračanje preveč abstraktnih modelov nam omogoča, da bolje opisujemo govor otrok.

Škoda, da so lexico-specifične slovnice primerjane z abstraktnimi zgolj zgolj z občutljivostjo, vendar ne s popolnostjo, ampak s slovničnimi besedami, vključno s kategorijami imena in glagola, le s popolnostjo, ne pa z zapletenostjo.Poleg tega se za takšne študije pojavlja standardno vprašanje: ali je mogoče sklepati na podlagi podatkov, pridobljenih samo za en jezik (angleško) in za eno vrsto slovnic (HKSD)?

Avtorji navajajo druge možne omejitve njihovih ugotovitev. Prvič, upoštevali so le majhen vzorec (približno 5%) vseh izjav, ki so jih otroci ustvarili med letom. Drugič, preučevali so le pripravo izjav – obstaja mnenje, da otroci dejansko znajo slovnico bolje od njihove produktivnosti, le del izjav ne more ustvarja.

Zato Bannard, Liven in Tomazello oblikujejo svoj končni zaključek na naslednji način: lahko so pokazali, da pristop leksikalnega pristopa pri opisovanju govora otrok, ki začnejo obvladovati jezik, izpolnjuje standardna merila ocenjevanja.

Vir: Colin Bannard, Elena Lieven, Michael Tomasello. Modeliranje otrokovega zgodnjega slovničnega znanja // Zbornik Nacionalne akademije znanosti. 13. oktobra 2009. V. 106. Ne. 41. – P. 17284-17289.

Alexander Berdichevsky


Like this post? Please share to your friends:
Dodaj odgovor

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: