Introduzione alla Linguistica applicata Flashcards
Concetti base di linguistica applicata
Che cos’è la Linguistica Applicata e quando nasce?
Con LA si intende - secondo la definizione della American Association for Applied Linguistics - lo studio di come il linguaggio abbia effetto sulla realtà.
La linguistica applicata nasce nel 1964, al Premier colloque international de linguistique appliquee, tenuto a Nancy.
La definizione di cosa comprendesse la linguistica applicata ha tuttavia subito numerose variazioni nel corso del tempo:
- nel convegno fondativo questa era concepita soprattutto nell’ottica dell’acquisizione linguistica e dell’insegnamento/apprendimento di L2
- successivamente, nel ‘73, questa viene descritta da Corder, nel suo Introducing applied linguistics, come destinata agli insegnanti di lingua e a chiunque lavori con la lingua, come critici letterari, logopedisti, tecnici della comunicazione etc.
- la stessa opera di Arcaini, pubblicata nel ‘66, descriveva la LA come composta da glottodidattica, stilistica e linguistica comparativa e traduzione
Di quali argomenti di ricerca si occupa la LA?
- la pragmalinguistica che, secondo la definizione di Searle, studia che cosa significhi capirsi, prendendo in esame implicature, presupposizioni e tutto quello che rende possibile comprendersi con un numero limitato di parole
- il relativismo linguistico, che afferma come le abitudini della nostra comunità di appartenenza e della lingua influenzino l’interpretazione che diamo della realtà
- Testualità e stilistica, cioè lo studio di una serie di aspetti legati al testo, come testualità e stilistica, che serve a mettere in un ordine il più possibile oggettivo l’analisi di ogni tipo di testualità.
- linguistica acquisizionale, che studia come vengono apprese le lingue seconde, acquisite successivamente alla lingua madre.
- la glottodidattica si occupa del modo in cui noi impariamo la lingua consapevolmente in un contesto formalizzato, oltre che il modo in cui si può insegnare una seconda lingua
- Linguistica clinica fornisce un supporto analitico a partire dall’analisi di un testo prodotto da soggetti con patologie linguistiche, permettendo di prevedere ulteriori sviluppi di una patologia
- linguistica dei corpora, fa riferimento a raccolte di testi trattati come dati, accomunati fra loro da lavori di annotazione. L’avvento dei corpora, soprattutto quelli digitali, ha cambiato significativamente la ricerca linguistica, rendendola più oggettiva tramite dati.
- machine learning, riguarda il modo in cui siamo in grado di creare macchine in grado di apprendere autonomamente
Come si struttura il continuum tra ricerca quantitativa e qualitativa?
La ricerca in LA è scrupolosa e basata sui dati. I dati però sono uno strumento utilizzabile in vari modi, e di fatto afferisce a un quadro molto ampio e complesso, che include una varietà di metodi e obiettivi.
La ricerca può essere innanzitutto può essere di tipo:
1. primario, ovvero basata su dati nuovi raccolti ad hoc
2. secondario, ovverio operata su dati raccolti da altri e già esistenti
Può essere poi:
1. di tipo interpretativo (o anche qualitativo), , finalizzata quindi a sviluppare delle ipotesi a partire dall’interpretazione dei dati
2. di tipo statistico (o anche quantitativo), quindi basata su un gran numero di dati e sulla restituzione di risultati statistici
Ulteriori contrapposizioni riguardano:
- metodo di raccolta dei dati sperimentale (quindi in un contesto controllato dove vengono mantenuti stabili determinati valori) e non sperimentale
- intrusività del ricercatore, che può essere alta o nulla
- selettività, che può riguardare ricerche altamente selettive (richieste da una ricerca quantitativa) oppure ricerche non selettive
- finalità, se quella di formulare un’ipotesi oppure di testarne una già esistente
- contesto, che può essere naturale oppure controllato
- la dimensione del campione, che è esteso nella ricerca statistica e più contenuto in quella qualitativa
- la prospettiva, etica (nel caso della ricerca quantitativa, dove il ricercatore dà una rappresentazione esterna di quanto osservato, mentre la prospettiva emica è quella relativa alle credenze dei soggetti coinvolti nella ricerca
la ricerca può essere anche definita in base all’atteggiamento del ricercatore:
- controlling, in which the researcher conducts a carefully planned experiment restricted both in participants and content focus;
- measuring, in which intervention is minimal but the data focus is highly restricted;
- asking/doing, in which the researcher might intervene to ask participants to talk about what they are thinking;
- watching, in which the researcher just observes with both intervention and selectivity kept to a minimum.
Quali sono le principali associazioni della LA?
Le principali associazioni sono:
* American Association for Applied Linguistics
* Association Internationale de Linguistique Appliquée
* Association Canadienne de Linguistique Appliquée / Canadian Association of Applied Linguistic
* Associazione Italiana di Linguistica Applicata
Di che cosa si occupa la pragmalinguistica e in che rapporto si trova con la LA?
La pragmalinguistica si occupa di studiare quali effetti produca nella realtà ciò che diciamo.
Il padre della pragmalinguistica, Austin, la descriveva come lo studio dell’uso e l’effetto del linguaggio verbale, nel contesto comunicativo.
Rispetto alla LA non è altro che l’analisi linguistica applicata alla comunicazione.
Quali accezioni ha la pragmalinguistica?
La pragmalinguistica si divide in:
- macropragmatica, ovvero lo studio degli atti linguistici
- micropragmatica, ovvero lo studio degli enunciati
Quali sono i concetti base della pragmalinguistica?
i concetti base su cui si basa la comunicazione secondo la pragmalinguistica sono:
- Credenza: supposizione di verità (ex: bugia VS errore)
- Intenzione: il fine dell’atto comunicativo
- Progetto: strategia di atti per raggiungere il fine dell’intenzione
- Atto comunicativo: azione comunicativa (domandare, ordinare, informare etc.)
La credenza, tra gli altri è particolarmente importante: perché la comunicazione vada a buon fine, i parlanti devono presupporre di condividere delle credenze; inoltre devono credere che l’altro creda nelle stesse cose.
Qual è il rapporto che intercorre fra pragmalinguistica e semantica?
La semantica studia i precisi rapporti fra significati, per esempio quello fra felino e gatto, la pragmatica studia le relazioni più vaghe e sfumate fra i significati, quindi come noi li usiamo. Le due sono legate fra loro, e la pragmatica può in una certa parte essere riportata alla semantica.
Che cosa sono le espressioni indicali?
Spiegare anche quali siano
Le espressioni indicali fanno parte dello studio della micropragmatica. Sono quelle espressioni utilizzate, insieme alle espressioni anaforiche e cataforiche, per indicare qualcosa di strettamente inerente al contesto in cui si trovano i parlanti, e sono per questo molto vaghe e disambiguate unicamente dal contesto della comunicazione.
Queste espressioni possono essere di tipo spaziale, temporale, personale, sociale e testuale.
Che cosa sono gli atti linguistici?
Gli atti linguistici sono gli strumenti tramite cui, con le parole, facciamo qualcosa. La loro teorizzazione avvenne ad opera di Austin nel ‘62, e comprendeva una divisione in:
- Atti constativi, che sono sottoposti a giudizio di verità o falsità. Per esempio dire “Napoleone è morto” è un atto vero
- Atti performativi, che non sono sottoposti a giudizio di verità o falsità. Tuttavia questi possono essere sottoposti ad un giudizio di abuso o di colpo a vuoto. Un abuso è un atto linguistico che qualcuno non avrebbe dovuto pronunciare; il colpo a vuoto è invece un atto linguistico non indirizzato a nessuno.
Un qualsiasi atto linguistico si può scomporre in:
- atto locutivo, ovvero la mera manifestazione fisica del messaggio, ed è descrivibile dalla semplice struttura sintattica e dalle regole di una lingua
- atto illocutivo, ovvero l’intenzione con cui viene trasmesso il messaggio. L’atto illocutivo può essere assertivo, direttivo, commissivo, espressivo, dichiarativo. L’atto illocutivo ha spesso carattere convenzionale, cioè è regolato da convenzioni sociali che attribuiscono ad una data forma
- atto perlocutivo, ovvero l’effetto che produce quell’atto nella realtà. Con verbi performativi (quindi in atti illocutivi dichiarativi) la forza perlocutiva è massima. Dunque è la forza che un enunciato ha di far succedere ciò per cui stiamo pronunciando la frase. La forza perlocutiva è la corrispondenza con l’intenzione dell’atto illocutivo
Che cosa sono topic/comment e dato/nuovo?
La pragmatica identifica all’interno dell’enunciato le due categorie tema e rema (che rispecchiano il punto di vista dell’emittente), e dato e nuovo (che riflettono la prospettiva di chi ascolta).
Tema e rema (o topic e comment), sono rispettivamente ciò di cui si parla e l’informazione che vogliamo dare intorno a quello di cui parliamo.
Dato e nuovo spesso coincidono con tema e rema, ma non sempre.
Che cosa sono Presupposizioni, Implicature e Principio di cooperazione?
Questi concetti vennero teorizzati da Grice, che affermava l’esistenza delle Presupposizioni di riferimento e delle implicature conversazionali, che dimostravano come la comunicazione umana si basi su una rete di non detti.
Con presupposizione di riferimento si intende quell’insieme di informazioni che, parlando, si dà per scontato che siano condivise anche da chi ci ascolta
Con implicature si intende invece un senso che il parlante suggerisce con quello che dice o che fa. Queste possono essere:
- convenzionali, quindi basate su credenze comuni e generalmente condivise
- conversazionali, quindi costruite sullo specifico contesto conversazionale di cui i parlanti fanno parte in quel momento
Con principio di cooperazione si intende il fornire, da parte del parlante, il proprio contributo alla conversazione così come è richiesto, in quel momento. Questo si basa su 4 massime:
- la massima di qualità, per cui si cerca di contribuire alla conversazione con informazioni vere
- la massima di quantità, per cui si cerca di contribuire alla conversazione con un numero di informazioni adeguato al contesto
- la massima di relazione, per cui si cerca di essere pertinenti
- la massima di modo, che impone di essere perspicui
Come si inserisce la cortesia all’interno del discorso della pragmalinguistica?
La cortesia è un particolare fenomeno che si sottrae alle regole di chiarezza implicate dalla conversazione. Infatti, la cortesia ha lo scopo di ben disporre l’interlocutore all’ascolto di quello che stiamo dicendo, spesso tramite atti linguistici indiretti.
Il modello pragmatico della cortesia si basa su studi di Leech (1983), Brown e Levinson (1978; 1987) e Lakoff (1973), che completarono il modello di Grice.
Nello specifico Brown e Levinson propongono il concetto di razionalità, equivalente al principio di cooperazione, e poi quello di Faccia positiva, dove faccia è la percezione che gli altri hanno di te come individuo. La faccia positiva è dunque tutto ciò che noi facciamo per far accettare e apprezzare la propria immagine.
Quale contributo da Givon alla ricerca di Grice e alla pragmalinguistica?
Tra le varie analisi condotte sulle modalità della condivisione della conoscenza è quella di Givòn, che afferma l’insufficienza del principio di cooperazione, e sviluppa tre tipi di focus che esistono in una conversazione:
- Focus generico, cioè il parlante assume che l’ascoltatore condivida il complesso di facoltà inerenti la comunicazione umana, verbale e non, e quella linguistica
- Focus deittico: il parlante assume che l’ascoltatore condivida il contesto comunicativo, a cui fa riferimento dunque il qui e ora della comunicazione
- Focus discorsivo: il parlante assume che l’ascoltatore condivida il contesto del discorso all’interno del quale avviene l’enunciazione
Che cosa si intende per Relatività linguistica nella LA?
La teoria delle Relatività linguistica, nella formulazione di Sapir-Whorf, afferma che l’organizzazione delle nostre menti è in larga parte di tipo linguistico, e influenza come noi vediamo la realtà.
Le teorie della relatività linguistica influenzano la LA da 3 punti di vista:
- Semiotico, secondo cui il sistema di simboli trasforma il pensiero, es. il click bilabiale
- Linguistico, perché secondo il relativismo linguistico in ogni lingua c’è una parte del concetto che abbiamo in mente che viene espressa con una maggiore priorità. Ogni lingua ha quindi la tendenza a selezionare una determinata parte di un concetto e a esprimerla
- Discorsivo, per cui l’uso di uno stesso sistema linguistico può ancora descrivere la realtà in modo diverso per due parlanti (es. gerghi, lingua burocratica etc.)
In che senso si può parlare di relatività linguistica forte/debole?
La realtività linguistica si divide in due correnti, che si approcciano differentemente a questo concetto:
- la rel. ling. forte è caratterizzata da un approccio deterministico, quindi dalla convinzione che il linguaggio determini inevitabilmente come l’essere umano si approccia e concepisce la realtà, causando quindi un’incolmabile distanza fra due lingue diverse e un’inevitabile chiusura verso le altre culture. Principale esponente di questa teoria è Spengler
- la rel. ling. debole, il cui principale esponente è Kuhn, si basa sul concetto di paradigma, ovvero ciò che forma la struttura del nostro pensiero, e sebbene ammetta che il linguaggio influenza il nostro modo di pensare, comunque ritiene che questo non lo determini in maniera ineluttabile
In che modi la Relatività linguistica influenza la ricerca nella LA?
La relatività linguistica ha portato allo sviluppo di un approccio ecologico, che dà quindi grande valore al contesto socioculturale dei parlanti nell’ottica dell’apprendimento di una nuova lingua.
a questo si ricollega anche il modello di Kramsch, che afferma che:
- La cultura è differenza
- La cultura è un processo interpersonale di costruzione di significati
- La cultura è un complesso di interazioni tra realtà e immaginazione/percezione
La cultura può essere percepita quindi come un iceberg , con parti “emerse” più visibili come la musica, la letteratura, l’abbigliamento, e parti meno ovvie, come il concetto di bellezza, la gestione dello spazio etc.
La parte sommersa è ciò che sta a fondamento di ciò che consideriamo implicito e scontato, ed è anche alla base dei bias culturali.
Cosa afferma la teoria di Long (1996)?
Si tratta di una teoria complementare rispetto all’acculturazione, e comporta il superamento rispetto all’ipotesi dell’input di Krashen: ruota intorno al concetto di feedback, che viene dato dai parlanti nativi agli apprendenti; così l’input si modifica in relazione all’interlocutore fino a diventare adeguato.
Anche l’output si modifica di conseguenza, per cercare di negoziare un processo di significazione
Che cosa si intende per Pregiudizio linguistico?
Un pregiudizio linguistico è l’uso di un linguaggio che svantaggia o stereotipa ingiustamente determinati gruppi di persone, e sono per lo più razzisti, sessisti e classisti.
Comporta quindi, dal punto di vista ricettivo, la stigmatizzazione dell varianti d’apprendimento e dei fenomeni d transfer rispetto ad aspettative culturali.
Quali sono i quattro tipi di pregiudizio linguistico analizzati?
Quali sono le possibili motivazioni dietro a questo modo di esprimersi?
- Con Linguistic Category Model di intende la categorizzazione generale dei livelli di esplicitezza linguistica in base a convinzioni e pregiudizi
- Con Linguistic Intergroup Bias (LIB) si intende l’ipotesi per cui si tende a usare un linguaggio astratto per descrivere comportamenti positivi dell’ingroup e comportamenti negativi dell’outgroup, e un linguaggio concreto per descrivere comportamenti negativi dell’ingroup e comportamenti positivi dell’outgroup.
- Lo stereotypic explanatory bias è la tendenza a dare o inventare più spiegazioni per qualcosa che è accaduto e che ci sembra fuori da quello che è normale (es. riferendoci ad una persona nera Ha ottenuto quel lavoro alla Microsoft perché conosce qualcuno che lavora lì).
- Il negation bias è simile, quando una negazione viene usata per descrivere un comportamento che ci sembra opposto rispetto ai modelli che abbiamo in mente e che ci aspettiamo di vedere riprodotti nella realtà (es. Lo spazzino non era stupido).
Le motivazioni che portano a questo tipo di comunicazione possono essere spontanee, quindi riflesso di convinzioni profonde, oppure strategiche, quindi volontarie e usate per enfatizzare le credenze per obiettivi comunicativi particolari, per esempio lo sfruttamento degli stereotipi radicati in alcuni elettori a fini politici.
Che cos’è un bias culturale e in che modo si esprime nella valutazione del parlante?
I bias sono convinzioni (spesso infondate) radicate nella persona, la quale non si accorge nemmeno di averle, e che si ripetono sistematicamente in più situazioni.
Che cosa si intende per Literacy e in che rapporto stanno lettura e scrittura nella ricerca della Linguistica applicata?
Per literacy si intende, in senso stretto, la capacità di leggere e scrivere (oltre che le capacità prosodiche), in senso più ampio si intende la capacità di partecipare al discorso di una società, e guardare il mondo attraverso una cultura.
La literacy passa quindi attraverso una prima fase di contatto e di apprendimento del leggere e scrivere (che riflette la narrow literacy), e una di partecipazione che prevede l’acquisizione e la partecipazione alle pratiche linguistiche della società (broad literacy), e che riguarda più da vicino aspetti sociologici e antropologici.
La lettura ha storicamente ricevuto maggiore attenzione, a causa della convinzione che la lettura fosse il punto di partenza per l’alfabetizzazione. Negli ultimi decenni si avverte una controtendenza in tal senso.
Quali sono le principali tendenze della ricerca sulla lettura?
La lettura ha storicamente ricevuto maggiore attenzione, a causa della convinzione che la lettura fosse il punto di partenza per l’alfabetizzazione.
La tradizione psicolinguistica della ricerca sulla lettura comprende due approcci:
- Uno è legato alle componenti cognitive e culturali utili alla lettura.
- L’altro indaga quali siano i processi della lettura, quindi di fatto alle relazioni che sussistono fra le sopracitate componenti
La ricerca di studiosi come Fish e Iser ha teorizzato il concetto dell’aspettativa, o dell’orizzonte, in cui si colloca quello che il lettore legge.
Al contrario Hoover e Turner concepiscono la lettura come un processo sommativo, che prevede il riconoscimento e la comprensione di componenti grafiche tramite:
- La decifrazione è la comprensione dei segni grafici.
- La decodifica è la capacità di comprendere le singole parole
- L’interpretazione è il porre il tema in un orizzonte di senso.
Entrambe le teorie hanno come elemento comune il fatto che la capacità di lettura sia legata alla competenza lessicale e sintattica (cioè il significato delle parole e i meccanismi tramite cui si combinano).
Quali sono i tre approcci possibili alla lettura individuati dalla psicolinguistica?
- Bottom up, cioè dal particolare al generale. È il modo in cui per esempio viene insegnato l’italiano, partendo dalle lettere singole per poi apprendere le parole, e concentrato sull’utilizzo di items con coppie minime ortografiche
- Top down, cioè dal generale al particolare, quindi contro i metodi basati su un approccio fonico
- Interactive mode, ovvero una commistione dei due metodi
Quale rapporto intercorre tra competenza di lettura in L1 e in L2?
La capacità di leggere in una L2 ha visto studi in due direzioni:
- Una prima ipotesi afferma che la capacità di leggere in una lingua seconda è legata alla capacità di lettura nella lingua L1. Questo è vero solo in parte, perché ci sono casi un cui si impara una L2 senza aver mai letto nulla nella prima lingua.
- Una seconda ipotesi è che la capacità di leggere nella lingua L2 sia esclusivamente legata all’apprendimento della seconda lingua. In realtà questo non è vero nel momento in cui chi apprende la lingua è ad un livello più alto.
Quali sono le principali tendenze della ricerca sulla scrittura?
Prima con scrittura si intendeva la creazione di testi nuovi usati per un consumo non personale, a volte chiamati “scrittura produttiva”, attività nella quale una proporzione relativamente piccola della popolazione si crede sia impegnata.
Adesso il concetto di scrittura ha subito modifiche a causa della rivoluzione digitale, che ha creato un terzo medium, intermedio fra parola orale e scritta. La scrittura dunque ha avuto un consumo sempre crescente negli ultimi anni.
In generale, in rapporto alla scrittura, la LA indaga:
- nesso tra competenza linguistica, soprattutto in termini di complessità sintattica, e abilità di scrittura;
- nesso tra varietà (standard e non standard) nella scrittura sorvegliata
- il nesso tra le variabili di crescita personale (cognitive, affettive, morali e stilistiche) e le scritture, anche letterarie
In che modo gli studi su Literacy in senso «ampio» e «ristretto» si sovrappongono?
Con narrow literacy si intende la capacità di leggere e scrivere in senso stretto (oltre alle abilità legate all’oralità. Questo modello di apprendimento si basa sul contatto.
Per broad literacy invece si intendono tutte le pratiche linguistiche presenti nella società (e quindi si avvale e trova radicamento nell’antropologia e nella sociologia). Questo approccio tende a relativizzare cosa possa essere considerato indispensabile. Esempio di questa corrente di pensiero viene dato da studiosi quali Cooper e Holzman nell’opera Writing as social action, forniscono un modello di accettabilità e situazionalità e della interpretazione del senso in base a un modello o un altro. Questo modello di apprendimento si basa sulla partecipazione sociale e politica.
Quali sono i principali interessi degli studi sulla Literacy, nel contesto attuale di ricerca?
A partire dagli studi di literacy la LA applicata interviene in:
- Le esigenze di alfabetizzazione in contesti di migrazione,
- l rapporto con le nuove tecnologie
- Rapporto con altre accezioni di alfabetizzazione
- Esigenze linguistiche speciali
Quali sono i tre livelli di analfabetismo con cui l’insegnamento deve rapportarsi?
- I pre-alfabeti, adulti non scolarizzati la cui lingua madre non è scritta, quindi non hanno nozioni di scrittura come sistema semiotico.
- Gli analfabeti sono adulti che non sanno leggere e scrivere nella propria lingua madre, la quale ha una forma scritta
- Debolmente alfabetizzato è un adulto dalla scolarizzazione bassa (inferiore a 5 anni di studio), che viene inquadrato nel QCER, cioè il Quadro Comune di Riferimento Europeo, secondo i due livelli alfa A1 e Pre A1
Quali sono gli strumenti che vanno forniti ad ogni livello di analfabetismo?
Nel caso di prealfabeti bisogna sviluppare la nozione di scrittura e di parola, con attività che mettano in relazione messaggi iconici (immagini) e verbali (parole pronunciate o scritte)
A soggetti analfabeti bisogna fornire:
1. alfabetizzazione strumentale, ovvero lo sviluppo dei prerequisiti necessari per leggere, quali il principio alfabetico (cioè la consapevolezza che esiste una relazione fra segni grafici e suoni), ma anche competenze strumentali di base, come saper tracciare le lettere, abbinare segni e suoni e saperli legare in sillabe e parole
2. competenze linguistico-comunicative funzionali, come saper leggere e scrivere parole frasi semplici, ma anche orientarsi con documenti semplici quali cartelli e i testi che compongono il paesaggio visivo
3. la cosiddetta consapevolezza glottomatetica, cioè lo sviluppo delle capacità di studio (imparare a imparare) e a individuare e utilizzare regolarità linguistiche.
Quali sono le categorie di analisi della linguistica testuale?
Le categorie sono:
- Coesione
- Coerenza
- Intenzionalità
- Accettabilità
- Informatività
- Situazionalità
- Intertestualità
Quali sono i meccanismi di coesione del testo?
Spiegare cosa significhino
La coesione è l’idea che il testo sia una tessitura di parole che hanno la capacità di rimandare in diversi modi le une alle altre.
La referenza può essere esoforica o endoforica, quindi che fa riferimento – rispettivamente - all’esterno o all’interno del testo.
I criteri di coesione:
- Accordo morfologico, cioè la coesione fra marche morfologiche richieste dalla lingua
- Ricorrenza, cioè la ripetizione
- Ricorrenza parziale
- Parallelismo, strutture sintattiche parallele
- Parafrasi, un modo diverso di riferirsi allo stesso oggetto testuale
- Proforme: quelli comunemente chiamati pronomi
- Ellissi: l’omissione di qualcosa
- Connettivi: le congiunzioni e tutti gli altri strumenti con la stessa funzione
Che cosa si intende per «discorso» in relazione al testo?
Se con testo si intende un’unità linguistica conchiusa che veicola senso, il discorso non è altro che un testo inserito in uno specifico contesto interpretativo sociale e culturale.
All’interno della trattazione stilistica l’idea del dialogo è posta soprattutto nei confronti del lettore (Bakhtin), per cui un testo viene concepito come dialogo col lettore.
In che modo la stilistica si interfaccia con la linguistica applicata?
La stilistica si avvale della linguistica applicata nei seguenti modi:
- L’uso della linguistica (inteso come studio della lingua) per approcciarsi ai testi letterari
- La discussione sui testi secondo criteri oggettivi piuttosto che secondo valori puramente soggettivi e impressionistici
- Un’enfasi sulle proprietà estetiche della lingua (per esempio, il fatto che la rima sia piacevole)
Quali sono i tre concetti cardine della stilistica?
Che cos’è uno stilema, e in che modo tale concetto si pone da punto di incontro tra linguistica e contesto socioculturale del ricevente?
- stile, inteso come scarto, come quell’elemento che fa la differenza rispetto ad un altro stile.
- Il lettore e la ricezione del testo sono fondamentali nella moderna concezione della stilistica.
Con ricezione si intende la costruzione di senso in un contesto sociale, culturale etc., dove il senso è ciò che produciamo a livello informativo ma anche contestuale. - Con stilema si intende un elemento (o un gruppo di elementi) tipico proprio di una tipologia di testi. In questo rientrano anche le struttura sintattiche.
Che cos’è la linguistica acquisizionale?
La linguistica acquisizionale studia processi e modelli di acquisizione di una lingua non materna (L2), nonostante in linea teorica sia lo studio dei processi di apprendimento di qualsiasi lingua (quindi anche quella materna) a qualsiasi età esso abbia luogo.
Quali sono i concetti chiave della linguistica acquisizionale?
- acquisizione: si riferisce ad un processo spontaneo (o meglio non formalizzato);
- l’apprendimento linguistico invece si riferisce a un processo formalizzato e pienamente consapevole, oltre che strutturato.
La linguistica acquisizionale affonda le proprie radici proprio nell’acquisizione spontanea, ma il suo studio coinvolge anche l’apprendimento, anche perché il processo di conoscenza di una lingua unisce spessissimo entrambi gli aspetti.
Altri concetti molto importanti sono:
- transfer, ovvero l’effetto della lingua madre sulla lingua secondaria
- varietà (dA) prebasiche, basiche e post basiche
Quali sono le caratteristiche e le differenze dell’acquisizione di L1 e di L2?
Innanzitutto l’apprendimento della L1 è un processo irripetibile: questo infatti non solo insegna all’individuo una lingua, ma lo dota anche di concetti astratti che, apprendendo una seconda, terza etc. lingua non vengono ricreati nuovamente; inoltre un bambino che impara una lingua acquisisce l’irripetibile consapevolezza che esiste un linguaggio verbale.
Inoltre, è rilevante e differente anche l’ambiente di apprendimento, che per la lingua seconda solitamente è formalizzato e non domestico, oltre che l’età in cui l’apprendimento avviene.
Che cos’è un’interlingua?
L’interlingua è un sistema linguistico di un parlante che acquisisce una lingua, caratterizzata da:
- Regole in evoluzione, nel caso in cui l’input cambi e ci sia esigenza comunicativa.
- Regole abbastanza stabili da essere osservabili
- Regole abbastanza frequenti da essere considerate sistematiche
- Regole abbastanza diffuse e condivise da parlanti in condizioni simili da essere tipiche
- Regole abbastanza diversificate da parlanti in condizioni dissimili da essere caratterizzanti
Le quattro fasi di sviluppo dell’interlingua per la linguistica acquisizionale moderna sono:
1. fase del silenzio, in cui si acquisisce competenza linguistica a partire da una fase in cui familiarizziamo con la comunicazione
2. fase formulare, in cui non abbiamo nessun discernimento o capacità di monitoraggio sulle categorie linguistiche della L2, ma in cui si conoscono blocchi linguistici che ripetiamo in un dato contesto, che ha utilità puramente pragmatica
3. fase dell’analisi della formula, con conseguenti produzioni non native-like
4. Produzioni autonome corrette ma con semplificazione
Che cosa si intende per interferenza?
Con interferenza (o transfer) si intende l’effetto condizionante che la lingua madre ha sulla lingua seconda, e che può essere positivo o negativo a seconda delle vicinanza della lingua madre con la lingua seconda.
Quali sono le teorie sviluppate rispetto all’apprendimento di una L2?
Ellis ipotizzò la Interface position, una teoria fondata sulla convinzione che prima si immagazzina teoricamente una conoscenza linguistica, la quale diventa solo dopo una competenza. Dunque le conoscenze linguistiche implicite passano a quelle esplicite con l’uso.
Krashen però si oppose a questa teoria con quella della No interface position e l’Input hypothesis. La prima affermava che che le conoscenze esplicite siano solo un monitor, come “fotografia” della competenza linguistica; la seconda invece affermava che il miglioramento nell’apprendimento di una L2 da parte di un apprendente avviene quando il parlante è in grado di capire un input leggermente più avanzato del proprio livello.
Dalle teorie di Krashen si svilupparono due correnti:
* La teoria comportamentista che affermava che per imparare una seconda lingua bisognasse parlare quella lingua. Tuttavia Krashen non affermava questo, ma che l’apprendimento avvenisse grazie ad una sola fase di ricezione, tramite una ricezione multimodale.
- La teoria dell’interfaccia debole, che prevede che l’apprendimento della lingua seconda sia dato da un’interazione fra conoscenze esplicite e implicite, e quindi rappresenta l’interazione fra memoria procedurale (quella che immagazzina come si fanno le cose) e quella dichiarativa (quella che ricorda dati puri, per esempio un numero di telefono)
Infine da Van Patten venne sviluppata l’Input processing theory, che affermava come l’apprendente di una L2 processi prima le parole di valore lessicale (che sono più efficaci nella comunicazione) e poi quelle di valore grammaticale
Che cos’è il progetto di Pavia e come è stato strutturato?
Fu il più importante progetto di linguistica acquisizionale. Partì nel 1986, e componeva un corpus di apprendenti italiano come L2 fra i 10 e 48 anni, apprendenti con lingue madri molto varie, composto sulla base di dati raccolti in una finestra ventennale.
Permise di compiere una serie di osservazioni, come che acquisizione e apprendimento sono complementari; inoltre, risultò evidente che la tipologia linguistica della lingua madre influiva sulla velocità dell’apprendimento e sulla possibilità di raggiungere livelli linguistici avanzati di italiano
Che cosa sono e che caratteristiche hanno le sequenze di apprendimento (con esempi)?
Uno dei risultati evidenti dal progetto di Pavia fu l’esistenza di sequenze fisse di apprendimento, ovvero degli step di apprendimento della lingua comuni a coloro che imparano l’italiano. Queste sequenze d’apprendimento avrebbero un ordine implicazionale, ovvero per raggiungere una certa sequenza bisogna necessariamente (e nell’ordine) aver attraversato le altre.
Un esempio è la produzione di forme verbali:
1. forma base del presente (solitamente la terza persona singolare del presente) e/o l’infinito.
2. (ausiliare) participio passato, con una marca morfologica in più. L’apprendimento di queste forme serve a definire l’aspetto verbale, quindi la finitezza o conclusione dell’azione
3. Imperfetto, che viene appreso per esprimere qualcosa di collocabile nel passato ma che non ha la caratteristica della finitezza
Altro esempio è l’apprendimento della subordinazione, che passa prima da una fase di giustapposizione delle proposizioni, e solo dopo si sviluppano i mezzi necessari per incassare le proposizioni.
Ultima sequenza di apprendimento è quella dell’accordo morfologico:
1. È facile che l’articolo, prima definito e poi indefinito, sia la prima cosa che si impara ad accordare. Questo però è vero se l’apprendente ha una lingua madre che presenta la categoria dell’articolo
2. Si impara successivamente ad accordare al nome l’aggettivo attributivo
3. Successivamente si impara l’accordo con aggettivo predicativo e il participio passato
Che cosa si intende per Varietà di Apprendimento?
Le VdA sono codici differenti rispetto alla L1 di riferimento, e sono a tutti gli effetti l’interlingua di chi apprende una lingua, ed è di fatto una delle varietà determinate sociolinguisticamente (es. varietà regionale, parlate/scritte, giovanile).
Che cosa si intende per «pendolo» nell’insegnamento della L2?
Non è altro che l’oscillazione che si è presentata nel corso del tempo per quanto riguarda l’approccio da usare nell’insegnamento della lingua, e che a seconda del periodo ha preferito una di queste due modalità:
1. metodo formale (volto all’insegnamento esplicito della grammatica di una lingua)
2. metodo comunicativo (che insegna a parlare e comunicare senza insegnare esplicitamente le regole).
Che cos’è l’ipotesi del periodo critico e come si struttura il dibattito intorno a questo tema?
Il CPH è stato teorizzato nel ’67 da Lenneberg, che risponde al quesito se si possa apprendere una seconda lingua al livello di un nativo oppure no.
L’ipotesi CPH afferma che un livello native-like in una seconda lingua si possa raggiungere solo se quest’ultima viene appresa all’interno di uno specifico range di età, individuato da Lenneberg fra i 2 e i 12 anni, ma che varia a seconda degli studi di riferimento (es. per Johnson e Newport è compreso fra i 2 e i 7 anni). Lenneberg definisce gli apprendenti oltre i 12 anni come post-puberty age of onset.
La CPH ha tuttavia suscitato delle perplessità, causata da una certa elusività concettuale e dalla mancanza di una chiara formulazione di un’ipotesi, oltre all’influenza ideologica e all’uso di strumenti di ricerca non sufficientemente sensibili.
Qual è la definizione di linguistica computazionale?
Con linguistica computazionale si intende quella disciplina che studia metodi computazionali che trattano il linguaggio naturale. Gli scopi di questi studi sono i più disparati, dalla creazione di parser sintattici a sistemi per individuare l’odio sui social network. La LC fa parte della branca dell’informatica che studia l’intelligenza artificiale. L’elaborazione del linguaggio naturale si intende invece l’applicazione di approcci computazionali al linguaggio.
Quali sono i tre tipi di apprendimento che vengono usati con la macchina?
- Apprendimento supervisionato: a partire da esempi annotati, il modello viene addestrato per compiere un qualche compito.
- Apprendimento non supervisionato: l’apprendimento avviene a partire dai dati stessi, senza alcun tipo di annotazione;
- Apprendimento per rinforzo: il modello esplora uno spazio (eg un labirinto) e gli vengono fornite ricompense per il comportamento richiesto, in modo che apprenda come affrontare il problema
Cosa si intende per tokenizzazione? quali sono i limiti di questa pratica?
Il primo processo è spezzare la frase nei token (solitamente le parole) che la compongono. Normalmente è un problema semplice da risolvere. Il modo più semplice di rappresentare una frase è la conta di quante volte appare una stessa parola. Questa rappresentazione è però ambigua in alcuni casi, come in frasi con negazione che presentano esattamente le stesse parole, ma dove una negazione in una differente posizione cambia completamente il significato.
Cosa sono unigrammi e bigrammi?
Gli unigrammi rappresentano il modo più semplice di rappresentare una frase o un documento: contiamo semplicemente quante volte ciascuna parola appare in una frase. Gli unigrammi tuttavia rappresentano un metodo ambiguo, come in una frase che presenti una negazione: questa infatti presenta la stessa frequenza in due frasi in cui però si trova in posizioni diverse, rappresentando come uguali frasi di valore completamente diverso.
Possono essere utilizzati anche i bigrammi, ovvero combinazioni di due parole che si trovano attigue nel testo.
Cosa sono stemming e lemmatizzazione?
Sono due pratiche utilizzate per ricondurre le singole dclinazioni delle parole al proprio lemma di riferimento, e ridurre quindi il numero di ngrammi possibili.
Lo stemming è un meccanismo per individuare le radici delle parole. Utilizza un meccanismo euristico. È molto rapido e relativamente semplice da implementare, tuttavia è poco accurato: si pensi per esempio a quei verbi italiano che presentano radici differenti a seconda del caso (come andare), che tuttavia appartengono allo stesso lemma.
Il processo di lemmatizzazione è dunque più accurato, perché usa la parola e il ruolo grammaticale per ottenere il lemma (quindi forme come vado, vai, andiamo, andate etc. sono ricondotte tutte al verbo andare).
Cos’è il modello word2vec? Quali sono i suoi punti di forza e quali i suoi limiti?
Il modello word2vec insegna alla macchina a capire dal contesto quale potrebbe essere la parola mancante in una dato contesto. Si tratta di un modello non supervisionato: può essere addestrato su grandi quantità di dati molto più vaste della quantità di dati annotati per il nostro scopo. I vettori ottenuti per le parole ne rappresentano (con una certa approssimazione) la semantica.
Oltre a contenere una nozione di “distanza semantica”, lo spazio vettoriale consente anche di effettuare altre analogie fra parole (es.uomo : donna = re : ? italia : francia = roma: ?).
Tuttavia questo modello ha anche dei limiti, perché per esempio le parole sconosciute rimangono tali, e le parole polisemiche vengono codificate da un solo vettore. C’è un intero campo della linguistica computazionale che si occupa del task di distinguere i sensi, si chiama word sense disambiguation.
Cos’è il modello transformer?
Cosa sono attention e dot product?
Il modello Transformer è un meccanismo per il quale noi chiediamo al modello stesso di indicarci quali elementi della frase, data una parola all’interno della frase stessa, ci specificano il significato della parola scelta.
Una delle innovazioni principali dei modelli transformer è l’utilizzo di meccanismi di cosiddetta attention. Questi meccanismi consentono di considerare per la rappresentazione vettoriale di ciascuna parola anche le parole circostanti che ne influenzano il significato.
Prima viene misurata l’attention: si tratta di un valore numerico che ci dice quali parole del contesto sono importanti per capire la parola corrente; il valore del dot product ci dice quanto il vettore che compone una parola debba essere “contaminato” dai vettori delle parole che sono importanti secondo l’attention. L’attention, in parole povere, viene utilizzata per “spostare” il vettore della parola più verso un campo semantico o più verso un altro.
Cosa sono i modelli generativi? Quali limiti presentano attualmente?
I modelli generativi attualmente utilizzati sono addestrati a costruire frasi che siano le più comuni rispetto ad una data lingua di riferimento; inoltre sono in grado di imparare autonomamente molteplici tasks.
Gli ultimi anni della linguistica computazionale sono dominati da approcci data driven.
Hanno portato a grandi successi, ma anche grandi problemi:
- I modelli hanno un costo per l’ambiente;
- Fattualità: i modelli generativi sono “costretti” a generare testo, ma non è detto che contengano fatti reali e non invenzioni;
- Bias nei modelli neurali, causati da bias presenti nei dati utilizzati per addestrare questi modelli
- I modelli non sono interpretabili se superano certi livelli di complessità. In altre parole, non abbiamo realmente idea di perché funzionino o falliscano.