MIT descobre o universal linguístico (ou não)

596px-Bruegel_d._Ä.,_Pieter_-_Tower_of_Babel_-_Museum_Boijmans_Van_Beuningen_Rotterdam
Torre de Babel (Pieter Bruegel, o velho. c. 1563)

[tradução e adaptação de: “MIT claims to have found a “language universal” that ties all languages together“, por Cathleen O’Grady, no Ars Technica]

Ao redor do mundo, as línguas assumem uma estonteante variedade de formas — a tal ponto que isso mantém um longo debate sobre se todas as línguas podem ter alguma propriedade em comum. Agora, de acordo com um paper publicado na edição dessa semana da PNAS, há um novo candidato ao fugidio título de “universal linguístico”. Todas as línguas, segundo os autores, se organizam de tal modo que conceitos relacionados ficam tão próximos quanto possível dentro de uma frase, facilitando a compreensão da noção geral que expressam.

Universais linguísticos são importantes porque lançam luz em questões fundamentais sobre a cognição humana. O mais famoso proponente da ideia de universais linguísticos é Noam Chomsky, que sugeriu uma “gramática universal”, a qual seria a base de todas as línguas. Encontrar a propriedade que ocorre em cada uma de todas as línguas seria uma indicação de que algum elemento da linguagem é geneticamente pré-determinado e talvez que exista uma arquitetura cerebral especificamente dedicada à linguagem.

Entretanto, como argumentam outros pesquisadores [em pdf], são pouquíssimos os candidatos a um verdadeiro universal linguístico. Eles afirmam que há uma enorme variedade em cada nível possível de estrutura linguística, incluindo os próprios sons que fazemos com nossas cordas vocais (ou os sinais das línguas de sinais).

Eles reconhecem a existência de tendências espalhadas através das línguas, mas argumentam que esses padrões são apenas um sinal de que as línguas encontram soluções comuns para problemas comuns. Se não encontrarmos um verdadeiro universal, fica difícil manter a hipótese de que a linguagem é um pacote cognitivo específico em vez de ser um resultado genérico das notáveis capacidades do cérebro humano.

Sistemas Auto-organizantes

Muito tem sido escrito sobre essa tendência das línguas de colocar as palavras com íntima relação sintática tão próximas quanto o possível. No Departamento do Cérebro e das Ciências Cognitivas do MIT, Richard Futrell, Kyle Mahowald e Edward Gibson estavam interessados em saber se todas as línguas usam esta técnica para facilitar o entendimento das sentenças.

A ideia é que amontoar conceitos relacionados alivia a memória de trabalho. Por exemplo, adjetivos (como “old”/”velha”) se ligam aos substantivos que modificam (“lady”/”senhora”). Assim, é mais fácil entender todo o conceito de “velha senhora” se as palavras aparecem juntas numa frase.

Você pode observar esse efeito decidindo qual dessas duas sentenças é mais fácil de entender: “John threw out the old trash sitting in the kitchen” [João jogou fora o lixo velho sentado na cozinha] ou “John threw the old trash sitting in the kitchen out” [João jogou o lixo velho sentado na cozinha fora]. Para muitos falantes de inglês [ou português], a segunda sentença vai soar estranha – nós estamos inclinados a manter as palavras “jogar” e “fora” tão juntas como possível. Esse processo que limita a distância entre palavras relacionadas é conhecido como minimização do comprimento de dependência [dependency length minimisation] ou DLM.

As línguas desenvolvem gramáticas que forçam os falantes a empacotar os conceitos, facilitado o acompanhamento e compreensão das frases? Ou, quando olhamos para toda a variedade de línguas, percebemos que nem todas seguem esse padrão?

Em vez de escrever as próprias frases, os cientistas do MIT queriam observar a linguagem tal como é realmente usada. Para isso, eles reuniram bancos de dados com exemplos linguísticos de 37 idiomas diferentes. Cada sentença no banco de dados recebeu um índice de acordo com o grau de DLM que apresentava: frases onde as palavras conceitualmente relacionadas ficavam longe tinham índices maiores; frases nas quais as palavras relacionadas ficavam sentadas juntinhas receberam índices mais baixos.

Em seguida, os pesquisadores compararam esses índices a um baseline. Eles tomaram as palavras em cada sentença e as embaralharam até que as palavras correlatas tivessem distâncias aleatórias entre si. Se a DLM não tivesse um papel no desenvolvimento de gramáticas, nós deveríamos ver padrões aleatórios como esses nas línguas. Palavras correlacionadas funcionariam com qualquer distância entre si. Por outro lado, se a DLM é importante, então os índices das sentenças reais seriam bem menores que os das frases embaralhadas.

Eles encontraram o que era esperado: “Todas as línguas têm uma média de comprimentos de dependência menores que a baseline aleatória”, segundo o paper. Isso é especialmente verdadeiro para sentenças mais longas, o que faz sentido – perto dos exemplos supracitados, não há tanta diferença entre “João jogou fora o lixo” e “João jogou o lixo fora”.

Os pesquisadores do MIT também descobriram que algumas línguas têm mais DLM que outras. As línguas que não se baseiam exclusivamente na ordem de palavras para comunicar o relacionamento entre os termos tendem a ter índices maiores de DLM. Línguas como o alemão e o japonês têm marcadores ou substantivos que indicam o papel de cada palavra numa sentença, o que lhes permite ter uma ordem frasal mais livre do que o inglês ou português. O estudo indica que os marcadores de tais línguas auxiliam a memorização e o entendimento, o que torna o DLM um pouco menos importante. Entretanto, mesmo essas línguas tiveram índices menores do que a baseline aleatória.

A árvore genealógica

Para Jennifer Culbertson, que estuda linguística evolucionária na Universidade de Edimburgo, esta nova pesquisa mostra uma importante peça do quebra-cabeça da linguagem. “É uma importante fonte de evidência para uma hipótese duradoura sobre como a ordem de palavras é determinada através das línguas do mundo”, disse ela ao Ars Technica.

Embora o paper tenha estudado apenas 37 línguas, é importante considerar o quanto é difícil reunir bancos de dados dos usos reais da linguagem. Para Culbertson, temos uma amostra de trabalho razoável. O problema, porém, é outro: muitas das línguas estudadas são aparentadas entre si, representando apenas umas poucas das inúmeras famílias linguísticas. Era de se esperar que todas se comportassem de modo parecido. Mais pesquisas são necessárias para controlar o fator parentesco linguístico.

Este artigo é o último sobre uma pilha de trabalhos anteriores dedicados ao assunto. Não é a única evidência da DLM — é mais uma prova corroborativa. Um bom conjunto de evidências convergentes, nas palavras de Culbertson. “Há muitas propostas de universais linguísticos”, explica ela, “mas basicamente todas são controversas.” Entretanto, é plausível que a DLM — ou coisa parecida — possa ser um candidato promissor para um mecanismo cognitivo universal que afeta a forma como as línguas são estruturadas.

Para um debate tão acalorado quanto este sobre universais linguísticos, há múltiplas interpretações desta evidência. Proponentes da escola de Chomsky podem argumentar que a DLM é indício de um módulo de linguagem dedicado ao passo que os que favorecem uma interpretação diferente podem sugerir que a memória de trabalho afeta todas as funções cerebrais e não apenas a linguagem.

Referência

rb2_large_gray25FUTRELL, R., MAHOWALD, K., GIBSON, E. Large-scale evidence of dependency length minimization in 37 languages [Evidência em larga escala da minimização do comprimento da dependência em 37 línguas]. PNAS, vol. 112, n. 33, pp. 10336–10341. doi: 10.1073/pnas.1502134112
chevron_left
chevron_right

Leave a comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Comment
Name
Email
Website