言語情報科学特別講義I -...

27
一日のれ 10.0011.30 言語解研究概論 (担当: 新井) 11.3013.00 眼球運動定実験の実習 (新井・大石・神長) * 実習のみ17号館進化認知科学研究センター脳ラボ <お> 14.0015.30 眼球運動定を利した心言語学研究 (神長) 15.3017.00 ERPを利した心言語学研究 (大石)

Transcript of 言語情報科学特別講義I -...

Page 1: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

一日の流れ

10.00~11.30 言語理解研究概論 (担当: 新井)

11.30~13.00 眼球運動測定実験の実習 (新井・大石・神長)• * 実習のみ17号館進化認知科学研究センター脳波ラボ

<お昼>

14.00~15.30 眼球運動測定を利用した心理言語学研究 (神長)

15.30~17.00 ERPを利用した心理言語学研究 (大石)

Page 2: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

言語理解研究概論

新井 学

学術振興会特別研究員

東京大学大学院総合文化研究科 言語情報科学専攻

言語情報科学特別講義I

Page 3: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Introduction

� 文全体の意味は個々の単語だけでは決まらない。

a) The dog bit the man.

b) The man bit the dog.

� (a, b)の文の意味の違いは「語順」、つまり個々の単語・句が現れる順序

による。

語順によって文構造が決定する (= 統語情報)

� 個々の語・句の情報と文構造の情報を統合することで文全体として正しい解釈が得られる。

=> その処理過程処理過程処理過程処理過程が本講義のテーマ

全く異なる意味情報を伝達

Page 4: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Incrementality (漸次的処理)

• 話し言葉(=Listening)は時間上で展開する。

• 書き言葉(=Reading)は空間上で展開する。

⇒言語情報は段階的に与えられる

⇒情報の受け手(人)も段階的に(つまり文の最後まで待たずに)処理を行っている。

例) The horse raced past the barn fell.

=> 動詞‘fell’において処理負荷が高いのは漸次的処理による。

Page 5: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Incremental processing

The horse

NP (animate)

agent

past the barn

PPVP

fell.

Verb (past)

矛盾矛盾矛盾矛盾!!!!

raced

Verb (past)

Main clause×

Page 6: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Incremental processing

The horse raced past the barn fell.

NP (animate)

agent in MC

Verb (past

participle)PP Verb (past)

関係詞節

“(which was) raced past the barn”

Main clause

theme in RC

再分析再分析再分析再分析

元の解釈 新しい解釈

Page 7: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Incremental processing

• 言語情報を漸次的に処理していく限り曖昧性のない文は存在しない。

• 中でもこのように文の構造解釈において再分析を強いられるタイプの文をGarden-path文文文文と呼ぶ。

• Garden-path文における処理困難は人が言語情報を漸次的に処理してい

ることの証拠である。

Q. ではその曖昧性・処理負荷はどのようにして解消されるのか?

Page 8: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

大きく分けて二つの異なる見解が存在する。

1) Garden-path model (Frazier & Fodor, 1978; Frazier, 1987)

= serial modular two-stage model

2) Constraint-based models (MacDonald et al., 1994; 他多数)

= parallel interactive one-stage model

一つの処理が終わるまで次の処理は始まらない

各言語情報をモジュールとして別々に処理する

同時に複数の処理を行える

各言語情報は互いに影響(又は干渉)し合う

曖昧性・処理負荷の解消方法

Page 9: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Garden-path model

� 第1段階:文構造における曖昧性を二つの原則に従って解消する。

1) Minimal attachment- 新しい語句は最もシンプルな構造を作るように統合される。

e.g., The student forgot the solution was in the back of the book.

⇒ 名詞句を直接目的語として解釈する方がSentence Complementより構造的にシンプル

2) Late closure- 構造的な複雑さが同等の場合、新しい語句は既に処理した句ではなく、現

在処理している(i.e., late)句に修飾する。

e.g., John said he would leave yesterday.

⇒ 常に決まった解釈が選択される(i.e., fixed-choice model)×

○(early)(late)

Page 10: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Garden-path model

• 語彙のカテゴリー情報(動詞、名詞など)以外の情報は第2段階で扱われ

る。

このモデルによる予想

語彙のカテゴリー情報

<第1段階> <第2段階>

意味的整合性 文脈 非言語情報

初分析 再分析

⇒ しかしどの程度‘遅れて’現れるかについて正確な予想が立てられない

⇒ 実際に実証/反証することは難しい。

意味的な整合性(Plausibility)や文脈情報などの影響は遅れて現れる。

Page 11: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Constraint-based models

• 様々な言語情報のみならず非言語情報を含むあらゆる情報がオンライン

で制限(Constraint)として作用し、可能な解釈の中で最もその制限に適合し

た解釈が選択される。

意味的整合性

文脈

非言語情報

文解釈

語彙レベル

頻度情報

語彙のカテゴリー

情報

このモデルによる予想

あらゆる情報が同時に初分析に影響を与える

⇒ なんでもありなので正確な予想が立てにくい

Page 12: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Supportive evidence

� 先行文脈

e.g., A burglar broke into a bank carrying some dynamite. He planned to blow

open a safe. Once inside he saw that there was …

1a) a safe with a new lock and a safe with an old lock. (two safes 条件)

1b) a safe with a new lock and a strongbox with an old lock. (one safe 条件)

� ターゲット文

2a) The burglar blew open the safe with the new lock. - 名詞句修飾

2b) The burglar blew open the safe with the dynamite. - 動詞句修飾

� 通常は動詞句修飾が好まれる為、 (2a)は再分析による処理負荷がかかる。

� しかし先行文脈(1a)の後では(2a)の方が(2b)よりも処理が容易だった。

⇒ 文脈情報が直接文構造分析に影響を与えたのでGP modelを反証。

Altmann & Steedman (1988): 読み実験

Page 13: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Constraint-based modelsの実証

� しかし文脈など統語以外の情報はGP modelの第2処理段階で使われた

(つまり再分析が速く行われた)と主張することもでき、こうした読み時間などの結果をもってGP modelを完全に反証することは難しい。

� Juliano & Tanenhaus (1994) – NP/Sentence complement ambiguity

� McRae, Spivey-Knowlton & Tanenhaus (1998) – MC/RC ambiguity

� Tabor, Juliano, & Tanenhaus (1997) – that ambiguity

⇒ すべてのモデルは語彙固有の統語(頻度)情報をパラメーターとして含んでいる(Constraint-based modelsと合致)。

⇒ 統語情報として、語彙非依存(lexically-independent)の統語情報だけ使われるのか、それとも語彙固有 (lexically-specific)の統語情報も

使われるのかが争点となる。

� 別のアプローチ

こうした実験結果を最も適切に説明することのできるコンピューターモ

デルを検証する。

Page 14: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

二つの見解の争点

• 語彙レベル、つまり各動詞固有の統語的頻度情報がオンラインの文構造処理で利用されるか(=> CB models)、否か(=> GP model)?

• CB modelsではある特定の動詞がどの時制、態、構造、どういった意味的

役割を持った構成要素と結びついたかという情報の頻度すべてが記録されると仮定する。

(MacDonald et al., 1994)

e.g., “The witness examined by the lawyer was lying.”

上の文を処理することで、太く囲まれた情報が記録される。

Page 15: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

二つの見解の争点

e.g., “The young athlete realized her exercises one day might make her a

world-class sprinter.” (Pickering et al., 2000)

• 上の文を処理する際に動詞realizeがSentence Complementの解釈を(主

節の解釈より)好むという情報が即時に使われるかどうか?

• 過去の研究結果は二分されている。

No!

Ferreira & Henderson, 1990

Mitchell, 1987

Pickering et al., 2000

Pickering & Traxler, 2003

Van Gompel & Pickering, 2001

Yes!Clifton et al., 1984

Garnsey et al., 1994

Stowe et al., 1991

Trueswell et al., 1993

Staub, 2007

Page 16: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

過去の研究の問題点

e.g., “The young athlete realized her exercises one day might make her a world-class sprinter.”

• 特定の動詞が自動詞かどうかという情報が即時に使われるかどうか。

e.g., After the child had sneezed the doctor | prescribed a course of injections.

� ‘the doctor’において読み時間の増加があった ⇒ ’sneezed the doctor’と

いう誤った解釈を行った。

� これを受けてMitchellはsneezeが自動詞であるという情報は無視される、

つまり語彙レベルの統語情報は初分析に使われないと主張。

Mitchell (1987): 読み実験

⇒ 今までは動詞の後の名詞句における処理時間を見ていた

⇒ 動詞自体で何が起こっているのかは無視

Page 17: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

過去の研究の問題点• しかしそうした動詞固有の統語情報はその動詞を処理した時点で使われ

ている可能性がある。

“The young athlete realized her exercises one day might make her a world-

class sprinter.”

処理1 ‘realized’を処理した時にはsentence complementの解釈が優位

処理2 しかし’her exercises’を処理した時その名詞句が動詞の直接目的語になり得

るか(主節の解釈を)その妥当性をチェックした。

- SVOの文型はもっともシンプル、且つ頻度が高い。

- ほぼすべての動詞は直接目的語を取ることができる

e.g., ‘sneeze the foam off the cappuccino’

- thatの省略

⇒ 動詞を処理した時にその動詞の後にどういった情報が来るかという予測

的処理と、動詞の後の名詞句を受け取った後の事後的処理の二つの処理

が存在する。

可能なストーリー

Page 18: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Prediction & Integration

� Incremental processにおける二つのプロセス

….. Wn-3, Wn-2, Wn-1, Wn…..

1. 予測(Prediction): 今まで受け取った情報をもとに次に現れるであろう情報を予測する( …Wn-1 までの情報を元にWnの予測)

2. 統合(Integration): 実際受け取った情報を統合する(Wnを受け取った後の処理)

Q. Integrationにおける処理負荷はpredictionに依存する?

⇒次に来ると予想された単語が実際に現れた場合処理は容易。

Page 19: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

予測を含んだ文処理モデル

• Wn-1までで予測される解釈の確率とWnを受け取った後のその解釈の確率の差(= surprisal)が処理負荷と比例する。

log(Pr(w1...n−1)) − log(Pr(w1...n))

Surprisal = –log(Pr(w1…n|w1….n–1))

• これはつまり

予測の確率分布 実際の確率分布

と同じ。

⇒ Wn-1においてある情報の出現確率が高く、そしてその情報が実際に現れた時にはSurprisalの値は0

に近くなる。

⇒ 逆にWn-1においてある情報の確率が低く、しかしWnで現れた場合、Surprisalの値は大きくなる。

<定義>

Surprisal theory (Hale, 2001; Levy, 2007)

(Hale, 2001)

Page 20: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

予測的プロセスの実証例 I

語彙の意味的情報による予測

Altmann and Kamide (1999): Visual World Paradigm実験

“When the boy will eat …”

move …”{ケーキケーキケーキケーキをををを見見見見たたたた確率確率確率確率((((黒線黒線黒線黒線))))ののののタイムコースタイムコースタイムコースタイムコース

Page 21: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

予測的プロセスの実証例 II

態の意味的情報による予測

Altmann and Kamide (2007)

“The manwill drink …”

has drunk …”{

空空空空ののののグラスグラスグラスグラスととととジョッキジョッキジョッキジョッキいっぱいのいっぱいのいっぱいのいっぱいのビールビールビールビールをををを見見見見たたたた確率確率確率確率

> <

Page 22: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

予測的プロセスの実証例 III

動詞固有の統語的及び形態的情報による予測Arai & Keller (submitted)

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0

60

12

0

18

0

24

0

30

0

36

0

42

0

48

0

54

0

60

0

66

0

72

0

78

0

84

0

90

0

96

0

10

20

10

80

11

40

12

00

12

60

13

20

13

80

14

40

Time from the past participle verb onset (ms)Gaze Probability to RC Agent Entity

Reduced + Low PastP Reduced + High PastP

Unreduced + Low PastP Unreduced + High PastP

関係詞主語関係詞主語関係詞主語関係詞主語((((学生学生学生学生、、、、修道女修道女修道女修道女))))へのへのへのへの注視注視注視注視ののののタイムコースタイムコースタイムコースタイムコースThe videotape watched

by the student was

found under the chair.

The song recorded by

the nun was about the

flower.

過去分詞形過去分詞形過去分詞形過去分詞形でででで使使使使われるわれるわれるわれる頻度低頻度低頻度低頻度低 過去分詞形過去分詞形過去分詞形過去分詞形でででで使使使使われるわれるわれるわれる頻度高頻度高頻度高頻度高

“which was”をををを挟挟挟挟んだんだんだんだbaseline条件条件条件条件とととと比較比較比較比較

差差差差がががが見見見見られたのはられたのはられたのはられたのは過去分詞形過去分詞形過去分詞形過去分詞形のののの頻度頻度頻度頻度のののの低低低低いいいい動詞動詞動詞動詞((((watch))))のみのみのみのみ

recorded

watched

Page 23: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

予測的プロセスの実証例 IV

音韻的情報による予測

Ito & Speer (2008)

‘‘First, hang the green drum’’

‘‘Now, hang the BLUE drum’’

Contrastive focus cue (L+H*)によってによってによってによってターターターター

ゲットゲットゲットゲットへのへのへのへの注視注視注視注視がががが促促促促されたされたされたされた。。。。

Page 24: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

日本語における予測的プロセス

⇒ (a)の「客に」(dative case)の後では、(b)の「客を」(accusative case)の後

に比べてハンバーガーを多く見た。

a) ウェイトレスが客に楽し気にハンバーガーを運ぶ。

b) ウェイトレスが客を楽し気にからかう。

Kamide, Altmann, & Haywood (2003)

格助詞による予測

Page 25: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

Summary

� 人は漸次的に言語情報を処理する。

� そうすることにより作業の効率化と共に曖昧性が生じる。

� その解決方法には大きく分けてserial two stagesのGarden path modelと

parallel one stageのConstraint-based modelsの二つの見解がある。

� 重要な争点は語彙レベルの統語情報がオンラインで文構造分析に影響を

与えるかどうか。

� 今までの研究結果は二分されているが、その理由の一つに過去の研究ではintegrationプロセスのみに焦点が当てられていたことが考えられる。

� Predictionとintegrationという二つの別々の処理が存在する。

� Visual World Paradigmを利用した最近の研究により予測的プロセスの実証

例が多く報告されている。

� Predictionにおける確率と、integrationにおける確率の差(Surprisal)に比例し

て処理負荷が増大するというモデルが提唱され、この二つのプロセスの関

係性が近年明らかになってきた。

Page 26: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

課題

Tanenhaus, M. K., Spivey Knowlton, M. J., Eberhard, K. M., & Sedivy, J. C.

(1995). Integration of visual and linguistic information in spoken language

comprehension. Science, 268, 1632-1634.

上の1995年にScienceに掲載された論文を読み、なぜこの実験結果が

Constraint-based modelsを支持し、Garden-path modelを反証することになる

か説明して下さい。

Page 27: 言語情報科学特別講義I - 東京大学ecs.c.u-tokyo.ac.jp/education/ARAI.pdfIncrementality(漸次的処理) • 話し言葉(=Listening )は昷間上で展開する。•

The end of 一コマ目