<?xml version="1.0" encoding="utf-8"?><feed xmlns="http://www.w3.org/2005/Atom" ><generator uri="https://jekyllrb.com/" version="3.10.0">Jekyll</generator><link href="https://kohei-kaji.github.io/feed.xml" rel="self" type="application/atom+xml" /><link href="https://kohei-kaji.github.io/" rel="alternate" type="text/html" /><updated>2026-04-06T18:41:09+00:00</updated><id>https://kohei-kaji.github.io/feed.xml</id><title type="html">Kohei Kajikawa（梶川康平）</title><subtitle>personal description</subtitle><author><name>Kohei Kajikawa</name></author><entry><title type="html">アメリカの大学院への出願について</title><link href="https://kohei-kaji.github.io/posts/2025/phdapp/" rel="alternate" type="text/html" title="アメリカの大学院への出願について" /><published>2025-05-23T00:00:00+00:00</published><updated>2025-05-23T00:00:00+00:00</updated><id>https://kohei-kaji.github.io/posts/2025/phdaap</id><content type="html" xml:base="https://kohei-kaji.github.io/posts/2025/phdapp/"><![CDATA[<p>2025秋入学のサイクルで、アメリカの大学院の博士課程に出願しました。その記録です。</p>

<h1 id="自己紹介">自己紹介</h1>
<p>2025年秋からアメリカのジョージタウン大学 言語学科の博士課程の学生になります。
外国暮らしの経験はないです。
学部・修士は東大 教養学部の言語学のコースでした。</p>

<p>出願に際し、わからないことだらけだったので、出願体験についてここに残しておきます。</p>

<p>なお、出願したのは、</p>
<ul>
  <li>Georgetown Linguistics</li>
  <li>Johns Hopkins Cognitive Science</li>
  <li>Maryland Linguistics</li>
  <li>MIT Brain &amp; Cognitive Science</li>
  <li>UC Irvine Language Science</li>
  <li>UCLA Linguistics</li>
  <li>UC San Diego Linguistics</li>
  <li>Yale Linguistics</li>
</ul>

<p>の8つです。</p>

<p>アメリカの大学院は、「書類審査→面接」で合否が決まるのですが、
このうち、UCI と UCLA は書類落ち、他は面接に進むも落とされ、ジョージタウンだけが合格をくれました。</p>

<h2 id="なぜ出願したか">なぜ出願したか</h2>
<ul>
  <li>修士に入ってから、何となく、同じ場所に進学するのに抵抗を感じてきたので。
    <ul>
      <li>大学は楽しかったが、このままずっと同じところにいるとお山の大将になる気がしていました。ふわっとした理由です。</li>
    </ul>
  </li>
  <li>あとは、7月に、はじめてオランダでの認知科学の国際会議に参加し、ここで、外国のPhDの学生や著名な研究者にたくさん会ったのですが、その人たちと話すのが楽しくて、自分もこういったコミュニティに入りたいなぁと強く思うようになりました。
    <ul>
      <li>「論文の向こう側」にしかいないと思っていた人たちが現実に存在することに気づき、日本以外の可能性、というのを意識するようになりました。</li>
    </ul>
  </li>
</ul>

<h2 id="minimum-score">Minimum score</h2>
<p>英語で教育を行っている大学を卒業していない場合、出願時に TOEFL や GRE の score が求められ、application form に入力する必要がありました。
大抵の大学院は、TOEFL で120点中100点です。
さらに、TOEFL は 4技能30点ずつですが、各技能ごとに minimum score がある場合もありました。
具体的な数字は、大学院の出願要件のページにはない、もしくは正確ではない場合もあり、application form のなかに書いてありました。</p>

<p>TOEFL の要求は、そもそも研究を英語で行うことができるのか、ということと、入学後に teaching assistant (TA) として雇用するための要件を満たしているのか、ということの確認のためのようです。</p>

<p>ただ、私の出願時の TOEFL の点は、
Listening 18, Reading 24, Writing 21, Speaking 17 の 81点でした。
minimum score を超えていたのは UCI だけでした。</p>

<p>また、GRE は受けませんでした。
Johns Hopkins では要求されていましたが、受けても点が取れるわけがなかったので、0点と記入して出願してみました。</p>

<p>minimum score を下回っていても、出願の際に機械的に弾かれることはないので、出願することはできます。
なお、どの大学の form にも太字で minimum score の要求が書いてあるので、常識を備えているのであれば、要件は満たしておくべきでしょう。
私の最終的な合否に TOEFL の点がどれくらい影響しているのかはわかりませんが、まあ流石に関係はある気はしました。
少なくとも面接等を経て、もっと英語が堪能じゃないと楽しくないなぁとずっと思っていました。
だが、これ以上の点数が取れなかったので仕方ないです。</p>

<h1 id="出願日記">出願日記</h1>

<ul>
  <li>5月ごろ
    <ul>
      <li>何となく可能性を潰したくないと思い、フルブライト奨学金の予備調査に応募。</li>
      <li>正式に応募する手前に、応募資格等を確認されるもので、3-5月中に必要だった。これを逃したら正式出願ができない。</li>
      <li>所属大学や、大学院で研究したいことに関する英作文を書いて提出する。</li>
    </ul>
  </li>
  <li>6/18
    <ul>
      <li>はじめて TOEFL を受けてみた。61/120点。その後問題集を買って訓練をして複数回受験、81点。
        <ul>
          <li>結局この点数のまま出願に至る。</li>
          <li>受験料は1回3-4万くらい、高い。</li>
          <li>後から知ったが、各大学の application form には、「事前に連絡くれれば、TOEFLの受験料の肩代わりを検討します」という文言があった。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>7/1
    <ul>
      <li>フルブライト奨学金の正式応募期限。
        <ul>
          <li>要件としては、この日までにTOEFL80以上をとっている必要があるのと、一人か二人の先生による推薦状を書いてもらう、というものだった気がする。</li>
          <li>CoNLLという国際会議の期限と重なっていて、CoNLLに出せそうなネタが急に固まったのでフルブライト奨学金はあきらめた。</li>
          <li>もちろん、直前に色々やろうとしていたのが問題なのであって、時間はいくらでもあったのだからもっと早くにやるべきだった。
            <ul>
              <li>「海外大学院にいこう！」という気持ちがそこまで強くなかったので、大して頑張れなかった。</li>
              <li>JASSOは95以上が必要、とかだったのでもっと無理だった。</li>
              <li>だが、奨学金は頑張るべきところではあった。不合格とされたところのうち数校は、（方便なのかもしれないが）「留学生」かつ奨学金を持っていないことを理由に採用できなかった、と言われた。
                <ul>
                  <li>こういった理由が書かれているメールをもらうと、後悔が止まらなくなるので、精神衛生上極めてよろしくない。避ける方法は「英語を勉強しておくこと」だった。</li>
                </ul>
              </li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
  <li>7/24-27
    <ul>
      <li>オランダ、ロッテルダムでのCogSci（認知科学の国際会議）に参加。
        <ul>
          <li>自分にとって初の西洋、初の海外国際会議。</li>
          <li>ここで、MITのPhD学生の方に会い、その方が他の学生の方々を紹介してくださって色んな人と交流できた。アメリカのPhDの学生にたくさんあったが、その人たちと話すのが楽しくて、自分もこういったコミュニティに入りたいなぁと思った。</li>
          <li>研究ジャンキーだらけだった。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>夏-秋
    <ul>
      <li>英語の勉強しないとなぁ、出願準備しないとなぁの期間。</li>
      <li>出願先を割と真剣に考え始める。</li>
      <li>このころ、同時に各種奨学金の募集もたくさんあったが、採用されている人をみたらレベルが高く、やる気がしなかったので一切を諦めた。きっぱり諦めると考えないで済むので、気が楽になる。</li>
      <li>各大学院のホームページを見て、先生や学生リスト、出願要件等を眺める。
        <ul>
          <li>このとき、すでに application form は open だったが、特に登録しなかった。</li>
          <li>後になって振り返ると、これは良くなかった。というのも、出願に関する多くの情報（TOEFLの最低要件はいくらなのか、GREは必要か、Statement of Purpose に書くことへの指定、diversityやhardshipに関するエッセイなどSoP以外の要求などなど）がapplication form 内にしか載っていないことが多く、直前に慌てて準備するのは非常に大変だったしものによっては不可能だったので、絶対に避けるべき案件。最終的に submit しなくても、メアドの登録だけはして中身を見ても良いのかも。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>11/5
    <ul>
      <li>出願のために、statement of purpose を書きはじめる。
        <ul>
          <li>ライバルたちは多くの人に見てもらいながら修正を重ねるものなので、どう考えてももっと早くから準備をしておくべきものだった。が、やろうやろうと思ってついぞ始められたのがこの日だったから仕方ない。
            <ul>
              <li>ほとんど手探りで書いているので、どういう書き方が良かったのかわからない。
                <ul>
                  <li>「わからない」で書いているのは最悪ではあると思う。</li>
                  <li>どういった研究をしてきたのか、どういった研究がしたいのか、そのためにあなた方のところで勉強・研究したい、ということを書いた。問題文には大抵「場合によっては研究以外も自身のアピールになると考えるならば書いていい」とあったが、文章力で負けそうなので研究メインで戦ってみることにした。
                    <ul>
                      <li>研究押しにするのが最善手だと思ったが、研究の上位互換が同時に出願していたらすぐさま負ける戦い方ではある。他の人はどうしていたのだろう。まあ仕方ないのか。</li>
                    </ul>
                  </li>
                </ul>
              </li>
              <li><a href="https://nschneid.medium.com/inside-ph-d-admissions-what-readers-look-for-in-a-statement-of-purpose-3db4e6081f80">ジョージタウン大学のNathan Schneider氏の記事</a> を参考にした。
                <ul>
                  <li>結局、この人のところに行くことになった。</li>
                </ul>
              </li>
            </ul>
          </li>
          <li>周囲の方々に見ていただいた。感謝。
            <ul>
              <li>ChatGPTの4oにも見ていただいた。かっこいい言葉に変えていただけるが、良し悪しの判断がつかないので、うまく使いこなせなかった。プロンプトの知識がなかった。</li>
            </ul>
          </li>
          <li>書いたものは、連絡をいただければ共有はできます。参考になるかはわかりませんが。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>11月中
    <ul>
      <li>マイアミでの学会に参加。UCSDの先生に会った。
        <ul>
          <li>TOEFL の点が足りていないことを伝えると、「学科ではなく大学自体が決めたルールだったりするので、どうにもできない場合もあるかもしれないが、少なくとも学科レベルで点数を気にしている人はあまりいないからとりあえず出願したら良い」と言われた。「10校受けたら1校は受かるでしょう」とも、「とりあえずUSCDに出願したら検討することはできる」「もしダメでも visiting scholar の機会を用意できる」と言ってくださった。</li>
          <li>10校受けよう、と思った。</li>
        </ul>
      </li>
      <li>推薦書を書いてもらうよう、お世話になっている先生方にお願いをした。常識があるのならもっとはやくお願いするもの、ということは理解はしていた。</li>
      <li>学部・修士の成績表を印刷してきたり、GPAを計算してみたり。履歴書を作ったりもした。
        <ul>
          <li>東大教養学部は GPA がないので、<a href="https://applications.friendsofutokyo.org/GPACalculator/GPACalculator3.php">東大友の会が公開している計算表</a> を参考に、勝手に GPA を計算して提出した。</li>
        </ul>
      </li>
      <li>application form に実際に登録してみて、必要書類を集めたりしていた。</li>
    </ul>
  </li>
  <li>12/1
    <ul>
      <li>複数校が12/1（の23:59）締切だった。</li>
      <li>MITのapplication formが、現地時間で12/1になった瞬間（＝日本で、12/1の14時）に突然閉じた。
        <ul>
          <li>ギリギリまでessayを調整しようとしていたため、applicationを完了していなく、パニックに陥る。</li>
          <li>admission committieと志望先の先生にメールをし、何とか受理してもらえないか連絡する。取り合ってもらえた。</li>
        </ul>
      </li>
      <li>TOEFLやGREのrequirementsの詳細や、そのほか用意すべき資料等については、application formを開いて初めてちゃんとわかるものが多いので、早めに開いて入力できるものについては入力しておくべき。
        <ul>
          <li>最後のsubmitボタンを押してお金を払わない限りは期間内なら何度でも訂正可能。</li>
          <li>推薦状の依頼も、application form内から行うものだった。メールアドレスを打ち込み、form経由で各先生に執筆依頼を送る、というもの。
            <ul>
              <li>早めにやるべきだった。</li>
            </ul>
          </li>
          <li>statement of purposeについても、application formに「ちゃんとした問題文」がそれぞれ書いてあるので、早めに開いてみておくべき。
            <ul>
              <li>これを怠っていたので、直前に初めて問題文を見て内容を慌てて書き換える必要が生まれてしまったりした。愚か。</li>
            </ul>
          </li>
          <li>大学院によっては、さらに一般的な記述問題がたくさんあった。「diversity にはどう貢献しますか？」とかそういうもの。良い子ならば書くだろう内容を ChatGPT に教えてもらって書いた。</li>
          <li>TOEFLのような test score は、点数の証明をテストの機関から大学院に送ってもらう必要があるのだが、その手続きに数日を要するので早くやっておかないといけなかった。
            <ul>
              <li>test score を送るのにも毎度数万とられる。足元を見過ぎ。</li>
              <li>各大学院の出願にも毎度数万をとられる。カードの上限にも気をつけていないといけない。</li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
  <li>12/4, 8, 13
    <ul>
      <li>残りの大学についても出願。</li>
      <li>すべてTOEFL 81で出した。</li>
    </ul>
  </li>
  <li>12/13
    <ul>
      <li>Georgetown の先生からメールが来た。書類審査が通ったとの連絡。早くて嬉しかった。</li>
      <li>zoom でラフに conversation をしましょう、とメールをいただいたので、言葉通りとって本当にラフに会話しにいったら、普通に面接だった。
        <ul>
          <li>zoomのタイトルがinterviewだったし、開始早々interviewといわれた。</li>
          <li>ちゃんと準備するべきだったと猛省。</li>
          <li>computational linguisticsに関わる3人の先生がいらっしゃった。</li>
          <li>日本との時差を考慮してくださっていた。こちらが23時、現地が朝9時だった。ありがたい。</li>
        </ul>
      </li>
      <li>どういう研究がしたいか、具体的なプランはあるのか、なぜgeorgetownを志望したのか、過去の研究はどうやって考えたのか、過去の研究で他に検討した方法等はあるのか、ということを聞かれた。
        <ul>
          <li>後半については、過去の研究が指導教員ではなく自分の発想であるかを確かめられたのだと思う。</li>
          <li>ここは、もっとも丁寧に過去の研究を聞かれ、最も今後の研究計画について聞かれなかった。</li>
        </ul>
      </li>
      <li>何か聞きたいことはある？といわれたので、TOEFLの点低いけど大丈夫？というのと、なぜ私は書類を通ったの？と聞いてみた。
        <ul>
          <li>TOEFLの点はあるに越したことはないけど、TAは初年度に与えないようにはできるので、それまでに英語に慣れてくれればいい、といわれた。</li>
          <li>点数が低いことは承知の上で面接に呼んでくださっていると思われるので、わざわざこちらからTOEFLの話をする必要ないなぁと反省し、この後の面接では聞くのをやめた。</li>
          <li>なぜ私？に対しては、研究テーマが近いから、興味が合致しているから、publication数（3人のなかで最も分野が遠い先生から）といわれた。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>12/21
    <ul>
      <li>Johns Hopkins から 2/6-7 に大学での対面面接に呼ばれた。</li>
    </ul>
  </li>
  <li>1/3
    <ul>
      <li>Yaleからinterviewの連絡が来た。</li>
      <li>1/8に実施。夜中の3時。やってみて全然頭が働かなかったので、避けられるのなら夜中は避けるべきだと思った。</li>
      <li>ちゃんとinterviewだったし、またまた準備不足。
        <ul>
          <li>書類を通ったのは数%です。Congratulations! と言われた。ならば合格にしてくれ、と思った。</li>
          <li>研究してきて楽しいと思う瞬間はどういうときか、なぜYaleか、Yaleでは2つの分野のプロジェクトを進めるのだが何をしたいか、というものだった。</li>
          <li>終わってからPhD interviewで検索すると、こういった一般的な質問は面接であるあるの質問のようで、対策可能だったのに、ダラダラ要領を得ないことを言ってしまった。</li>
        </ul>
      </li>
      <li>SoPで言及した4人の先生のうち3人の先生によるinterviewだった。</li>
    </ul>
  </li>
  <li>1/7
    <ul>
      <li>MITからinterviewの連絡が来た。応募のうち上位3%だったので呼びました、とのことだった。</li>
      <li>3/14,15にオンラインイベントをやるよ、その時一緒に面接もするよ、との連絡だった。</li>
    </ul>
  </li>
  <li>1/15
    <ul>
      <li>UCSDからinterviewの連絡が来た。</li>
    </ul>
  </li>
  <li>1/23
    <ul>
      <li>UCSDの先生と面接をした。1対1だった。</li>
      <li>どういう研究をしたいのか、ということを聞かれた。</li>
    </ul>
  </li>
  <li>1/29
    <ul>
      <li>Marylandからinterviewの連絡が来た。</li>
    </ul>
  </li>
  <li>2/1
    <ul>
      <li>UCSDから、waitlist（補欠）に入りました、との連絡が来た。
        <ul>
          <li>UCSDの先生とは、テーマがドンピシャというわけではなかったのだが、「他の状況次第」ということで waitlist に入れてくださった。</li>
          <li>また、TOEFL の点から、言語学の授業のTAはできないが、日本語の授業のTAにならねじ込めるかも、といってくださった。</li>
        </ul>
      </li>
      <li>早いところだとこのあたりには合格通知が来るので、だんだん雲行きが怪しくなっていた。
        <ul>
          <li>合格の場合、先生から直接メール。</li>
          <li>不合格の場合、大学公式から直接お祈りメール。時差の関係上、これが深夜に来がちなので最悪。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>2/4
    <ul>
      <li>Marylandの先生と面接をした。1対1だった。</li>
      <li>どういう研究をしたいのか、ということを聞かれた。先生が今後数年間でやりたい研究の話を聞かせてもらい、それに対してどう思うのか聞かれた。面白かったので前向きな反応ができたし、とても手応えがあった。</li>
      <li>将来は industory に進みたいのか、academia に進みたいのか、ということについても聞かれた。</li>
    </ul>
  </li>
  <li>2/6-7
    <ul>
      <li>Johns Hopkins 面接。ワシントンDC経由でボルチモアに行った。
        <ul>
          <li>電車に乗って行った。冬だったので非常に寒かった。</li>
          <li>治安は悪かった。</li>
        </ul>
      </li>
      <li>あわせて15人の人がよばれていて、現地に11人の学生＋4人zoomで参加していた。</li>
      <li>およそ8人ほど採用する、とのこと。
        <ul>
          <li>新人の先生がいて、1人以上は絶対にとる、ということだったので、いつもより1-2人多いっぽい。</li>
          <li>↑こういったことは大学選びにおいて大事みたいで（多くの先生は基本0-1人採用に対し、新任の先生は確実に1人、多くの場合は2人以上採用するので）、現地で会ったうち4-5人ほどはその新任の先生目当てだった（もちろん、人気分野だし、超著名な先生だというのもあるが）。</li>
          <li>結局何人採用したのかは知らない。</li>
        </ul>
      </li>
      <li>15人の選考基準は、メインの指導教官になる、という先生がいて、さらに少なくとも一人以上別の先生から興味を示された人、だった。</li>
      <li>2月末までに結論を出す、とのこと。</li>
      <li>現地に来ていた学生は、うち9人はアメリカの大学所属だった。
        <ul>
          <li>Cognitive Science学科なので、同じく言語学系の人とは出願先が複数被ったが、まったく被ってない人も何人かいた。</li>
          <li>Psychology, Computer Science, Neuroscienceなどなど。</li>
        </ul>
      </li>
      <li>3人が学部生、8人が修士所属だった（が、日本とシステムが違うので関係なさそう、というか話を聞いてもよくわからなかった）。</li>
      <li>3-5人の先生と、順番に30分ずつくらいでinterviewをした。自分は4人の先生だった。どういう基準で選ばれているのかよくわからない。
        <ul>
          <li>自分が面接されている、ということを忘れてしまっていた。非常に後悔している。</li>
          <li>もっと自分には能力があるとアピールするべきだった。素直に、「今は次の5年でどういう研究をしたら良いかわからず迷っている」とばかり言ってしまった。意味不明。</li>
          <li>ニューラルネットでのモデリング研究をしている先生の研究に、「面白いとは思うが自分は興味がない」と言ってしまった。英語力が足りず、オブラートに表現する、みたいなことができずに、思った通りのことしか言えなかった。</li>
        </ul>
      </li>
      <li>雰囲気は良かった、し、楽しかった。
        <ul>
          <li>先生の雰囲気がとにかく良かった。学生の方々も楽しそうだった。</li>
          <li>同世代の、これから博士に進学したい、という人たちに会えてよかった。「周りを蹴落とそう」みたいな野生スタイルではなく、純粋に交流をしようという人たちばかりだったのは意外だった。</li>
          <li>Cognitive Science 学科なので、視覚・脳・ニューラルネットワークみたいなキーワードの研究をやっている人が多く、多くの人とはなんか興味が違うな、とは思ってしまった。もし入学したら、自分もLLM（大規模言語モデル）の内部分析とかをするのだろうか、それはやりたいことなのか、とか考えていた。
            <ul>
              <li>もちろん、数人、人間の文処理の人はいた。特にこの人たちに会えたのはよかった。</li>
            </ul>
          </li>
        </ul>
      </li>
      <li>各大学は、秋にオンラインで個別説明会的なものを催してくれているらしくて、そこに参加した、という人は多くいた。
        <ul>
          <li>おもにPhD学生が先生紹介やessayの添削てきなことをしてくれるらしい。</li>
          <li>夏あたりからformが開いている、とか。</li>
        </ul>
      </li>
      <li>西海岸の大学院は、物価高から外国人学生を採らないつもりだ、という話を聞いた。
        <ul>
          <li>火事がさらに追い打ちをかけたらしい。</li>
          <li>UC IrvineとUCLAから連絡が来ない、という話をしたらそう言われた。</li>
        </ul>
      </li>
      <li>せっかくアメリカに行ったので、ついでに Maryland と Georgetown に立ち寄って散歩して帰った。
        <ul>
          <li>どちらも、空港までの電車で途中下車すれば行ける距離にあった。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>2/13
    <ul>
      <li>UCLA から、正式に不合格通知を受ける。</li>
    </ul>
  </li>
  <li>2/15
    <ul>
      <li>Yale から、正式に不合格通知を受ける。</li>
    </ul>
  </li>
  <li>2/19
    <ul>
      <li>UCI から、正式に不合格通知を受ける。</li>
    </ul>
  </li>
  <li>3/13
    <ul>
      <li>Johns Hopkins から、正式に不合格通知を受ける。</li>
    </ul>
  </li>
  <li>3/15,16
    <ul>
      <li>MIT の面接。</li>
      <li>2日かけて、1対1の面接を5人の先生と行った。
        <ul>
          <li>SoPに名前を書いた先生3人と、まったく知らない、分野が異なる先生2人だった。
            <ul>
              <li>一応、残り2人については論文をいくつか読んでみた。読んでいたので相手の話が理解しやすかったし間がもった。</li>
            </ul>
          </li>
          <li>今年は、1,000人ほど出願して、30人が面接に残った、とのことだった。そして、そこから15人ほどを取る、と言っていた。もう半分の15人に入ってしまった。</li>
        </ul>
      </li>
      <li>3月からサマータイムで、時差が1時間変わっていた。これを知らなかったので、最初のイベントには遅刻したし、面接も朝の5時からになってしまったので寝ずに出ることにした。
        <ul>
          <li>基本的には、どの先生も、どういった研究をしてきたのか、どういった研究をしたいのか、ということだった。</li>
          <li>1人の先生から、「Stanfordは受けていないのか。あなたのやりたいことはStanfordの先生のところに行ったら良い。来年受けたらいいよ」と言われた。直接「うちではありません」と言われたも等しいので悲しかった。そんな簡単に出して受かるんなら楽なもんですなあと思いました。多分この先生からの票をもらえなかった。</li>
        </ul>
      </li>
      <li>研究については、心理実験や計算モデリングだったらどっちを主軸にしてやっていきたいのか、とか、LLM（大規模言語モデル）の研究をやったことはあるか、と聞かれた。
        <ul>
          <li>心理言語学をするとしても、LLMを使った研究をやる学生が欲しいようだった。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>3/17
    <ul>
      <li>Maryland から、正式に不合格通知を受ける。</li>
    </ul>
  </li>
  <li>3/21
    <ul>
      <li>Georgetown の先生から連絡が来た。お金を工面できさえしたら採用できるので、あと少しだけ待っててほしい、とのことだった。</li>
    </ul>
  </li>
  <li>3/22
    <ul>
      <li>MIT から、正式に不合格通知を受ける。</li>
    </ul>
  </li>
  <li>3/30
    <ul>
      <li>Georgetown から、正式に合格通知を受ける。</li>
    </ul>
  </li>
  <li>4/11
    <ul>
      <li>UCSD から、正式に不合格通知を受ける。
        <ul>
          <li>UCSD の先生に Georgetown に行きます、と伝えて、waitlist からおろしてもらった。それまで一応 waitlist に入れ続けてくださっていた。感謝。</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h1 id="出願してよかったこと">出願してよかったこと</h1>
<ul>
  <li>面接に進めた場合、著名な先生方と直接お話できる機会を得られます。
    <ul>
      <li>不合格になっても、何人かの先生はメールをくださった。</li>
      <li>認識してもらえるかもしれないイベント。</li>
    </ul>
  </li>
</ul>]]></content><author><name>Kohei Kajikawa</name></author><summary type="html"><![CDATA[2025秋入学のサイクルで、アメリカの大学院の博士課程に出願しました。その記録です。]]></summary></entry><entry><title type="html">確率・情報理論を使った言語研究</title><link href="https://kohei-kaji.github.io/posts/2025/infotheory/" rel="alternate" type="text/html" title="確率・情報理論を使った言語研究" /><published>2025-03-03T00:00:00+00:00</published><updated>2025-03-03T00:00:00+00:00</updated><id>https://kohei-kaji.github.io/posts/2025/infotheory</id><content type="html" xml:base="https://kohei-kaji.github.io/posts/2025/infotheory/"><![CDATA[<p>確率モデル・情報理論を使った心理言語学・計算心理言語学研究について。</p>

<p>確率や情報理論といった数学の道具は、言語使用や言語の構造それ自体を支配している何らかの規則や原理原則を記述するのに非常に有用であるように思えます。</p>

<p>それは、確率や情報理論といったものは現象に対して理論中立的 (theory-neutral) な記述が可能で、とにかく使い勝手が良い道具だからなのかもしれないし、そもそも人間の言語処理をはじめとした認知活動が何らかの確率的なものだからなのかもしれないし、認知活動自体が、ベイジアンモデラーたちが主張するような「合理的 (rational)」なものだと考えたら合理的でありそう、という直感や経験的事実があるからなのかもしれないし…。</p>

<p>いずれにせよ、確率や情報理論は、言語処理・言語使用の研究（つまり、Performance の側面の研究）、そしてさらには言語の構造や知識自体の研究（つまり、Competence の側面）をするのに非常に強力な道具です。</p>

<p>近年は、コーパスをはじめとした言語資源の整備、計算機の性能向上や（確率）プログラミング言語・各種計算ライブラリの充実、BERT や GPT から現在の大規模言語モデルに至るまでの汎用的な言語処理技術たちの登場によりかなりの精度で言語のさまざまな側面が確率や情報量を使って定量化できるようになってきたこと、といったさまざまな要因たちが揃ってきて、そしてさらには、確率や情報理論といった道具自体の理論研究や言語研究へ応用するといった方法論が確立されてきたので、これからできることが大量にあるよ、という状況です。</p>

<p>実際、心理言語学とか、計算言語学、計算心理言語学、認知科学とか言われる分野の研究をみていると（これらの分野がそれぞれどういった範囲を指しているのか正直よくわからないが）、確率や情報理論であふれています。
今や CogSci は端から端まで情報理論かベイジアンモデリングでしょう。
そういった状況が良いか置いておいて、眺めているうちに、とりあえず勉強しなきゃなぁと思わされたし、この波に乗っておきたい、と思えました。ので、その紹介記事です。</p>

<p>このあたりのレビュー論文、本として、個人的参照すべきものたち：</p>
<ul>
  <li>確率を取り入れた言語研究は結構有用じゃないでしょうか、という話：
<a href="https://www.sciencedirect.com/science/article/abs/pii/S1364661306001318">Chater and Manning (2006)</a></li>
  <li>言語を含めた認知科学における確率モデル的（合理的）アプローチについて：
<a href="https://www.sciencedirect.com/science/article/abs/pii/S1364661306001343">Tenenbaum et al. (2006)</a>, <a href="https://www.sciencedirect.com/science/article/abs/pii/S1364661310001129">Griffiths et al. (2010)</a>, <a href="https://www.sciencedirect.com/science/article/abs/pii/S001002771000291X">Perfors et al. (2011)</a>, <a href="https://mitpress.mit.edu/9780262049412/bayesian-models-of-cognition/">Griffiths et al. (2024)</a>, <a href="https://oecs.mit.edu/pub/lwxmte1p/release/2">Griffiths (2024)</a></li>
</ul>

<!-- 人間はそこまで合理的でない？という問題 -->

<h1 id="目次">目次</h1>
<ul>
  <li><a href="#文処理系">文処理系</a>
    <ul>
      <li><a href="#surprisal">Surprisal</a>
        <ul>
          <li><a href="#サプライザルがとらえているものは何なのか">サプライザルがとらえているものは何なのか？</a></li>
          <li><a href="#言語モデルの性能-perplexity-との関係">言語モデルの性能 (perplexity) との関係</a></li>
          <li><a href="#サプライザルと処理負荷の関係は線形か非線形か">サプライザルと処理負荷の関係は線形か、非線形か</a></li>
        </ul>
      </li>
      <li><a href="#lossy-context-surprisal">Lossy-context surprisal</a></li>
      <li><a href="#noisy-channel-model">Noisy-channel model</a></li>
    </ul>
  </li>
  <li><a href="#効率的なコミュニケーション-efficient-communication">効率的なコミュニケーション</a>
    <ul>
      <li><a href="#単純性と情報伝達性のトレードオフ">単純性と情報伝達性のトレードオフ</a>
        <ul>
          <li><a href="#ferrer-i-cancho-and-sole-2003">Ferrer i Cancho and Sole (2003)</a></li>
        </ul>
      </li>
      <li><a href="#rational-speech-act-rsa">Rational Speech Act (RSA)</a></li>
      <li><a href="#uniform-information-density-uid">Uniform Information Density (UID)</a></li>
      <li><a href="#dependency-length-minimization-dlm">Dependency Length Minimization (DLM)</a></li>
      <li><a href="#memory--prediction-trade-off">Memory–prediction trade-off</a></li>
    </ul>
  </li>
  <li>
    <p><a href="#言語獲得">言語獲得</a></p>

    <!-- - [Xu and Tenenbaum (2007)](#xu-and-tenenbaum-2007-psycho-rev)
- [Perfors et al. (2011)](#perfors-et-al-2011-cognition)
- [Abend et al. (2017)](#abend-et-al-2017-cognition) -->
  </li>
  <li><a href="#言語進化">言語進化</a>
    <ul>
      <li><a href="#繰り返し学習モデル-iterated-learning-model">繰り返し学習モデル (Iterated Learning Model)</a></li>
    </ul>
  </li>
</ul>

<h1 id="文処理系">文処理系</h1>
<!-- 我々の産出・理解といった言語使用において、確率モデルや情報理論の道具を使うことで割と適切にモデル化できることがわかっている側面が多々あります。 -->

<h2 id="surprisal">Surprisal</h2>
<p>ある単語 \(w\) の生起確率 \( P(w) \) の 負の対数 \( -\log P(w) \) のことを単語 \( w \) のサプライザルと呼びます。
サプライザル理論 (<a href="https://aclanthology.org/N01-1021">Hale, 2001</a>; <a href="https://www.sciencedirect.com/science/article/pii/S0010027707001436">Levy, 2008b</a>) では、ある単語の予測のしにくさ（サプライザル）はその単語の処理の難しさに比例する、とします：
\begin{equation}
    \text{difficulty}(w)\propto -\log P(w)
\end{equation}</p>

<ul>
  <li>対数の底はしばしば \( 2 \) で bit単位ですが、底が一致している限りはサプライザル同士の相対関係は変わらないので、サプライザル理論において、底の値をサプライザルの定義に組み込む必要はないです。
    <ul>
      <li>\( \log_2 x = \frac{\log_e x}{\log_e 2} = \frac{\log_e x}{0.30103…} \) と、底の変更は可能。高校で習う基本的なことですが、しばしば忘れてしまいます。</li>
    </ul>
  </li>
</ul>

<p>サプライザルの値 \( -\log P(\cdot) \) は、生起確率 \( P(\cdot) \) の値が小さければ小さいほどほど大きくなる、という関係になっています。</p>

<p><img src="/images/blogfigure/surp.png" alt="png" /></p>

<p>そして、実際に、読み時間 (e.g., <a href="https://www.sciencedirect.com/science/article/abs/pii/S0010027708001741">Demberg and Keller, 2008</a>; <a href="https://www.sciencedirect.com/science/article/pii/S0010027713000413">Smith and Levy, 2013</a>; <a href="https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00612/118718/Testing-the-Predictions-of-Surprisal-Theory-in-11">Wilcox et al., 2023</a>; <a href="https://www.pnas.org/doi/10.1073/pnas.2307876121">Shain et al., 2024</a>) や、ERP（<a href="https://bsd.neuroinf.jp/wiki/%E4%BA%8B%E8%B1%A1%E9%96%A2%E9%80%A3%E9%9B%BB%E4%BD%8D">事象関連電位</a>）(e.g., <a href="https://www.sciencedirect.com/science/article/pii/S0093934X14001515">Frank et al., 2015</a>; <a href="https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0207741">Brennan and Hale, 2019</a>)、 fMRIによるBOLD信号 (e.g., <a href="https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0177794">Lopopolo et al., 2017</a>; <a href="https://www.sciencedirect.com/science/article/abs/pii/S0028393219303495?via%3Dihub">Shain et al., 2020</a>) について、サプライザルによってうまく人間の言語処理の活動が予測できることが示されています。</p>

<h3 id="サプライザルがとらえているものは何なのか">サプライザルがとらえているものは何なのか？</h3>
<p>では、単語 \( w \) の生起確率 \( P(w) \) は何で求めることができるのでしょうか。
逐次的な文処理過程について考える場合、単語 \( w \) 以前の文脈 \( w_1,\dots,w_{n-1} \) が与えられたときの単語 \( w \) の生起確率 \( P(w\mid w_1,\dots,w_{n-1}) \) が求められれば良い、すなわち、（統計的）言語モデルがあれば良い、ということになります。</p>

<p><a href="https://aclanthology.org/N01-1021">Hale (2001)</a> では、言語モデルとして、確率的文脈自由文法（Probabilistic Context-Free Grammars, PCFGs）によるものを採用しました。
PCFGは、文脈自由文法における各文法規則に生起確率を割り当てたものです。詳しくは、自然言語処理系においてとりあえず最初に参照すべき文献である <a href="https://web.stanford.edu/~jurafsky/slp3/C.pdf">Jurafsky and Martin (2025, Appendix C)</a> を参照ください。</p>

<p>\( P(w_n\mid w_1,\dots,w_{n-1}) \) は、条件付き確率の定義により、
\begin{equation}
    P(w_n\mid w_1,\dots,w_{n-1}) = \frac{P(w_1 \cdots w_{n-1}\, w_n)}{P(w_1 \cdots w_{n-1})}
\end{equation}
と分解することができます。</p>

<p>PCFGs は、文脈自由性により、ある文字列に対する可能なすべての木構造は互いに排反なので、以下が成り立ちます：
\begin{equation}
    P(w_1 \cdots w_n) = \sum_{T\in\mathcal{T}(w_1 \cdots w_n)} P(T, w_1 \cdots w_n)
\end{equation}</p>

<p>また、PCFGs は木構造と文字列の生成モデルであり、木構造 \( T \) に対して文字列 \( w_1\cdots w_n \) が一意に定まるので、
\begin{equation}
    P(w_1 \cdots w_n\mid T) = 1
\end{equation}
が成り立ちます。</p>

<p>よって、ある文字列 \( w_1\cdots w_n \) の確率は、その文字列に対するすべての可能な木構造の確率の和に等しくなります：
\begin{align}
    P(w_1 \cdots w_n) &amp;= \sum_{T\in\mathcal{T}(w_1 \cdots w_n)} P(T, w_1 \cdots w_n) \newline
                      &amp;= \sum_{T\in\mathcal{T}(w_1 \cdots w_n)} P(T)\cdot P(w_1 \cdots w_n\mid T) \newline
                      &amp;= \sum_{T\in\mathcal{T}(w_1 \cdots w_n)} P(T)
\end{align}</p>

<p>つまり、サプライザル \( -\log P(w_n\mid w_1,\dots,w_{n-1}) \) は、
\begin{align}
    -\log P(w_n\mid w_1,\dots,w_{n-1}) &amp;= -\log\frac{P(w_1 \cdots w_{n-1}\, w_n)}{P(w_1 \cdots w_{n-1})} \newline
                                       &amp;= -\log\sum P(n\text{単語までの木構造}) \newline
                                       &amp;\quad  - \log\sum P(n-1\text{単語までの木構造})
\end{align}
と、\( n \) 単語時点での構造に関する情報量と \( n-1 \) 時点での構造に関する情報量の差、言い換えると、その単語により構造に関してどれだけ情報が得られたのか、を表す値として説明されます（解説として、<a href="https://compass.onlinelibrary.wiley.com/doi/10.1111/lnc3.12196">Hale (2016)</a> も参照ください）。</p>

<p>Hale (2001) で PCFGs が採用されたのは、\( n \)-gram 言語モデルでは（\( n \) がとりわけ大きいわけではなければ）単語間の依存関係を正しく取り扱えないからであり（たとえば、<em>the man who likes dogs dislikes …</em> の <em>the man</em> と <em>dislikes</em> の関係は、\( 5 \)-gram 以上でないと捉えられません。）、さらにはそもそも著者自身の興味が文法構造の処理にあったからだと思われるのですが、それにより、シンボリックで離散的な文法理論を、連続的で柔軟な情報理論を通して、処理負荷の予測につなげられています。</p>

<p>* そのため、<a href="https://onlinelibrary.wiley.com/doi/abs/10.1207/s15516709cog0000_64">Hale (2006)</a> では、PCFG ではなく、linguistically-motivated な Minimalist Grammars を用いてモデリングを行っています。構造への確率が付与できさえすれば良いので、そういった拡張が容易にできます。</p>

<p>これに対し、<a href="https://www.sciencedirect.com/science/article/pii/S0010027707001436">Levy (2008b)</a> では、特定の構造・意味の形を前提としない形でのサプライザルの解釈を提示しました。</p>

<p>アイディアは非常にシンプルで、\( n \) 時点での単語 \( w_n \) のサプライザルを、\( n-1 \) 時点までの意味 \( T\in\mathcal{T} \) の確率分布から \( n \) 時点での意味の確率分布へのKL距離（Kullback–Leibler divergence）、すなわち、単語 \( w_n \) の入力により、意味に関する確率分布がどれだけ変化するのかを示す値である、と示しました。
これは、先ほどの Hale (2001) でのサプライザルの導出過程と同じで、\( P(w_1,\cdots,w_n\mid T) = 1 \) 、という仮定を置いた場合に示すことができます：
\begin{align}
    &amp;D_{\textit{KL}}(p(T\mid w_1\cdots w_{n})\parallel p(T\mid w_1\cdots w_{n-1})) \newline
    &amp;= \sum_{T\in\mathcal{T}} p(T, w_1\cdots w_n)\log\frac{p(T\mid w_1\cdots w_n)}{p(T\mid w_1\cdots w_{n-1})} \newline
    &amp;= \sum_{T\in\mathcal{T}} p(T, w_1\cdots w_n)\log\frac{\frac{p(w_n\mid T, w_1\cdots w_{n-1})p(T\mid w_1\cdots w_{n-1})}{p(w_n\mid w_1\cdots w_{n-1})}}{p(T\mid w_1\cdots w_{n-1})} \newline
    &amp;= \sum_{T\in\mathcal{T}} p(T, w_1\cdots w_n)\log\frac{\frac{p(T\mid w_1\cdots w_{n-1})}{p(w_n\mid w_1\cdots w_{n-1})}}{p(T\mid w_1\cdots w_{n-1})} \newline
    &amp;= \sum_{T\in\mathcal{T}} p(T, w_1\cdots w_n)\log\frac{1}{p(w_n\mid w_1\cdots w_{n-1})} \newline
    &amp;= \log\frac{1}{p(w_n\mid w_1\cdots w_{n-1})} \newline
    &amp;= -\log p(w_n\mid w_1\cdots w_{n-1})
\end{align}</p>

<p>言語モデルによりある単語の文脈上のサプライザルを計算することで、その文脈の背後にある意味・構造に関する分布を考慮に入れられているよ、ということが示されているのは非常に面白いところです（詳しくは、<em>causal bottleneck</em> として Levy (2008b) の 2.3 節で説明されているので参照ください）。</p>

<p>しかしながら、ではなぜ現在の大規模言語モデルによるサプライザルが人間の読み時間・神経活動を（かなり説明はできているが）説明しきれていないのでしょうか。
おそらくそれは、人間の作業記憶は大きくない、という制約や、確率分布等の計算をすること自体のコストが考慮されていないからでしょう。
Hale (2001) では \( T \) で周辺化された文字列に関する周辺分布を、Levy (2008b) では、\( T \) に関する確率分布を用いてサプライザルを説明していますが、人間が、こういった分布を全部ちゃんと記憶して扱えるのかは謎です。おそらく絶対に分布を端から端までは記憶していないでしょう。次に調べるべきところは、分布を想定するという理想化により現実とどのくらい差異が生じうるのか、ということでしょう。
また、（これは些細であるのかどうかの判断もついていないのですが）\( P(w_{1,\cdots,n}\mid T)=1 \) という仮定は問題ないのでしょうか。真理条件的には同じ意味だが、語順・構造が違う文は作れるし、語彙も「同じ意味っぽい」形が異なる組み合わせはたくさんあるが、とは思います。</p>

<h3 id="言語モデルの性能-perplexity-との関係">言語モデルの性能 (perplexity) との関係</h3>
<p>言語モデルの次単語予測性能を表す（単語ごとの）perplexityは、その値が低いほど「テストデータにおける次単語予測が正確である」ことを表すのですが、<a href="https://aclanthology.org/W12-1706/">Fossum and Levy (2012)</a> をはじめ、neuralモデルの時代になっても <a href="https://aclanthology.org/W18-0102/">Goodkind and Bicknell (2018)</a> など、「言語モデルのperplexityが低いほど、そのモデルによって算出したサプライザルの、読み時間の予測精度が高い」ということが主張されていました。</p>

<p>* 言語モデル \( q \) のperplexityとは、
\begin{equation}
    b^{-\frac{1}{|\text{test data}|}\sum_{\text{test data}}\log_b q(x)}
\end{equation}
で、要は \( b \) のテストデータにおける平均サプライザル（クロスエントロピー）乗です。\( b \) は底 (base) で、一貫していればなんでもいいです。</p>

<p>しかし、次第に、<a href="https://aclanthology.org/2023.tacl-1.20/">Oh and Schuler (2023)</a> や <a href="https://www.pnas.org/doi/10.1073/pnas.2307876121">Shain et al. (2024)</a> では、「言語モデルの規模が大きくなり、perplexityがさらに低くなっていくと、むしろ読み時間予測精度が下がる」という傾向が報告されています。
なお、この「言語モデルの精度 (perplexityの低さ) と人間の読み時間の予測精度が必ずしも相関しないのでは」ということを最初に指摘したのは <a href="https://aclanthology.org/2021.acl-long.405/">Kuribayashi et al. (2021)</a> です。
Kuribayashi et al. (2021) では、日本語の読み時間データセットである BCCWJ-EyeTrack (<a href="https://www.jstage.jst.go.jp/article/gengo/156/0/156_67/_article/-char/ja/">浅原ら, 2019</a>) にて、言語モデルの精度と読み時間予測の相関が成立しなかったことを報告しています。</p>

<p>確かに、人間以上に「正確に」次単語予測ができるモデルがあったら、そのモデルは人間の反応時間をunderestimateしてしまう気はします。
<a href="https://aclanthology.org/2024.eacl-long.162/">Oh et al. (2024)</a> では、最近の大規模低perplexity言語モデルは、頻度の低い単語に対しての予測精度が高く、そこで人間の読み時間との乖離が生じている、と説明しています。</p>

<p>一方で、<a href="https://aclanthology.org/2023.emnlp-main.466/">Wilcox et al. (2023)</a> では、13 の言語を対象とし、そのうち 11 の言語で言語モデルの精度と読み時間予測の相関が成り立った、ということを報告しました。
Wilcox et al. (2023) は各言語ごとにそれぞれ複数の規模の言語モデルを from scratch で学習しており、Oh and Schuler (2023) や Shain et al. (2024) の結果は、サイズの大きな言語モデルにはその学習データに読み時間コーパスの文が含まれてしまっているからだろう、としています（Shain et al. (2024) は、2022年には arXiv に上がっていたので、Wilcox et al. (2023) では Shainらの結果も考慮されています）。
が、Wilcoxらの「データのleakを考慮すれば、言語モデルの精度とその読み時間の予測の相関関係は成り立つ」という主張への反例として Kuribayashi et al. (2021) があるので、説得力があるか、といったら微妙な気はします。</p>

<p>（Haggingface にある GPT-2 の small/medium あたりが日本語でも英語でも読み時間への予測に最も寄与します。）</p>

<h3 id="サプライザルと処理負荷の関係は線形か非線形か">サプライザルと処理負荷の関係は線形か、非線形か</h3>
<p>サプライザル理論では、単語のサプライザルは、その単語の処理負荷に比例する、としています。
しかしながら、本当に比例関係が成り立つのかよくわかりません。
これは、人間にとっての単語の予測のしやすさ (predictabitliy) が何の影響を受けているのか、どういった認知過程を反映しているのか、という問題につながります。
最初に、「ある単語の予測のしにくさ（サプライザル）はその単語の処理の難しさに比例する」と書いたのですが、そもそも「単語の予測のしにくさ＝サプライザル」と何のことわりもなくしたのはおかしな話です。
というのも、「単語の予測のしにくさ」とは、その単語の頻度に関係するかもしれないし、情報量かもしれないし、それ以外でもいいはずだからです。</p>

<p>わかりやすくいうと、仮にある単語 \( w \) の生起確率が \( P(w) \) だとすると、\( w \) の処理負荷は \( -P(w) \) に比例するかもしれないし、\( -\log P(w) \) や \( -\log P(w)^k\ (k&gt;1) \) に比例するかもしれません。
言い換えると、\( w \) の処理負荷は \( -\log P(w) \) に比例するかもしれないし、sublinear や superlinear といった非線形な関係かもしれません。</p>

<p>が、<a href="https://www.sciencedirect.com/science/article/pii/S0010027713000413">Smith and Levy (2013)</a> や <a href="https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00612/118718/Testing-the-Predictions-of-Surprisal-Theory-in-11">Wilcox et al. (2023)</a>、<a href="https://www.pnas.org/doi/10.1073/pnas.2307876121">Shain et al. (2024)</a> によって、自己ペース読文や視線計測による読み時間に関しては、比例関係である示されています。</p>

<h2 id="lossy-context-surprisal">Lossy-context surprisal</h2>
<p>前項でのサプライザルの定義では、それまでの文脈をフルに使って求められた当該単語の生起確率が用いられていました。
一方で、心理言語学の文処理研究では、昔から、人間は作業記憶に極めて制限があり、記憶にまつわる処理の負荷があることが知られていました。
この<strong>予測に関する処理負荷</strong>と<strong>記憶に関する処理負荷</strong>は、要は文処理に関する2大処理負荷で、ずっと別々に研究が進んでいたのですが、<a href="https://onlinelibrary.wiley.com/doi/10.1111/cogs.12814">Futrell et al. (2020)</a> では、サプライザルの定義を少しだけ変更した lossy-context surprisal (LCS) を提案し、この2つを統合しました（これはほんとうにすごいと思っています）。
アイディアはものすごいシンプルで、文脈 \( c = w_{1,\cdots, n-1} \) をフルに使用せず、文脈 \( c \) をもとにした記憶表象 \( m \) を用いて、単語 \( w \) の生起確率を求める、というものです：
\begin{align}
    \text{LCS}(w\mid c) &amp;:= \mathbb{E}_{m\sim p(m\mid c)} [-\log p(w\mid m)] \newline
                        &amp;= -\sum_m p(m\mid c)\log p(w\mid m)
\end{align}</p>

<p>この定式化は非常に一般的なものであり、例えば記憶表象 \( m \) がどのような形なのか、どのようにして生成されるのか、といったことは特に指定されていません。
ということは、この形を明らかにする、という研究は求められるはずで、例えば 単純に文字列としての \( c \) と \( m \) の関係なのかもしれないし、意味（構造）として \( m \) を扱った方が実際の人間がやっていることに近いのかもしれません。</p>

<p>計算理論レベルで考えたとき、lossy memory \( m \) はどのように計算可能か、ということについて、<a href="https://www.pnas.org/doi/10.1073/pnas.2122602119">Hahn et al. (2022)</a> では retention probabilities という概念を使って実装する、ということを提案しています。</p>

<p>また、記憶に関する処理については、これまで、<a href="https://www.sciencedirect.com/science/article/abs/pii/S0010027798000341">Gibson (1998)</a> や <a href="https://onlinelibrary.wiley.com/doi/abs/10.1207/s15516709cog0000_25">Lewis and Vasishth (2005)</a>、<a href="https://www.sciencedirect.com/science/article/pii/S0010027724000520">Isono (2024)</a> など、何らかの文法理論を用いてモデル化がなされてきており、人間は作業記憶上で文法構造を取り扱っていると考えると良さそうかも、という状況です。
なので、これらを組み合わせることはできるし、そして人間の文処理のモデル化として有効でしょう、ということは期待できます。
「こうしたモデル化をしないと説明できないこと」みたいなものはまだはっきりわかりませんが、挑戦的なものとして、<a href="https://arxiv.org/abs/2502.11469">Yoshida et al. (2025)</a> では、文法構造を明示的に取り扱う言語モデルを使って記憶処理について考えています。
この研究自体の目的は必ずしも lossy memory について考察することではないですが、今後 \( m \) の形を考えるのに有用でしょう。</p>

<h2 id="noisy-channel-model">Noisy-channel model</h2>
<p>人間の文処理研究において、多くの場合、人間は見聞きした文を正確に知覚できていることが前提とされていたりしますが、もちろん常にそんなことはなく、実際には聞き手は、話し手の発話を一部聞き逃したり、誤って聞き取っている場合もあります。
しかしながら、だからといって聞き逃して終わり、というわけではなく、聞き手は何やかんやうまく話し手の意図を推定できたりしています。
このような人間の処理過程を、<a href="https://aclanthology.org/D08-1025/">Levy (2008a)</a> や <a href="https://www.pnas.org/doi/10.1073/pnas.1216438110">Gibson et al. (2013)</a> は、noisy-channel model（雑音のある通信路モデル）を用いてモデル化しました。</p>

<p>ここでは簡単に Gibson et al. (2013) による表記を用いて紹介します。
\begin{equation}
    s_i \overbrace{\longrightarrow}^{\text{noisy channel}} s_p
\end{equation}
話し手が意図した発話 \( s_i \) が、聞き手が実際に知覚した発話 \( s_p \) をもとに推定される確率 \( P(s_i\mid s_p) \) は、
\begin{equation}
  P(s_i\mid s_p)=\frac{P(s_p\mid s_i)P(s_i)}{\sum_{s_j\in\mathcal{S}}P(s_p\mid s_j)P(s_j)}\propto P(s_p\mid s_i)P(s_i)
\end{equation}
で求められます。</p>

<p>ようは、\( P(s_p\mid s_i) \) という noise が入る確率と、そもそもありえる発話 \( s_i \) の確率 \( P(s_i) \) のバランスをとって、 \( s_i \) を合理的に推定する、ということです。
Gibson et al. (2013) の例を使うと、<em>The mother gave the candle the daughter.</em> という文は、<em>the candle</em> に <em>the daughter</em> を与えたという意味的に不自然な文（つまり、\( P(s_p) \) は低い）が、名詞同士の間に <em>to</em> を入れ忘れた可能性は高そう（\( s_i \) が <em>The mother gave the candle to the daughter.</em> と考えたとき、\( P(s_p\mid s_i) \) の確率は高そう）なので、おそらく多くの人は、文字通りではない意味 <em>The mother gave the candle to the daughter.</em> で解釈しそう。
一方で、<em>The girl was kicked by the ball.</em> は、意味的に不自然で \( P(s_p) \) の確率は低そうなのだが、他の意味的に妥当な文を探してきても、\( P(s_p\mid s_i) \) が \( P(s_p) \) を超えることはあまりなさそう（これは事前確率と尤度をどう計算するか次第ではあるが）なので、文字通りの解釈が取られやすい、と考えられます。</p>

<p><a href="https://oecs.mit.edu/pub/y1uhdz0y/release/1">Ferreira and Ferreira (2024)</a> では、noisy-channel model が good-enough model に似ている、と説明していますが、むしろ noisy-channel model はちゃんと予測がたつ理論、という意味ではより強力なものだとは思います。</p>

<p>個人的には、Competence \( c \) とPerformance \( p \) の間の関係も、まさにnoisy channelで考えることができる、と思っていています。
\begin{equation}
    c \overbrace{\longrightarrow}^{P(c\mid p)} p
\end{equation}
<!-- 我々は \\( p \\) しか観測できないですが、\\( P(p\mid c) \\) や \\( P(c) \\) について考えることができます。 --></p>

<p>例えば、\( P(c) \) はオッカムの剃刀的な、シンプルな理論ほど高い確率を付与する、というふうにして表現できますし、\( P(p\mid c) \) は、competence \( c \) によって performance \( p \) をどれだけ説明できるのか、ということで、まさに理論言語学者や心理言語学者が、容認性判断や読み時間、神経活動データなどをもとに判断していることでしょう。概念的には、
\begin{equation}
    P(p) = \sum_c P(p\mid c)P(c)
\end{equation}
の \( P(p) \) と実際の観測との誤差が最小になるような \( P(p\mid c) \) を探す、ということをしているはずです。</p>

<p>そして、\( P(p\mid c) \) や \( P(c) \) を定めることができれば、\( P(c\mid p) \) が推測できます：
\begin{equation}
    P(c\mid p)=\frac{P(p\mid c)P(c)}{\sum_{c\in\mathcal{C}}P(p\mid c)P(c)}\propto \underbrace{P(p\mid c)}_{\text{現象への説明}}\overbrace{P(c)}^{\text{文法のシンプルさ}}
\end{equation}</p>

<p>つまり、\( P(c\mid p) \) は、competence自体の単純さとそれによる説明力の高さのトレードオフにより求められます。
そして、最も適切な理論 \( \hat{c} \) は、事後確率が最大となるもの、とすることができます：
\begin{equation}
    \hat{c}=\arg\max_{\hat{c}\in C} P(p\mid c)P(c)
\end{equation}</p>

<p>尤度と事前確率をそれぞれ「記述的妥当性」と「説明的妥当性」として読むと、これはまさに <a href="https://www.jstor.org/stable/j.ctt17kk81z">Chomsky (1965)</a> による competence-performance の区別における議論でしょう。
記述的妥当性と説明的妥当性のトレードオフは、 <a href="http://mitwpl.mit.edu/catalog/mwpl77">Berwick (2015)</a> が最小記述長 (minimum description length) を用いて同様の議論をしています。</p>

<p>ただ、このnoisy-channel model は非常に一般的なことを述べているに過ぎないので、Chomsky による competence-performance をより広く解釈できます。
50-60年代は容認性判断くらいしか \( P(p\mid c) \) の議論をする場所がなかったので、Chomsky の議論は文法現象の「記述」がメインでしたが、心理言語学研究の進展により、\( P(p\mid c) \) に対して、読み時間や脳活動データを使った検証が可能です。</p>

<p>また、<a href="https://www.sciencedirect.com/science/article/pii/S0010027715000815">Kirby et al. (2015)</a> での文法の文化進化モデルも、尤度を「意図の伝達成功確率」と、事前確率を「文法の学習可能性」として扱っているもの、と見ることができると思います。</p>

<p>とはいっても、Chomsky の50-60年代の直感は、いまになって読み返してみても、（Shannon の研究を必要以上に叩いているようにみえるところ以外は）非常に有用なものが多いように思えます。
ちゃんと整理すると、\( P(c),\ P(p\mid c),\ P(c\mid p) \) それぞれについて考えようとする、ということがまっとうな Chomskian だと思っているのですが、どうでしょうか。
そういう意味で、個人的には、formal な文法理論を用いた文処理の研究 (\( P(p\mid c) \)) と、\( P(c\mid p) \) に直接取り組む効率的なコミュニケーション研究（後述）をやっています。学習可能性 (\( P(c) \)) に関する研究もしてみたいとは思っています。</p>

<p>* もしくは、\( c \) と \( p \) の間に noise が入りえない、プロの言語学者ならば noise なしで自身の \( c \) にアクセスできる、と考えるのも、それが実現可能かはおいておいて、筋は通っているとは思います。そういう考え方に基づくと、\( P(p\mid c) \) なんてものは考える必要はなくなります（では、心理言語学研究は何をやっていることになるのでしょうか）。</p>

<h1 id="効率的なコミュニケーション-efficient-communication">効率的なコミュニケーション (Efficient Communication)</h1>
<p>確率や情報理論により、言語使用や人間のコミュニケーションにおける cost/benefit を心理的に妥当な指標で評価できるようになってきました。
また、計算機上では、「現実には存在しないがありえたかもしれない仮想的な言語」を作り出すことができるので、言語に見られる構造・規則が言語使用において明らかに合理的なものであるのか、といったことを検証することが可能です。</p>

<p><strong>効率的なコミュニケーション仮説</strong> (Efficient Communication Hypothesis) では、言語構造が効率的なコミュニケーションを実現するように形作られてきた、と考え、言語に存在する普遍性 (universalities) や 強い統計的傾向 (strong statistical tendencies) が<strong>なぜ</strong>今あるような形になっているのか、なぜ異なる形ではあり得なかっただろうか、ということを言語使用上の最適性という観点から説明しようとしています。
<!-- 近年、この「効率性」を厳密に定義し、心理的に「妥当」に定量化する方法論が確立されてきたことで、研究が進みつつあります。 --></p>

<p>おすすめレビュー論文、本：</p>
<ul>
  <li><a href="https://wires.onlinelibrary.wiley.com/doi/abs/10.1002/wcs.126">Jaeger and Tily (2011)</a>
    <ul>
      <li>心理言語学研究からはじめて typology にまで話を広げましょう、というレビュー論文。</li>
    </ul>
  </li>
  <li><a href="https://doi.org/10.1146/annurev-linguistics-011817-045406">Kemp et al. (2018)</a>
    <ul>
      <li>特に lexicon (semantic categorization) に関する研究を牽引してきた著者たちによる Annual Review of Linguistics のレビュー論文。</li>
    </ul>
  </li>
  <li><a href="https://www.sciencedirect.com/science/article/pii/S1364661319300580">Gibson et al. (2019)</a>
    <ul>
      <li>心理言語学の立場から、単語の長さや色の語彙、語順について処理の効率性の観点で説明してきた著者らによるレビュー論文。</li>
    </ul>
  </li>
  <li><a href="https://www.frontiersin.org/articles/10.3389/fcomm.2022.657725/full">Futrell and Hahn (2022)</a>
    <ul>
      <li>情報理論それ自体の説明やその応用についても解説しているレビュー論文。</li>
    </ul>
  </li>
  <li><a href="https://www.cambridge.org/core/books/communicative-efficiency/F5AA238FB82B9739592CFAC62BF89708">Levshina (2022)</a>
    <ul>
      <li>個別具体的な言語現象にそれぞれ注目して言語の効率性について論じた本。類型論の言語学者によるものなので、心理言語学や情報理論に関することより、言語現象に関する議論が充実している。</li>
    </ul>
  </li>
</ul>

<p>* なお、ここでの「コミュニケーション」とは、文化・社会的要因等を考慮したり、ジェスチャーなどの非言語的情報を考慮する、といったようなレベルにまではまだ達しておらず、より単純に、単語や句、文の文字列や命題レベルや述語論理レベルでの意味の伝達を指します。
言語学や心理学、認知科学で扱われてきた、文レベルを超えたコミュニケーションについては、まだまだこれからです。</p>

<p>* 「言語が効率的なコミュニケーションを実現するように形作られてきた」といった主張をするとき、決して目的論的な進化論的主張に commit しているわけではありません。
そもそも、効率的コミュニケーション研究は概して進化それ自体について何ら主張をしていない場合が多いです。
というのも、言語の仕組みを人間の認知資源の制約下での使用から説明するのは合理的なのか、ということを語りたいのであり、どのような過程で言語がそのような仕組みを手にしたか、という話については open なままにしています。open にしかできていない、の方が正しいのかもしれませんが。</p>

<h2 id="単純性と情報伝達性のトレードオフ">単純性と情報伝達性のトレードオフ</h2>
<p>コミュニケーションが効率的であるとは、人間の認知能力の制約のもと、「意図・情報の伝達が最大化されている一方、産出や理解といった使用のコストが最小化されている状況」のことを指す、という表現を私は使います。
つまり、できる限り informative でありかつできる限り simple である状況が効率的であります。</p>

<p>この情報伝達性 (<em>informativeness</em>) と単純性 (<em>simplicity</em>) にはトレードオフ関係があり、つまり、どちらか一方だけを高めるともう一方は低くなってしまう、という関係であり、自然言語は、このトレードオフのもとで（ほとんど）最適解である側面が数々観察されています。</p>

<p>「最適解」とは、お気持ちレベルの説明すると、「片方の軸における値をより良い方に持っていくと、どうしてももう片方の軸における値が悪い方に行ってしまう点」のことを指します。
そういった点は1つに定まるわけではなく、下の図のように曲線を描くはずです。
この最適解のことをパレート解と、そしてパレート解を結んでできる曲線のことをパレートフロンティアといいます。</p>

<p><img src="/images/blogfigure/imageoftradeoff.png" alt="png" /></p>

<p>* <a href="https://doi.org/10.5715/jnlp.32.372">『自然言語処理』の学会記事</a> でも書いたのですが、<em>simplicity</em> と <em>informativeness</em> という用語は専門用語として固まってきてしまっているようなのですが、その意味するところが伝わりにくい表現であります。
私自身は <em>informative</em> という単語の語感がそもそもわからないので何とも言い難いですが、そもそも「コミュニケーションの効率性」をどういった概念・シナリオで考えるのか、そしてそれをどういった表現で言い表すのか、といったことの整理は、今後時間をかけてなされていくものなのでしょうかね。統計学や機械学習などでも使われているような、より一般的な2項対立の表現だと、<em>complexity/accuracy</em> とかでしょうか。それか、<em>cost/benefit</em> とか、<em>cost/reward</em> とかでしょうか。そして、もっと人間の言語処理を問題とした表現を使うとすると、<a href="https://www.sciencedirect.com/science/article/pii/S0010027711002496">Piantadosi et al. (2012)</a> での <em>ease/clarity</em> はいいですよね、とは思います。</p>

<p>2つの相反する圧力のもとでの最適化、として言語を説明する研究は、<a href="https://psycnet.apa.org/record/1950-00412-000">Zipf (1949)</a> や <a href="https://psycnet.apa.org/record/1995-97959-000">Hawkins (1994)</a>、<a href="https://benjamins.com/catalog/la.132.04has?srsltid=AfmBOopYpsq--9vlEPxMDdbyNompli6t4Jw79TmooUgYmoaNU1l7YsCG">Haspelmath (2008)</a> など、言語学者の間でも主張されてきたものですが、効率的なコミュニケーション研究は、それを理論中立的な情報理論のことばを使って書き下すことにより、定量的な研究を実現するだけでなく、その適用先・規模を拡大させることができた、という点が大きな進展です。
特に語彙 (wordformやsemantic categorization) や、最近では文レベルについても研究が進んできています：</p>

<p>語彙に関して：</p>
<ul>
  <li>親族名称: <a href="https://www.science.org/doi/abs/10.1126/science.1218811">Kemp and Regier (2012)</a></li>
  <li>色: <a href="https://www.pnas.org/doi/abs/10.1073/pnas.0610341104">Regier et al. (2007)</a>, <a href="https://onlinelibrary.wiley.com/doi/abs/10.1002/9781118346136.ch11">Regier et al. (2015)</a>, <a href="https://www.pnas.org/doi/abs/10.1073/pnas.1619666114">Gibson et al. (2017)</a>, <a href="https://www.pnas.org/doi/abs/10.1073/pnas.1800521115">Zaslavsky et al. (2018)</a></li>
  <li>数: <a href="https://doi.org/10.1162/opmi\_a\_00034">Xu et al. (2020)</a>, <a href="https://onlinelibrary.wiley.com/doi/abs/10.1111/cogs.13424">Denic and Szymanik (2024)</a></li>
  <li>文法標識 (number, tense, evidentiality): <a href="https://www.pnas.org/doi/abs/10.1073/pnas.2025993118">Mollica et al. (2021)</a></li>
  <li>量化子: <a href="https://www.mdpi.com/1099-4300/23/10/1335">Steinert-Threlkeld (2021)</a></li>
  <li>人称代名詞: <a href="https://escholarship.org/uc/item/2sj4t8m3">Zaslavsky et al. (2021)</a></li>
  <li>不定代名詞: <a href="https://onlinelibrary.wiley.com/doi/abs/10.1111/cogs.13142">Denic et al. (2022)</a></li>
  <li>Boolean connectives: <a href="https://doi.org/10.1162/ling\_a\_00461">Uegaki (2022)</a></li>
  <li>Spatial demonstratives: <a href="https://www.sciencedirect.com/science/article/pii/S0010027723001397">Chen et al. (2023)</a></li>
  <li>単語の長さ: <a href="https://www.pnas.org/doi/abs/10.1073/pnas.1012551108">Piantadosi et al. (2011)</a>, <a href="https://onlinelibrary.wiley.com/doi/abs/10.1111/cogs.12689">Mahowald et al. (2018)</a>, <a href="https://www.pnas.org/doi/abs/10.1073/pnas.2406971121">Xu et al. (2024)</a></li>
  <li>Zipf則: <a href="https://www.pnas.org/doi/abs/10.1073/pnas.0335980100">Ferrer i Cancho and Sole (2003)</a>, <a href="https://doi.org/10.1140/epjb/e2005-00340-y">Ferrer i Cancho (2005)</a></li>
  <li>Zipf’s meaning-frequency law: <a href="https://www.sciencedirect.com/science/article/pii/S0010027711002496">Piantadosi et al. (2012)</a>, <a href="https://www.sciencedirect.com/science/article/pii/S0010027722000828">Trott and Bergen (2022)</a></li>
  <li>…</li>
</ul>

<p>文法に関して：</p>
<ul>
  <li>合成性（構成性）: <a href="https://www.sciencedirect.com/science/article/pii/S0010027715000815">Kirby et al. (2015)</a>, <a href="https://arxiv.org/abs/2405.12109">Futrell and Hahn (2024)</a></li>
  <li>Greenbergの語順普遍: <a href="https://www.pnas.org/doi/10.1073/pnas.1910923117">Hahn et al. (2020)</a></li>
  <li>等位接続における構造依存性: <a href="https://aclanthology.org/2024.conll-1.23/">Kajikawa et al. (2024)</a></li>
</ul>

<p>効率的なコミュニケーション研究について、実際に情報理論の道具を使ってどう仮説を検証するか、代表的な研究を紹介しながら説明します。</p>

<h3 id="ferrer-i-cancho-and-sole-2003">Ferrer i Cancho and Sole (2003)</h3>
<p><a href="https://www.pnas.org/doi/abs/10.1073/pnas.0335980100">Ferrer i Cancho and Sole (2003)</a> では、世界中の言語に見られるZipf則 (Zipf’s law) (<a href="https://www.routledge.com/The-Psycho-Biology-Of-Language-AN-INTRODUCTION-TO-DYNAMIC-PHILOLOGY/ZipfGeorgeKingsley/p/book/9781138875098?srsltid=AfmBOopeIeJMNPikd6dTWUgyGseCgJeRgqiKdyvD5JXpZ5Qxcuzrgx3m">Zipf, 1936</a>; <a href="https://psycnet.apa.org/record/1950-00412-000">1949</a>) が、効率的なコミュニケーションの実現の結果として生まれるものなのかを検証するため、コミュニケーションを効率的にしたときにZipf則が立ち現れるのかシミュレーション実験をしました。
この研究は、効率的なコミュニケーション研究の先駆けであるので紹介します。</p>

<p>まず、前提として、Zipf則とは、単語頻度に関する経験則で、全体で \( k \) 番目に多く使用される単語の頻度 \( f(k) \) は、\( f(k)=C\cdot k^{-\alpha} \) と冪乗則に従う、というものです。要は、よく使われる単語はめちゃくちゃ使われるし、珍しい単語は本当に珍しい、というものです。
\( C \) は比例定数で、\( \alpha \) は <a href="https://psycnet.apa.org/record/1950-00412-000">Zipf (1949)</a> では \( 1 \) です。
両辺に対数を適用すると、\( \log f(k) = -\alpha\log k + \log C \) と線形な関係になります。</p>

<p>実際の頻度と頻度ランクの関係を見たら、式の意味はすぐにわかります。
ちょうど手元に<a href="https://github.com/UniversalDependencies/UD_Japanese-BCCWJ">UD_Japanese-BCCWJ</a>のv2.10、国語研長単位 (LUW) 分割があったので、これの単語頻度と頻度ランクを数えてみました。
全部で57,109文、995,632単語（長単位）で、\( x \) 軸を頻度ランク、\( y \) 軸を実際の頻度としてプロットしたのが左図、そして両軸に \( \log_{10} \) を適用してプロットしたものが右図です。</p>

<p><img src="/images/blogfigure/bccwj_zipf.png" alt="png" /></p>

<p>右図については、最小二乗法での回帰直線も引いてみました。
\( \alpha = 1 \) とはなっていないようですが、ある程度はZipf則に従っているようにみえます。</p>

<p>* 直線から逸脱している部分があることや、傾きの係数が \( 0.94 \) であることを「Zipf則に従っている」とみるか、は結構重要な問題な気はします。
詳しくは <a href="https://link.springer.com/article/10.3758/s13423-014-0585-6">Piantadosi (2014)</a> をお読みください。</p>

<p>では、（一旦単語分布はZipf則に従っているとして）なぜ単語分布はZipf則に従うのでしょうか。
<a href="https://psycnet.apa.org/record/1950-00412-000">Zipf (1949)</a> は、言語は、省エネでありたいという話し手の要求と、意図・情報の復元が容易でありたいという聞き手の要求のトレードオフのもとで形作られているのだという仮説を提案しました。
具体例として、言語を「単語」と「意味」の対応関係と考えてみましょう。
すべての意味をたった一つの単語で表現する言語があったら、話し手は覚えるべき単語が一つだけになるため、話者の負担は最小限になります。
しかし、このような言語では、単語がどの意味を指すのか曖昧になり、聞き手が話者の意図を理解するのに困難が生じます。
一方で、すべての単語が明確に異なる意味を表現するシステムでは、聞き手の理解（意図推定）は容易になりますが、話し手の負担は増加します。
Zipf は、言語はこうした話し手と聞き手の相反する要求のバランスによって形作られているのだと主張しました。</p>

<p>では、それは本当か？と計算機上で実験してみたのが、Ferrer i Cancho氏 と Sole氏 の研究です。</p>

<h4 id="モデル">モデル</h4>
<p>彼らは、上述した Zipf の説明を検証するため、信号（単語）と意味の対応関係について、話し手と聞き手双方のコストがトレードオフのもとで最小となるような関係になるまで進化アルゴリズムを使って推定する、ということを行いました。</p>

<p>\( n \) 個のシグナル \( \mathcal{S} = {s_1,…,s_i,…,s_n} \) と
\( m \) 個の意味（objects of reference）\( \mathcal{R} = {r_1,…,r_i,…,r_m} \) を考えたとき、それらの間の関係をバイナリ行列 \( \mathbf{A} = {a_{ij}}\ (1\leq i\leq n,\ 1\leq j\leq m) \) で表します。</p>

<p>バイナリ行列は、すべて \( 0 \) か \( 1 \) で構成されている行列で、ここでは、ある \( i \) 番目のシグナル \( s_i \) が \( j \) 番目の意味 \( r_j \) を表している場合、行列内の要素 \( a_{ij} \) は \( 1 \) と、そうでないならば \( 0 \) と表現します。</p>

<p>いま、synonym（同義語）があるなら、シグナルと意味の確率分布の関係は以下になります：
\begin{equation}
    P(s_i) = \sum_j P(s_i,r_j)
\end{equation}</p>

<p>なお、\( P(r_i) = 1/m \) と仮定。</p>

<p>ベイズの定理より、
\begin{equation}
    P(s_i,r_j) = P(r_j)P(s_i\mid r_j)
\end{equation}
であり、\( P(s_i\mid r_j) \) は、
\begin{equation}
    P(s_i\mid r_j) = a_{ij}\frac{1}{\omega_j}.
\end{equation}
で定義します。
\( \omega_i = \sum_j a_{ij} \) は意味 \( r_j \) における同義語の数です。</p>

<p>代入すると、
\begin{equation}
    P(s_i,r_j) = a_{ij}\frac{P(r_j)}{\omega_j}
\end{equation}</p>

<p>話し手と聞き手のコストは、それぞれ平均情報量（エントロピー）で定義します：
\begin{align}
    H(S) &amp;= -\sum_i^n P(s_i)\log P(s_i) \newline
    H(R\mid S) &amp;= -\sum_i^n\sum_j^m P(s_i,r_j)\log P(r_j\mid s_i)
\end{align}</p>

<p>そして最後に、話し手と聞き手のコストのトレードオフは、それぞれの加重和で表現します：
\begin{equation}
    \Omega(\lambda)=\lambda H(S) + (1-\lambda)H(R\mid S)
\end{equation}
ここで、\( 0\leq\lambda\leq 1 \) で、話し手と聞き手のコストのどちらを重視するかを表します。</p>

<p>この \( \lambda \) の値を変えながら、各 \( \lambda \) において、\( \Omega(\lambda) \) を最小化するようなバイナリ行列 \( \mathbf{A} \) を進化アルゴリズムで求める、ということをします。</p>

<h4 id="再現コードと結果">再現コードと結果</h4>
<p>非常に単純なモデルなので、再現実装してみました（いくつか簡略化しています）。
<img src="/images/blogfigure/freq_rank.png" alt="png" />
<img src="/images/blogfigure/log_freq_rank.png" alt="png" />
<img src="/images/blogfigure/mi_lexicon_size.png" alt="png" /></p>

<!-- https://neilkidd.gitlab.io/hugo-academic-lean/post/jupyter/ -->

<p>最適化の結果として、\( \lambda = 0.41 \) あたりで、Zipf則に近い分布が得られることがわかりました。</p>

<p>もちろん、目的関数が心理的に妥当ではないという批判はあります <a href="https://link.springer.com/article/10.3758/s13423-014-0585-6">(Piantadosi; 2014)</a>。
具体的には、通信コードとしての複雑さ（＝エントロピー）が、人間の発話にとっての複雑さと一致しているのかは誰も示していない、ということと、すべての意味が等確率で現れるという前提は明らかに現実に則していない、ということです。
後者については、<a href="https://link.springer.com/article/10.1140/epjb/e2005-00340-y">Ferrer i Cancho (2005)</a> で提案されているように、意味の分布が一定ではない、と想定した上で、条件付きエントロピー \( H(R\mid S) \) を負の相互情報量 \( -I(S; R) \) に置き換えると少しは良くなるかもしれません。</p>

<p>負の相互情報量は、
\begin{equation}
    -I(S; R) = H(R\mid S) - H(R)
\end{equation}
であり、これまでの式は \( H(R) \) が定数であることを想定したものだった、と考えられます。</p>

<!-- や、そもそも Zipf則は統計側の性質であって、言語はただそれに従っているだけでは ([田中 (2021)](https://www.utp.or.jp/book/b559376.html)) という主張もあります。 -->

<h3 id="zaslavsky-et-al-2018">Zaslavsky et al. (2018)</h3>
<p>コミュニケーションにおける最適解を求めるのに、Ferrer i Cancho and Sole (2003) のように進化アルゴリズムのような探索的な方法をとる、ということ以外に、<a href="https://www.pnas.org/doi/abs/10.1073/pnas.1800521115">Zaslavsky et al. (2018)</a> は、情報ボトルネック (information bottleneck) を用いて理論的な限界を求める、という方法論を提案しました。</p>

<p>形や意味の確率分布さえちゃんと定められれば、使える方法なので、極めて強力です（特に語彙レベルだと、形と意味の集合を合理的に想定することができるので非常に有用です。文レベルだと、集合や分布を決める、というのにおいてまだ良い方法論が見つけられていない気がします）。</p>

<p>hoge</p>

<h2 id="rational-speech-act-rsa">Rational Speech Act (RSA)</h2>
<p>Rational Speech Act (RSA) モデル <a href="https://www.science.org/doi/10.1126/science.1218633">(Frank and Goodman, 2012)</a> は、その名の通り、「<strong>話し手</strong>の合理的な発話」をモデル化したモデルです。
話し手が合理的であるとは、「話し手は、必ずしも全部を言ってくれるわけではないが（parsimoniousであるが）、何らかの意図を伝えようとできる限りinformativeな発話をする」ということです。</p>

<p>こうした状況はGrice以来想定されてきたわけですが、RSAではその話し手の合理性を確率変数に対するutility関数の形で表現し、聞き手の語用論的推論 (pragmatic reasoning) はベイズ推定 (Beyesian inference) で定式化しました。</p>

<p>話者の合理性を表すutility関数は、さまざまな亜種はあるものの、多くの場合、聞き手にとってinformativeである一方、自分にとってコストが低い発話、という、informativenessとaccessibility (cost) のトレードオフを表現したものが使われます。</p>

<p>具体的には、意味 \( m\in\mathcal{M} \) と発話 \( u\in\mathcal{U} \) について、utility関数 \( U(m,u) \) は、
\begin{equation}
  U(m,u) = \log P_L(m\mid u) - C(u),
\end{equation}
ここで、\( \log P_L(m\mid u) \) は聞き手にとってのinformativeさを、\( C(u)\geq 0 \) は発話それ自体のコストを表します。</p>

<p>そして、実際の話し手の発話の確率は、このutility関数の値をもとに確率的に決まると考えると、ソフトマックス関数を通して求めることができます：
\begin{equation}
  P_{S_t}(u\mid m) = \frac{e^{\alpha U_{t-1}(u,m)}}{\sum e^{\alpha U_{t-1}(u,m)}} \propto e^{\alpha U_{t-1}(u,m)},
\end{equation}
ここで、\( \alpha \) は話し手がutilityにどれだけ重みを置いているかを表します。</p>

<p>こうして話し手の合理的な発話がモデル化できると、聞き手の語用論的推論は、ベイズ推論によって表現することができます：
\begin{equation}
  P_{L_t}(m\mid u) \propto P_{S_t}(u\mid m)P(m)
\end{equation}</p>

<p>なお、添え字の \( t \) や \( t-1 \) は、合理的な話し手が再帰的な思考の内部で想定した、話し手および聞き手モデルの埋め込みのレベルを指します。
要は、合理的な話し手は、「合理的な話し手ならこう言うだろう、ということを合理的な聞き手は推定するんだろうな、だからこういおうかな…」という推論を再帰的に繰り返し続けることができ、毎度ひとつ前の埋め込みでの聞き手を想定したうえで発話選択をする、ということを繰り返している、ということです。</p>

<p>ただし、もちろん、この再帰的な話し手と聞き手の関係は無限に考えることができるが、それだと推論がいつまでたっても終わらないので、通常は、1回埋め込んだところに、 ‘‘literal listener’’ \( P_{Lit} \) を想定します。</p>

<p>literal listner は、語用論的推論は行わず、文字通り、意味の真偽を判断します：
\begin{equation}
    P_{Lit}(m\mid u) \propto \delta_{[[u]]}(m) P(m),
\end{equation}
ここで、\( \delta_{[[u]]}(\cdot) \) は、真偽値の \( 0, 1 \) を返す関数です。
これにより、RSA frameworkにlexical semanticsやcompositional semanticsを組み込むこともできる、という主張です。</p>

<p>もう一度流れを整理すると（埋め込みが1回の場合）、
\( t \) における合理的な話し手の発話は、
\begin{equation}
  U(m,u) = \log P_{L_{t-1}}(m\mid u) - C(u)
\end{equation}
というutility関数をもとに、
\begin{equation}
  P_{S_t}(u\mid m) \propto e^{\alpha U_{t-1}(u,m)}
\end{equation}
でモデル化することができます。
ここで、utility関数内の \( P_{L_{t-1}} \) をliteral listnerと考えると、
\begin{equation}
    P_{Lit}(m\mid u) \propto \delta_{[[u]]}(m) P(m)
\end{equation}
で \( P_{L_{t-1}} \) をモデル化できます。</p>

<p>そうして、\( t \) における聞き手の語用論的推論は、
\begin{equation}
  P_{L_t}(m\mid u) \propto P_{S_t}(u\mid m)P(m)
\end{equation}
で求めることができます。</p>

<p>RSA 関連でとりあえず参照すべきもの：</p>
<ul>
  <li><a href="https://www.science.org/doi/10.1126/science.1218633">Frank and Goodman (2012)</a>
    <ul>
      <li>RSAが提案された最初の論文</li>
    </ul>
  </li>
  <li><a href="https://www.sciencedirect.com/science/article/abs/pii/S136466131630122X">Goodman and Frank (2016)</a>
    <ul>
      <li>RSAの提案者によるレビュー論文</li>
    </ul>
  </li>
  <li><a href="https://www.jstage.jst.go.jp/article/jjsai/31/1/31_91/_article/-char/ja/">折田 (2016)</a>
    <ul>
      <li>著者自身によるRSAを用いた指示表現選択 (<a href="https://aclanthology.org/P15-1158/">Orita et al., 2015</a>) の研究の解説</li>
    </ul>
  </li>
  <li><a href="https://arxiv.org/abs/2105.09867">Scontras et al. (2021)</a>
    <ul>
      <li>著者らによる ESSLLI 2016 の授業資料をもとにした解説記事も：<a href="https://www.problang.org/">Scontras et al. (2016?)</a></li>
    </ul>
  </li>
  <li><a href="https://www.annualreviews.org/content/journals/10.1146/annurev-linguistics-031220-010811">Degen (2023)</a>
    <ul>
      <li>2023年版の、Annual Review of Linguistics でのレビュー論文</li>
    </ul>
  </li>
</ul>

<h2 id="uniform-information-density-uid">Uniform Information Density (UID)</h2>
<p>話し手と聞き手の会話を noisy channel 上のコミュニケーションだとすると、話者の最も効率的な発話は、常に channel capacity (通信路容量) のあたりで一様に情報伝達ができるようなものです。</p>

<p>* channel capacity \( c \) とは、送信者の信号を \( X \)、受信者の信号を \( Y \) としたとき、\( X \) と \( Y \) の相互情報量の上限を指します：
\begin{equation}
    C = \max_{P(X)}I(X;Y)
\end{equation}
ここで、\( I(X;Y) = H(Y) - H(Y\mid X) \) です。</p>

<p>直感的な説明をすると、たとえば伝えたい情報全体のうちのほとんどを、発話を構成する unit のうちの1つに詰め込んだ場合、当然ながら発話全体の情報を正しく伝えるのに失敗する可能性が高くなるので、そのようなコミュニケーションは頑健 (robust) ではありません。
また、逆に、伝えたい情報を大量で低情報量の unit に分配すると、その発話は非常に冗長 (redundant) になってしまいます。
そのため、最も効率的なのは、伝えたい情報できる限り channel capacity に近いあたりの情報量の unit に分割して送信することです。
ここで、あえて unit としているのは、UID が対象としているのは必ずしも単語のような区分である必要はなく、形態素やモーラ、さらには音素でもいいですし、文全体でもいいはずだからです。</p>

<p>UID の提案については、<a href="https://dl.acm.org/doi/10.3115/1073083.1073117">Genzel and Charniak (2002)</a> や <a href="https://proceedings.neurips.cc/paper/2006/hash/c6a01432c8138d46ba39957a8250e027-Abstract.html">Levy and Jaeger (2007)</a>、<a href="https://www.sciencedirect.com/science/article/abs/pii/S0010028510000083?via%3Dihub">Jaeger (2010)</a> を参照ください。</p>

<p>UID は、直感は非常にわかるが、問題は、この <em>uniformity</em> をどう定義しましょう、というところにあります。
<a href="https://proceedings.neurips.cc/paper/2006/hash/c6a01432c8138d46ba39957a8250e027-Abstract.html">Levy and Jaeger (2007)</a> では、以下の2つ提案しています。</p>

<p>1つはまさに channel capacity ギリギリ、というものです。ただ、人間のコミュニケーションの channel capacity がどのくらいなのかは、いまだに解決していない問題です。</p>

<p>もう1つは、たとえば unit を単語 \( w \) だと考えたとき、発話 \( u =  w_1,\cdots w_n \) について、</p>

\[\sum_{i=1}^n \left( -\log P(w_i\mid w_1,\cdots w_{i-1}) \right)^k,\ k&gt;1\]

<p>の値が、同一の意味・情報を伝えうる発話たちの中で最も小さいもの、というものです。
これは、UID は文理解の困難を最も小さくするもの、という前提と、同じ情報量を文全体に配分するとき、分配に偏りがありすぎるものは効率的ではないだろう、という直感から、\( k=1 \) ではなく、\( k&gt;1 \) となっています。</p>

<p>ただ、情報量と理解の困難さの関係が superliner \( k&gt;1 \) となる、根拠はなく、むしろ linear \( k=1 \) である、ことは、<a href="https://www.sciencedirect.com/science/article/pii/S0010027713000413">Smith and Levy (2013)</a> や <a href="https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00612/118718/Testing-the-Predictions-of-Surprisal-Theory-in-11">Wilcox et al. (2023)</a>、<a href="https://www.pnas.org/doi/10.1073/pnas.2307876121">Shain et al. (2024)</a> で示されていますので、こちらの operationalization は成功ではないです。</p>

<p>一方、UID の直感をうまく予測として使っている研究はあって、たとえば
<a href="https://www.pnas.org/doi/10.1073/pnas.1012551108">Piantadosi et al. (2011)</a> では、もし UID が正しければ、単語の長さ (duration) は、その単語の情報量に比例する、と予測しました。
有名な Zipf の Law of Abbreviation (Zipf’s frequency-length relationship) では、「単語の頻度が高ければ高いほど、その長さは短くなる」ということが主張されていますが、Piantadosiらは、そうではなく、文脈からの予測のしやすさが影響をするのだ、ということです。
結果として、11言語において、各単語の \( n \)-gram 言語モデル (\( n = 2,3,4 \)) による情報量や unigram頻度と、その長さの相関を見てみたところ、\( n \)-gram 情報量が強く相関する、ということわかりました。</p>

<!-- 
[Mahowald et al. (2013)](https://www.sciencedirect.com/science/article/abs/pii/S0010027712002107)

[Orita et al., 2015](https://aclanthology.org/P15-1158/) -->

<p>hoge</p>

<!-- https://www.gakushuin.ac.jp/~881791/spm/2017/slides/tanaka.pdf -->
<!-- https://www.ieice-hbkb.org/files/01/01gun_01hen_03.pdf -->

<h2 id="dependency-length-minimization-dlm">Dependency Length Minimization (DLM)</h2>
<p>hoge</p>

<h2 id="memoryprediction-trade-off">Memory–prediction trade-off</h2>
<p>hoge</p>

<h1 id="言語獲得">言語獲得</h1>
<p>確率モデル、というかベイズの定理を利用した言語学・認知科学研究で忘れてはならないのが、言語獲得モデルです（ベイジアンモデリングの解説については、<a href="https://www.sciencedirect.com/science/article/abs/pii/S1364661310001129">Griffiths et al. (2010)</a> や <a href="https://oecs.mit.edu/pub/lwxmte1p/release/2">Griffiths (2024)</a> へ）。</p>

<p>\begin{equation}
  P(h_i\mid d)=\frac{P(d\mid h_i)P(h_i)}{\sum_{h_j\in\mathcal{H}}P(d\mid h_j)P(h_j)}\propto P(d\mid h_i)P(h_i)
\end{equation}</p>

<p>世の中にはベイズの定理に関する解説で満ち満ちているので適当に書きますが、簡単に説明すると、上式は、データ \( d \) を受けたとき、仮説 \( h_i\in\mathcal{H} \) をどれだけ支持するか、という確率 \( P(h_i\mid d) \) は、その仮説 \( h_i \) の事前確率 \( P(h_i) \) と、その仮説 \( h_i \) をもっていたときにデータ \( d \) に出会う尤度（尤もらしさ）\( P(d\mid h_i) \) の積でわかりますよ、ということです。
ここで、仮説が複雑であるほどその事前確率が小さい、とすると、事前確率は仮説の複雑さ、尤度はデータへのfitを表すことになり、まさにこの2つのトレードオフを表している、ということです。</p>

<p>ベイズの定理の嬉しさは、概念上は、生得主義 vs. 経験主義といった二項対立を超えて、言語はどのくらい学習可能か、どのくらいの生得知識 (inductive bias) が必要か、ということを定量的に評価することができる、というところでしょう。
これについて、<a href="https://www.sciencedirect.com/science/article/abs/pii/S1364661306001318">Chater and Manning (2006)</a> で説明があるので、引用して紹介します。</p>

<p>以下、<a href="https://www.sciencedirect.com/science/article/abs/pii/S1364661306001318">Chater and Manning (2006)</a> の p.342より：</p>
<blockquote>
  <p>Oversimplifying somewhat, suppose that a learner wonders whether to include constraint \( C \) in her grammar. \( C \) happens, perhaps coincidentally, to fit all the data so far encountered. If the learner does not assume \( C \), the probability that each sentence will happen to fit \( C \) by chance is \( p \). Thus, each sentence obeying \( C \) is \( 1/p \) times more probable, if the constraint is true than if it is not (if we simply rescale the probability of all sentences obeying the constraint). Thus, after \( n \) sentences, the probability of the corpus, is \( 1/p^n \) greater, if the constraint is included. Yet, a more complex grammar will typically have a lower prior probability. If the ratio of priors for grammars with/without the constraint is greater than \( 1/p^n \), then, by Bayes’ theorem, the constraint is unlearnable in \( n \) items.</p>
</blockquote>

<p>ようは、ある制約 \( C \) が生得知識としてあるべきなのか、それとも学習可能なのかは、制約 \( C \) がある文法（仮に \( G_C \)）と制約 \( C \) がない文法（仮に \( G_{\neg C} \)）の事前確率の比 \( \frac{P(G_C)}{P(G_{\neg C})} \) と尤度比 \( \frac{P(d\mid G_C)}{P(d\mid G_{\neg C})} \) を比べることで、事後分布の比 \( \frac{P(G_C\mid d)}{P(G_{\neg C}\mid d)} \) を比べるのと同じこととなり、制約 \( C \) が学習可能なのかを判定することができる、ということです。</p>

<p>仮に、\( G_{\neg C} \) を想定している人が、偶然にも \( G_{C} \) に整合的な文 \( s_C \) に出会う確率を \( p \) とすると、\( P(s_C\mid G_{\neg C}) = p \) です。
\( P(s_C\mid G_{C}) = 1 \) であるとすると、ある人が \( G_{C} \) に整合的な文に \( n \) 回出会ったとき、それぞれの文法を想定したときの尤度比は、\( \frac{P(s_C\mid G_{C})^n}{P(s_C\mid G_{\neg C})^n} = \frac{1}{p^n} \) です。
このとき、それぞれの文法の事前確率 \( P(G_C) \) と \( P(G_{\neg C}) \) の比が \( \frac{1}{p^n} \) 分離れているのかどうかで、制約 \( c \) が学習可能なのかどうか決まります。
基本的には、制約が一つ多い文法の方が複雑で事前確率がより小さくなっているはずだが、その小さい事前確率をもってもなお尤度により挽回可能なのか、ということです。</p>

<p>多くの場合、言語獲得のベイジアンモデリングをしている人たちは、例えば文法は positive evidence から経験的に学べる、ということを示したからといって、必ずしも経験主義的な主張で終わるわけではなく、どのような事前知識が必要であったか、ということもあで議論することができています。</p>

<!-- ### Xu and Tenenbaum (2007)
hoge

### Perfors et al. (2011)
hoge

### Abend et al. (2017)
hoge

### Yang and Piantadosi (2022)
hoge

### McCoy and Griffiths (2025)
hoge -->

<!-- [Yang (2004)](https://www.sciencedirect.com/science/article/pii/S1364661304002104?via%3Dihub)の頃から指摘されているように、 -->

<h1 id="言語進化">言語進化</h1>

<h2 id="繰り返し学習モデル-iterated-learning-model">繰り返し学習モデル (Iterated Learning Model)</h2>
<p>hoge
<!-- - 文化進化による構成性の出現
    - [Kirby (2017)](https://link.springer.com/article/10.3758/s13423-016-1166-7) --></p>]]></content><author><name>Kohei Kajikawa</name></author><summary type="html"><![CDATA[確率モデル・情報理論を使った心理言語学・計算心理言語学研究について。]]></summary></entry><entry><title type="html">弱文脈依存文法にまつわる理論言語学のはなし</title><link href="https://kohei-kaji.github.io/posts/2024/mcsg/" rel="alternate" type="text/html" title="弱文脈依存文法にまつわる理論言語学のはなし" /><published>2024-03-22T00:00:00+00:00</published><updated>2024-03-22T00:00:00+00:00</updated><id>https://kohei-kaji.github.io/posts/2024/mcsg</id><content type="html" xml:base="https://kohei-kaji.github.io/posts/2024/mcsg/"><![CDATA[<p>自然言語の文法とその生成力に関する話。チョムスキー階層 (Chomsky Hierarchy) や弱文脈依存文法 (Mildly Context-Sensitive Grammars; MCSGs) について、など。</p>

<p>自然言語の形態論・統語論を考えるとき、それらがどの程度「複雑」なのかを考えることは、言語理論を考えるのにも、文産出・理解について考えるのにも、言語獲得について考えるのにも、そして言語進化について考えるのにも極めて重要でしょう。</p>

<p>そして、自然言語の文法の「複雑さ」（以降、適当に「文法」といってしまいます）について、形式言語の世界では「生成力」という概念での整理がなされており、言語学研究としてきちんと扱えると大変嬉しいものだと思います。</p>

<p>というのも、生成力の議論は、何も「自然言語として可能な文字列」について議論したかったから盛んだったわけではなく、人間の瞬時の言語処理をも説明するために不可欠であると、<a href="https://www.amazon.co.jp/Generalized-Phrase-Structure-Grammar-Gerald/dp/0674344561">Gazdar et al. (1985)</a> など、指摘されてきていたはずで、必ずしも「数学者や計算機科学の人たちだけが扱えばいいもの」ではないからです。</p>

<p>もちろん、形式文法における parsing complexity と人間の言語処理における parsing complexity が必ずしも一致していないため、両者がすぐさま接続するわけではないとは思いますが。</p>

<h1><工事中></工事中></h1>

<ul>
  <li><a href="#そもそも生成力とは">そもそも、生成力とは？</a>
    <ul>
      <li><a href="#文脈自由文法-context-free-grammars">文脈自由文法</a>
        <ul>
          <li><a href="#反復補題">反復補題</a></li>
          <li><a href="#他の文法形式との等価性">他の文法形式との等価性</a></li>
        </ul>
      </li>
    </ul>
  </li>
  <li><a href="#自然言語は文脈自由文法で扱えるのか">自然言語は文脈自由文法で扱えるのか？</a>
    <ul>
      <li><a href="#三単現の-s">三単現のs</a></li>
      <li><a href="#Respectively読み">Respectively読み</a></li>
      <li><a href="#extraction--scrambling">Extraction / Scrambling</a></li>
      <li><a href="#cross-serial-dependencies">Cross-serial dependencies</a></li>
      <li><a href="#多重文脈自由文法-multiple-context-free-grammars">多重文脈自由文法 (Multiple Context-Free Grammars)</a></li>
    </ul>
  </li>
  <li><a href="#自然言語は弱文脈依存言語なのか">自然言語は弱文脈依存言語なのか？</a></li>
  <li><a href="#弱文脈依存文法の心理的妥当性">弱文脈依存文法の心理的妥当性</a>
    <ul>
      <li><a href="#弱文脈依存文法による文処理モデリング">弱文脈依存文法による文処理モデリング</a></li>
      <li><a href="#交差依存の処理">交差依存の処理</a></li>
    </ul>
  </li>
  <li><a href="#なぜ自然言語はmcsgレベルなのかという問題は解けうるのか">なぜ自然言語はMCSGレベルなのか、という問題は解けうるのか？</a></li>
</ul>

<h1 id="そもそも生成力とは">そもそも、生成力とは？</h1>
<p>「生成力（generative capacity）」とは、文法の「複雑さ」の概念です。
ここでの複雑さは、その文法が作る（生成する）ことのできる文字列もしくは木構造をもとに測ることができます。
例えば、2つの文法 \( G_1 \) と \( G_2 \) があり、 \( G_1 \) で作ることのできる文字列はすべて \( G_2 \) で作ることができるのならば、 \( G_1 \) より \( G_2 \) の方が複雑だと思えるでしょう。みたいな感じです。
ここで、文字列に関する生成力を「弱生成力 (weak generative capacity)」と、木構造に関する生成力を「強生成力 (strong generative capacity)」と呼びます (<a href="https://www.jstor.org/stable/j.ctt17kk81z">Chomsky, 1965</a>; <a href="https://www.iwanami.co.jp/book/b280256.html">福井・辻子, 2017; 日本語訳</a>)。</p>

<p><strong>弱生成力</strong>は、ある文法が作ることのできる文字列（単語の配列）の集合に関する概念です。
弱生成力が等しいかつ語彙が等しい文法同士では、作ることのできる文字列の集合は完全に一致します。
生成できる文字列の観点での複雑さのクラス分けとして、<a href="https://ja.wikipedia.org/wiki/%E3%83%81%E3%83%A7%E3%83%A0%E3%82%B9%E3%82%AD%E3%83%BC%E9%9A%8E%E5%B1%A4">チョムスキー階層 (Chomsky hierarcy)</a>（下図。図は<a href="https://royalsocietypublishing.org/doi/10.1098/rstb.2012.0077">Jager and Rogers (2012, p.1959)</a>より。）という概念が広く用いられています（<a href="https://ieeexplore.ieee.org/document/1056813">Chomsky (1956)</a>; <a href="https://www.sciencedirect.com/science/article/abs/pii/S0049237X08720238">Chomsky and Schutzenberger (1963)</a>）。</p>

<p><img src="/images/blogfigure/chom_hierarchy.png" alt="png" /></p>

<p>自然言語の弱生成力に関して、詳しくは <a href="https://royalsocietypublishing.org/doi/10.1098/rstb.2012.0077">Jager and Rogers (2012)</a> や <a href="https://timhunter.humspace.ucla.edu/papers/blackwell-chomsky-hierarchy.pdf">Hunter (2020)</a> のレビューを参照ください。
また、計算機科学での言語理論については、<a href="https://www.jstage.jst.go.jp/article/jssst/28/3/28_3_3_61/_pdf">関・鯵坂 (2011)</a> が丁寧な解説をしてくださっています。</p>

<p><strong>強生成力</strong>は、ある文法が作ることのできる木構造の集合に関する概念であり、Chomsky自身は弱生成力ではなく強生成力を研究の対象とするべし、としました (Chomsky, 1965)。
単に単語をどう配列するのか、ということではなく、その背後にある（音や意味と関わる）階層的な構造の研究が大事なはずでしょう、ということです。
ただ、強生成力それ自体に明確な定義があるわけではなく、そのために理論中立的な議論が難しくなっている、というのが現状です。
というか、「構造」を理論中立的にうまく定義できていないので、強生成力の議論は形式的にはあまり行われていません。
一方で、「強生成力」ということばを使ってはいませんが、一応主流生成文法の人たちは現在に至るまで、強生成力に関する研究を志向しているように見えます。
形式的ではないために反証可能性がない議論が多々潜んでいますが。</p>

<p>もちろん、強生成力についての議論はまったくないわけではなく、最近では、CCGs (<u>C</u>ombinatory <u>C</u>ategorial <u>G</u>rammars) と TAGs (<u>T</u>ree <u>A</u>djoining <u>G</u>drammars) が弱生成力だけではなく、強生成力においても等価である、と主張されています (<a href="https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00393/106789/Strong-Equivalence-of-TAG-and-CCG">Schiffer and Maletti, 2021</a>)。
ここで、では CCGs と TAGs に優劣がないのか、となるとそうではなく、仮にこの2つがまったく同一の文字列・構造を生成するとしても、その過程 (derivation step) は異なるので、そこでどちらの方ががより妥当か、という話になります。</p>

<h2 id="文脈自由文法-context-free-grammars">文脈自由文法 (Context-Free Grammars)</h2>
<p>弱文脈依存文法の話に行く前に、比較的単純ながら使い勝手の良い文脈自由文法を見てみましょう。</p>

<p>文脈自由文法とは、\( (\Gamma, \Sigma, S, R) \) の4つ組で定義されます。</p>
<ol>
  <li>\( \Gamma \): 非終端記号の集合</li>
  <li>\( \Sigma \): 終端記号の集合で、\( \Gamma\cap \Sigma=\varnothing \)</li>
  <li>\( \mathit{S}\in \Gamma \): 開始記号</li>
  <li>\( R \): 規則（生成規則）の集合。各規則は、\( \alpha\rightarrow\beta \) の形をとる。
    <ul>
      <li>ここで、\( \alpha\in\Gamma \) は<strong>ちょうど1つ</strong>の非終端記号、\( \beta \) は \( (\Gamma\cup\Sigma)^* \) の任意の列（空列を含む）であり、\( \rightarrow \) は左側の要素から右側の要素への書き換えを意味します。</li>
    </ul>
  </li>
</ol>

<p>急に記号だらけでイメージがつきにくい、という方は、四則演算を思い出してみましょう。
簡単に、\( 0, 1, \dots, 9 \) の整数による足し算は、以下のようにして書くことができます。</p>

<ul>
  <li>\( \Gamma = E \)</li>
  <li>\( \Sigma = \lbrace +, 0, 1, \dots, 9\rbrace \)</li>
  <li>\( E \)</li>
  <li>\( R \):
\begin{align}
  E &amp;\rightarrow E + E \newline
  E &amp;\rightarrow 0 \mid 1 \mid 2 \mid 3 \mid 4 \mid 5 \mid 6 \mid 7 \mid 8 \mid 9
\end{align}</li>
</ul>

<p>この文法により、<code class="language-plaintext highlighter-rouge">1 + 1</code> も <code class="language-plaintext highlighter-rouge">2 + 3 + 4</code> も <code class="language-plaintext highlighter-rouge">8 + 9</code> も書くことができます。<code class="language-plaintext highlighter-rouge">+ 8 9</code> は非文法的な表現ですね。
我々は知らず知らずのうちに文脈自由文法を使っているのです。</p>

<p>「文脈自由」とは、書き換えが非終端記号1つのみに依存し、他の要素から影響を受ける（書き換えに文脈が存在する）というわけではない、という意味です。
例えば、ある文脈自由文法で以下のような導出がされたとすると、\( B \) の書き換えが、\( A \) や \( C \) の状況によって決まる、なんてことはない、ということです。</p>

<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>    A
   / \
  B   C
 / \ / \
d  e f  g
</code></pre></div></div>

<p>もう1つの文脈自由言語の特徴として、これは「文脈自由」であることから当然なのですが、ネストした句・構造のみを作ることができます。
どの句も、（親を除く）他の非終端記号の子供たちをその中に混ぜることはありません。
そのため、文脈自由文法によって導出された文脈自由言語の構造は、かっこ <code class="language-plaintext highlighter-rouge">()</code> を使って書くことができます。
<code class="language-plaintext highlighter-rouge">(3 - (1 + 2))</code> のようにです。</p>

<h3 id="反復補題">反復補題</h3>
<p>ある言語が文脈自由<strong>ではない</strong>ことは、文脈自由文法の反復補題 (Pumping Lemma) を使うことで示すことができます。
「反復」とは、部分文字列の繰り返しのことを指し、反復補題は、あるクラスに属する形式言語ならば、その部分文字列の一部を繰り返しても引き続きそのクラスに属する、といったことを満たす条件を表します。
とくに、文脈自由文法の反復補題は、自然言語の文法が文脈自由文法で書けるのか？という問題に直接関わる、というか、自然言語の文法が文脈自由文法では不十分であることを示すのに使うので、言語学者にとっても無関係ではないものです：</p>

<p>任意の文脈自由言語 \( L \) について、十分に長い文字列 \( w \in L \) は、\( u,v,x,y,z \in \Sigma^* \) （\( \Sigma^* \) は終端記号列の集合を指す）を使って \( w=uvxyz \) と分解でき、このとき、\( |vy|\geq 1 \) と、ある整数 \( p \) について \( |vxy|\leq p \) であり、次を満たす：</p>
<ul>
  <li>任意の \( i\geq 0 \) に対して、\( uv^ixy^iz\in L \)</li>
</ul>

<p>例として、\( L = \lbrace a^nb^nc^n\mid n\geq 0\rbrace \) が文脈自由言語ではないことを、この反復補題を用いて示してみましょう。</p>

<p>まず、言語 \( L = \lbrace a^n b^n c^n \mid n \geq 0\rbrace \) が文脈自由であると仮定してみましょう。
文脈自由言語の反復補題によれば、ある正の整数 \( m \) について、文字列 \( w = a^m b^m c^m \) が、</p>

\[w = uvxyz\]

<p>に分割できるうえ、\( |vy| \geq 1 \) と \( |vxy| \leq m \)、さらに、任意の \( i \geq 0 \) に対して \( uv^i x y^i z \in L \) を満たします。</p>

<p>すると、\( |vxy| \leq m \) より、区間 \( vxy \) としてありえるのはありえるのは、以下の5通りです：</p>
<ul>
  <li>すべて \( a \)</li>
  <li>\( a \) と \( b \) にまたがる</li>
  <li>すべて \( b \)</li>
  <li>\( b \) と \( c \) にまたがる</li>
  <li>すべて \( c \)</li>
</ul>

<p>どの状況でも、\( i \geq 2 \) のとき、\( uv^i x y^i z \) で、\( a,b,c \) の記号の数が等しくなりません。</p>

<p>したがって、\( L \) が文脈自由言語であるという仮定は誤りであり、</p>

\[L = \{a^n b^n c^n \mid n \geq 0\}\]

<p>は<strong>文脈自由ではない</strong>言語であることがわかります。</p>

<h3 id="他の文法形式との等価性">他の文法形式との等価性</h3>
<h4 id="projective-dependency-tree">projective dependency tree</h4>
<p>依存構造木において、依存関係同士が「交差」しないものを ‘‘projective’’ なtreeであるといいます。
文脈自由文法で表現できる依存関係は、projectiveな依存関係にとどまることが知られています。</p>

<h4 id="ab-grammar">AB grammar</h4>
<p>範疇文法 (Categorial Grammar) において、関数適用しかない範疇文法は、文脈自由文法とその弱生成力が等価です。</p>

<h1 id="自然言語は文脈自由文法で扱えるのか">自然言語は文脈自由文法で扱えるのか？</h1>
<p>では、自然言語は、文脈自由文法で表現することはできるのでしょうか。</p>

<h2 id="三単現の-s">三単現の <em>s</em></h2>
<p>まず、文脈自由文法にとって弱点でありそう、と考えられるのは、文脈自由性により「構造依存性 (structure dependence)」を表現できないのではないか？ということです。
構造依存性とは、自然言語の文法は階層的な統語構造に対して適用される、というもので、例えば <em>The walks</em> の <em>s</em> は、主節の主語と動詞をもとに適用されるもので（そして主節の主語・動詞は統語構造からわかるもので）、「一番文頭よりの動詞」のような線形順序に由来するわけではないことは、<em>The man [who played the guitar] walks</em> からわかります。</p>

<p>で、文脈自由文法だと、文脈自由なので、こうした構造上の依存関係を取り扱うのが難しいように思えます。
しかし、何とか解決策はあるもので、それは、例えば「三人称・単数・現在」のような情報を非終端記号に非終端記号に取り込んでしまえばよいのです。</p>

<p>つまり、
\begin{align}
    \mathit{S_{3,s,pres}} &amp;\rightarrow \mathit{NP_{3,s,pres}}\ \mathit{VP_{3,s,pres}} \newline
    \mathit{S_{3,p,pres}} &amp;\rightarrow \mathit{NP_{3,p,pres}}\ \mathit{VP_{3,p,pres}} \newline
    \mathit{NP_{3,s,pres}} &amp;\rightarrow \text{The man} \newline
    \mathit{NP_{3,p,pres}} &amp;\rightarrow \text{The men} \newline
    \mathit{VP_{3,s,pres}} &amp;\rightarrow \text{walks} \newline
    \mathit{VP_{3,p,pres}} &amp;\rightarrow \text{walk}
\end{align}
のようにして、三人称単数現在 \( _\mathit{3,s,pres} \) と三人称複数現在 \( _\mathit{3,p,pres} \) を分けてやれば良いのです。</p>

<p>ただ、これは美しくない解決策です。
というのも、確かに文法的に正しい文を生成することはできるのですが、このような戦略を取り続けると、文法が大きくなりすぎてしまう可能性があります。
文法はまず「すべての文法的な文を正しく記述でき、非文法的な文は排除できるか」という記述的妥当性に関する側面と、さらには「その文法は合理的なサイズをしているのか」という説明的妥当性に関する側面の両方を満たす必要があります。
その点で、文脈自由文法は少なくとも上記の例を見ると、説明的妥当性において疑わしいように思えます。</p>

<p>とはいっても、説明的妥当性は、現状絶対的な評価は難しく、相対的な評価にとどまるので、記述的妥当性のみでは優劣がつかないような文法の候補が複数現れたときにはじめて検討する、というのが望ましいでしょう。
そのため、もっと明確に記述的妥当性の観点のみで文脈自由文法の妥当性が判断できるような例があれば喜ばしいです。</p>

<p>ここで、文脈自由文法がネストした構造を作る、ということを思い出してみると、自然言語に依存構造がネストではなく交差する現象があれば、その構造は文脈自由文法では取り扱えない、ということがわかります。
では、依存構造が交差する状況は自然言語に存在するのでしょうか？</p>

<h2 id="respectively読み">Respectively読み</h2>
<p>依存関係が交差している現象として、<em>respectively</em> を使った文はどうでしょうか。</p>

<p>英語だと、<em>John and Mary walked and ran, respectively</em> という文の意味は、<em>John walkd and Mary ran</em> と同じであり、それぞれ <em>John</em> と <em>walked</em>、<em>Mary</em> と <em>ran</em> の間に意味的な関係があります。
<img src="/images/blogfigure/respectively.png" alt="png" /></p>

<p>日本語でも同様です。
<em>太郎 と 次郎 が それぞれ 走り 散歩した</em> では、「それぞれ」をはさんで、主語と述語の間の意味的な関係が交差しています。</p>

<p>この現象は、比較的身近なものだからか、古くから「自然言語が文脈自由文法では扱えきれない証拠」として有名で、今でもしばしば言及されます。
初出は <a href="https://philpapers.org/rec/BARLAI-6">Bar-Hillel and Shamir (1960)</a> です。
しかしながら、この例は文脈自由文法の非妥当性を主張するのには不十分です。
これは、<a href="https://www.jstor.org/stable/25001071">Pullum and Gazdar (1982, pp.481–485)</a> により指摘されているのですが、彼らの主張は至極単純で、respectively読みは単に<strong>統語</strong>の問題ではなく<strong>意味</strong> やそれ以上の問題でしょう、というものです。</p>

<p>これは、たとえば、
<em>The woman and the men walks and run respectively.</em> は文法的でなく、<em>walk and run</em> としないといけない、ということや、
<em>I met the two students. They are from Tokyo and Seoul respectively.</em> のように、主語述語の数は一致させる必要がない上、その <em>respectively</em> で対応する内容は文脈から推察される、
ということが根拠になります。</p>

<p>依存関係が交差していて、さらにそれは統語的なものである、ということを示さない限り、自然言語の文法が文脈自由では不十分、という主張の根拠にはなりません。</p>

<h2 id="extraction--scrambling">Extraction / Scrambling</h2>
<p>では、英語の extraposition や 日本語やドイツ語の scrambling（かき混ぜ）はどうでしょうか。</p>

<p>Extraposition from NP とは、たとえば
<em>The man walked who played the guitar</em>
のような文で、<em>The man [who …]</em> の <em>who</em> 以下関係節がまるまる文末に行き、間に動詞句 <em>walked</em> が入っている構造です。
ここにさらに <em>yesterday</em> なんてのを文頭に追加してあげると、<em>Yesterday the man walked who played the guitar</em> は交差依存を作ることができます。
<img src="/images/blogfigure/extraposition.png" alt="extraposition" /></p>

<p>Scramblingは、日本語でよくある、
<em>本を花子が買った。</em> のような、名詞句の語順が通常の <em>が–を</em> の語順と入れ替わった状態のものです。
日本語は SOV 語順で、動詞の項はすべて NP1 NP2 NP3 V のように動詞に対して同じ方向の位置に並ぶので、NPの順番を並び替えても依存関係は交差しませんが、NPが節境界を超える長距離かき混ぜ (long-distance scrambling) を考えてみると、交差依存を観察することができます。</p>

<p>例えば、目的語コントロール（のような）動詞と組み合わせて、<em>本を 太郎が 花子に 買うよう 頼んだ</em> とすると、この文は交差依存をもちます。
<img src="/images/blogfigure/scrambling.png" alt="scrambling" /></p>

<p>日本語 Universal Dependencies <a href="https://www.jstage.jst.go.jp/article/jnlp/26/1/26_3/_article/-char/ja/">(浅原ら, 2019)</a> だと、「頼む」は「買う」に対して <code class="language-plaintext highlighter-rouge">ccomp</code> ラベルの関係をもちます。</p>

<p>* コントロールかもしれない、みたいな変な例文を考えずに、素直に、<em>本を_i 太郎は [花子が t_i 買ったと] 思った</em> みたいな例文を考える、というので良かったかもですね。</p>

<p>こうした交差依存は、さすがに統語的な依存関係であるといえるでしょう。
ただ、こうした例では、依存関係が交差はするのですが、高々有限回であり、構文として文脈自由規則に書いておけば何とか対応はできます。
単語を増やして交差数を増やしてみようと頑張っても、英語や日本語ではネストした埋め込みしかできないので、交差を無限に増やすことができません。
<em>[花子が 太郎に [次郎に [三郎に 本を 買うよう 頼むよう] 頼むよう] 頼んだ]</em> のようにネストしてしまい、交差は増えません。</p>

<p>そのため、これらの例もまた、自然言語の非文脈自由性を主張するのには十分ではありません。
例えば extraposition だと、
\begin{align}
    \mathit{S} &amp;\rightarrow \mathit{S}/\mathit{RC}\ \ \mathit{RC} \newline
    \mathit{S}/\mathit{RC} &amp;\rightarrow \mathit{NP}/\mathit{RC}\ \ \mathit{VP}
\end{align}
と、<a href="https://link.springer.com/chapter/10.1007/978-94-009-3401-6_8">Gazdar (1981)</a> や <a href="https://www.amazon.co.jp/Generalized-Phrase-Structure-Grammar-Gerald/dp/0674344561">Gazdar et al. (1985)</a> による Generalized Context-Free Grammar のように、統語的な関係をタグの表現の中に入れてしまえば文脈自由規則のみで扱うことができます。
ここで、\( \mathit{X/Y} \) は「右側に\( \mathit{Y} \) があったら \( \mathit{X} \) になるもの」を表します。</p>

<p><img src="/images/blogfigure/extra_tree.png" alt="gpsg" /></p>

<h2 id="cross-serial-dependencies">Cross-serial dependencies</h2>
<p>ということで、依存関係が統語的に交差してかつ、その交差が連続して無限回繰り返すことのできるするような現象が自然言語にあるのか？ということが問題です。
もったいぶりましたが、紆余曲折を経て、結局文脈自由文法では上手く扱えない「統語的な連続交差依存 (cross-serial dependencies)」が80年代にようやく「発見」されました。</p>

<p>それは、Swiss-German（スイスドイツ語）の従属節中には現れる動詞と対応する項の依存関係です。
<a href="https://link.springer.com/article/10.1007/BF00630917">Shieber (1985)</a> は、これにより自然言語には文脈自由文法では作れない表現が存在することを示しました。
文は <a href="https://link.springer.com/article/10.1007/BF00630917">Shieber (1985)</a> より。</p>

<p><img src="/images/blogfigure/sg.png" alt="png" /></p>

<p>動詞列 \( \mathit{V}_1 \cdots \mathit{V}_n \) が文末に連続し、それぞれの目的語列 \( \mathit{NP}_1 \cdots \mathit{NP}_n \) と依存関係を結びます。
Swiss-German では、名詞句（目的語）に dative や accusative の格表示をするので、依存関係が意味的にだけではなく統語的にも交差している、ということがいえます。</p>

<p>同じ意味の文を日本語で表そうとすると、依存関係は交差せず、入れ子構造になります。
<img src="/images/blogfigure/sgj.png" alt="png" /></p>

<p>そして、Swiss-German の母語話者ではないので正確なところは分かりませんが、動詞部分で <em>let let let … let help help … help paint</em> と繰り返すと、この動詞の数だけ、対応する名詞を連続させることができます。
つまり、\( a^nb^mc^nd^m \) のような部分文字列が作られます。
これはまさに文脈自由文法では扱えない文字列です。</p>

<p>同様の構文はオランダ語でもあり、Shieber 以前にも Huybregts (1976) や <a href="https://link.springer.com/chapter/10.1007/978-94-009-3401-6_11">Bresnan et al. (1982)</a> によって非文脈自由性は主張されていたのですが、オランダ語では、Swiss-German とは違い、対角・与格形態的な格表示がないため、必ずしも統語的な交差依存とは考えられず、項の意味的な選択制限を除けば、可能な文字列自体は文脈自由文法で扱える、と主張されていました (<a href="https://www.jstor.org/stable/25001071">Pullum and Gazdar, 1982, pp.485–490</a>)。</p>

<p>なお、同時期に <a href="https://link.springer.com/article/10.1007/BF00630918">Culy (1985)</a> にて、西アフリカの Bambara を用いて、形態的にも文脈自由文法で表現できない事例が存在すると説明されています。
さらには、Bambara の例は音調的な振る舞いに依存しており、形態論の問題なのか？、という議論があるようで、<a href="https://aclanthology.org/2024.tacl-1.36/">Sanuma and Aizawa (2024)</a> で、アイヌ語にて形態論レベルでのbeyond context-freenessが示されたようです。</p>

<p>また、<a href="https://onlinelibrary.wiley.com/doi/abs/10.1207/s15516709cog2805_4">Stabler (2004)</a> では、英語においても連続交差依存はあると主張されています。
画像は <a href="https://onlinelibrary.wiley.com/doi/abs/10.1207/s15516709cog2805_4">Stabler (2004; p.701)</a> より。</p>

<p><img src="/images/blogfigure/stabler_2004.png" alt="png" /></p>

<p>cross-serial dependencies自体は確かに頻度は多くはないですが (e.g., <a href="https://www.sciencedirect.com/science/article/abs/pii/S0378437117310580?via%3Dihub">Ferrer i Cancho et al., 2018</a>)、存在しないわけではないので、自然言語の文法を文脈自由文法で済ますのは不十分であるといえます。</p>

<h2 id="多重文脈自由文法-multiple-context-free-grammars">多重文脈自由文法 (Multiple Context-Free Grammars)</h2>
<p>自然言語の統語現象を扱うのに文脈自由文法では不十分だとして、ではどうすれば良いのでしょうか。
文脈自由文法を自然に拡張する方法として、多重文脈自由文法 (Multiple Context-Free Grammars; MCFGs; <a href="https://www.sciencedirect.com/science/article/pii/030439759190374B">Seki et al., 1991</a>) が提案されています。
MCFGs は、文脈自由文法では単一の文字列としてしか扱えなかった非終端記号を、複数の文字列を束ねた<strong>タプル</strong>として扱います。</p>

<p>説明のために、新たな記法を導入します。
いま、文脈自由文法で、\( \mathit{NP} \) という非終端記号が最終的に <em>the man</em> という文字列に派生可能であるとき、\( \mathit{NP}(\textit{the man}) \) と書くとします。
ある文字列 \( x, y \) について、\( xy \) を \( x, y \) の結合だとすると、文脈自由規則は</p>

\[\mathit{NP}(xy)\rightarrow \mathit{D}(x) \ \mathit{N}(y)\]

<p>とかけます。</p>

<p>CFGs ではある非終端記号が同時に扱える文字列の数は1つですが、MCFGs ではこれを複数に拡張します：</p>

\[A(x_1,x_2,\cdots,x_k)\rightarrow B(y_1,\cdots,y_n)\ C(z_1,\cdots,z_m)\]

<p><em>The man walked who played the guitar</em> のような extraposition は、以下のようなルールで扱えます：
\begin{align}
  \mathit{S}(xzy)&amp;\rightarrow \mathit{NP}(x,y) \ \mathit{VP}(z) \newline
  \mathit{NP}(x,y)&amp;\rightarrow \mathit{NP}(x) \ \mathit{RC}(y)
\end{align}</p>

<p>MCFGs は、一度に展開できる非終端記号の最大数を <em>rank</em> \( r \)、各非終端記号が同時に扱える文字列の数を <em>dimension</em> \( d \) と呼ぶとすると、
長さ \( n \) 文を \( \mathcal{O}(n^{(r+1)d}) \) のオーダーで認識可能です。
つまり、上記のような extraposition を簡潔に扱えるようなものだと、\( r = 2, d = 2\) となり \( \mathcal{O}(n^6) \) で、Chomsky標準系の CFGs だと \( r = 2, d = 1\) となり \( \mathcal{O}(n^3) \) です。</p>

<p>MCFGs のちゃんとした定義や議論の解説については、<a href="https://www.jstage.jst.go.jp/article/jssst/28/3/28_3_3_61/_pdf">関・鯵坂 (2011)</a> や <a href="https://alexc17.github.io/static/pdfs/mcfgsforlinguists.pdf">Clark (2014)</a> を参照ください。</p>

<h1 id="自然言語は弱文脈依存言語なのか">自然言語は弱文脈依存言語なのか？</h1>
<p>これまでで、自然言語の統語現象を扱うのに文脈自由文法以上の生成力のクラスの文法が必要であることがわかりましたが、では、自然言語の文法はどのクラスに位置するのでしょう。</p>

<p><a href="https://www.cambridge.org/core/books/abs/natural-language-parsing/tree-adjoining-grammars-how-much-contextsensitivity-is-required-to-provide-reasonable-structural-descriptions/81BFD6DAC6B0CB24A3042A06E964F2E1">Joshi (1985)</a> は、自然言語の文法は文脈自由以上、文脈依存以下の<strong>弱文脈依存 (mildly context sensitive)</strong> クラスに位置する、という仮説を提示しました。</p>

<p>なお、自然言語の文法が弱文脈依存文法（Mildly Context-Sensitive Grammars; MCSGs）であるということは明確に示されているわけではありませんが、少なくとも以下の2つの事実から、「自然言語の文法は弱文脈依存文法である」という言説には一定の合意が得られています。
そのため、しばしば弱文脈依存仮説（MCS Hypothesis）などとも呼ばれています。</p>

<h2 id="1-文脈自由文法では表現できない構文が自然言語に存在する">1. 文脈自由文法では表現できない構文が自然言語に存在する。</h2>
<p>これは、Swiss-German での cross-serial dependencies の議論により示されました。
自然言語を扱うのに必要な文法の lower bound が文脈自由文法ではない、ということがわかっています。</p>

<h2 id="2-数多くの独立に提案された文法理論が弱文脈依存文法である">2. 数多くの（独立に提案された）文法理論が、弱文脈依存文法である。</h2>
<p><a href="https://www.sciencedirect.com/science/article/pii/S0022000075800195">Joshi et al. (1975)</a> による Tree Adjoining Grammar（TAG; 木接合文法）をはじめ、多くの文法理論が、特に80-90年代にかけて、計算・数理言語学の分野で提案されましたが、そのほとんどが最終的に文脈自由文法と文脈依存文法の間にいることが示されました。
これは、多くの計算・数理言語学者の間である種の「合意」がとれた状況とも言えるでしょう。</p>

<p>これについては、<a href="https://academic.oup.com/book/26119/chapter-abstract/194151165?redirectedFrom=fulltext">Stabler (2013)</a> にてわかりやすくレビューされていますので、少々長いですが引用して提示しておきます。</p>

<!-- <details> -->
<!-- <summary>Stabler (2013); p.4より</summary> -->
<blockquote>
  <p>In particular, a very significant computational consensus was identified by Joshi (1985) in his hypothesis that human languages are both strongly and weakly mildly context sensitive (MCS). While any empirical test of this hypothesis still depends on a network of theoretical assumptions, the claim is so fundamental that it can be connected to many diverse traditions in grammar. To say that language is ‘‘strongly and weakly’’ MCS is to say that MCS grammars can both define the sentences of human languages (weak adequacy) and also provide the structures of those languages (strong adequacy). Joshi’s original definition of MCS grammars was partly informal, so there are now various precise versions of his claim. One is that human languages are defined by tree adjoining grammars (TAGs) or closely related grammars, and another theoretically weaker (and hence empirically stronger) position is that human language are definable by the more expressive (set local) multi-component TAGs or closely related grammars. The most remarkable thing about this claim came out of the innocent-sounding phrase ‘‘or closely related grammars,’’ because it was discovered that a wide range of independently proposed grammar formalisms falls under that description. In particular, a series of papers beginning in the 1980’s and 1990’s established the following inclusion relations among the languages defined by various kinds of grammars, across traditions:
CFG ⊂ CCG = TAG ⊂ MCTAG = ACG = MCFG = MG ⊂ CSG
<!-- </details> --></p>
</blockquote>

<p>上記引用にて、</p>
<ul>
  <li>CFGはContext-Free Grammar（文脈自由文法）</li>
  <li>CCGはCombinatory Categorial Grammar（組合せ範疇文法）(<a href="https://link.springer.com/article/10.1007/BF00360804">Ades and Steedman, 1982</a>; <a href="https://mitpress.mit.edu/9780262691932/surface-structure-and-interpretation/">Steedman, 1996</a>)</li>
  <li>TAGはTree Adjoining Grammar（木接合文法）(<a href="https://www.sciencedirect.com/science/article/pii/S0022000075800195">Joshi et al., 1975</a>)</li>
  <li>MCTAGはMulti-Component Tree Adjoining Grammar (<a href="https://benjamins.com/catalog/z.35.07jos">Joshi, 1987</a>)</li>
  <li>ACGはAbstract Categorial Grammar (<a href="https://aclanthology.org/P01-1033/">de Groote, 2001</a>)</li>
  <li>MCFGはMultiple Context Free Grammar（多重文脈自由文法）(<a href="https://www.sciencedirect.com/science/article/pii/030439759190374B">Seki et al., 1991</a>)
    <ul>
      <li>MCFGは Linear Context Free Rewriting System (LCFRS; <a href="https://dl.acm.org/doi/10.3115/981175.981190">Vijay-Shanker et al., 1987</a>) と同一。</li>
    </ul>
  </li>
  <li>MGはMinimalist Grammar (<a href="https://link.springer.com/chapter/10.1007/BFb0052152">Stabler, 1997</a>; <a href="https://academic.oup.com/edited-volume/38634/chapter/335332383">Stabler, 2011</a>）</li>
  <li>CSGはContext Sensitive Grammar（文脈依存文法）</li>
</ul>

<p>を指します。</p>

<p>また、このほかにも、</p>
<ul>
  <li>Head Grammar (HG; <a href="https://cir.nii.ac.jp/crid/1571698599593629312">Pollard, 1984</a>)</li>
  <li>Linear Indexed Grammar (LIG; <a href="https://link.springer.com/chapter/10.1007/978-94-009-1337-0_3">Gazdar, 1988</a>)</li>
</ul>

<p>も、弱文脈依存文法の仲間であることが示されています (<a href="https://link.springer.com/article/10.1007/BF01191624">Vijay-Shanker and Weir, 1994</a>)。</p>

<p>ただ、ここで面白いのは、弱文脈依存文法は一枚岩ではなく、上記の <a href="https://academic.oup.com/book/26119/chapter-abstract/194151165?redirectedFrom=fulltext">Stabler (2013)</a> の引用の最後の関係式で表されているように、2つのクラスに分類できます。
具体的に、CCG, TAG, LIG, HGと、MCTAG, ACG, MCFG, LCFRS, MGです（MGにも複数の亜種があります）。</p>

<p>その後の議論については、たとえば <a href="https://aclanthology.org/2021.cl-1.2/">Stanojevic and Steedman (2020)</a> や <a href="https://benjamins.com/catalog/elt.00033.fra">Frank and Hunter (2021)</a> なども。
どういった文字列や構造を生成できるのか、というところだけでなく、どういった順序でその構造を派生するのか、といったところが議論になっています。</p>

<p>もちろん、各文法理論内でも、「どのような操作を仮定するか」で揺れはあるので、上記の関係が必ずしも成り立つとは限りません。たとえばCCGは、slash-typingを導入することで（＝組合せ規則の適用に制限をかけることで）、TAGよりも弱生成力が低くなることも示されています (<a href="https://direct.mit.edu/coli/article/41/2/215/1507/Lexicalization-and-Generative-Power-in-CCG">Kuhlmann et al., 2015</a>)。</p>

<p>また、Head-driven Phrase Structure Grammar (HPSG; <a href="https://press.uchicago.edu/ucp/books/book/chicago/H/bo3618318.html">Pollard and Sag, 1994</a>) やType Logical Grammar (TLG; <a href="https://plato.stanford.edu/entries/typelogical-grammar/">適切な引用がわからないのでSEPへ</a>) のような、チューリング完全な文法理論もあります。</p>

<h1 id="弱文脈依存文法の心理的妥当性">弱文脈依存文法の心理的妥当性</h1>
<h2 id="弱文脈依存文法による文処理モデリング">弱文脈依存文法による文処理モデリング</h2>
<p>上記のような議論ほど有名ではありませんが、最近では、計算心理言語学の分野においても、弱文脈依存文法の文脈自由文法に対する優位性は主張されています。
たとえば、<a href="https://www.sciencedirect.com/science/article/abs/pii/S0093934X15300687">Brennan et al. (2016)</a> や <a href="https://academic.oup.com/book/34998/chapter-abstract/298696095?redirectedFrom=fulltext">Li and Hale (2019)</a> は MG と CFG を比較して、<a href="https://onlinelibrary.wiley.com/doi/10.1111/cogs.13312">Stanojevic et al. (2023)</a> は CCG と CFG を比較して、それぞれ MCSGs である MG, CCG の方が、CFG よりも適切に、人が物語を聞いている間の<a href="https://bsd.neuroinf.jp/wiki/%E6%A9%9F%E8%83%BD%E7%9A%84%E7%A3%81%E6%B0%97%E5%85%B1%E9%B3%B4%E7%94%BB%E5%83%8F%E6%B3%95#BOLD%E4%BF%A1%E5%8F%B7%E3%81%AE%E7%99%BA%E8%A6%8B">BOLD信号（Blood Oxygen Level Dependent signals; 脳活動を反映した信号）</a>を予測できることを示しました。</p>

<p>もちろん、<a href="https://www.annualreviews.org/content/journals/10.1146/annurev-linguistics-051421-020803">Hale et al. (2022)</a> で指摘されているように、こうした結果は必ずしも MCSGs が <em>uniquely the right theory of human grammar</em> (<a href="https://www.annualreviews.org/content/journals/10.1146/annurev-linguistics-051421-020803">Hale et al., 2022; p.12</a>) であるということを意味しているわけではありませんが、MCSGs が、人間の文処理に関して、CFGs では説明できていないところを説明できているのは確かです。</p>

<p>とはいっても、これらの研究だけで「やっぱり文処理において MCSGs クラスの文法を使っているのだ！」と信じるのは多分良くなくて、というのも、人間が文処理において必ずしも常に正確に parsing をしているとも限らない上、同時に複数の文法を使っている可能性もあります。
たとえば、日本語の助動詞の連続だけなら正規文法で記述できるなど、部分部分では必ずしも複雑な文法は必要がない、とか、フレーズや構文は毎度 parse しているのではなく、記憶して使っている、みたいなこともあるでしょう。</p>

<p>また、MCSGs と CFGs の比較などは、基本的には言語現象をもとに議論できるもので、文処理研究において MCSGs を意識することで面白くなるのは、「脳の部位によって異なる文法を異なるタイミングで使っているのか」といった脳内の処理の過程を細かくみる、という研究や、extraposition や scrambling, cross-serial dependencies といった現象の処理がどのようにして行われているのか、という現象を限定した研究においてでしょう。</p>

<h2 id="交差依存の処理">交差依存の処理</h2>
<ul>
  <li><a href="https://www.tandfonline.com/doi/abs/10.1080/01690968608404677">Bach et al. (1986)</a></li>
  <li><a href="https://www.sciencedirect.com/science/article/abs/pii/S0010027711002010">Levy et al. (2012)</a></li>
  <li><a href="https://escholarship.org/uc/item/5w04m7v2">Yadav et al. (2025)</a></li>
</ul>

<h1 id="なぜ自然言語はmcsgレベルなのかという問題は解けうるのか">なぜ自然言語はMCSGレベルなのか、という問題は解けうるのか？</h1>
<!-- 自然言語の文法はおそらくは MCSGs のレベルに位置するのだろう、ということが分かったとして、どうして CSGs や CFGs ではなく、MCSGs のレベルなのか、ということについては説明が可能なのでしょうか。

memory limitationは重要。memory limitationを想定しないcompetenceレベルでの区分について、processingの観点から何か語ることはできるのか？


cross-serialは必ずしも処理が難しいとは限らない [(Bach et al., 1986)](https://www.tandfonline.com/doi/abs/10.1080/01690968608404677) という事実、non-projectivityは処理のしやすさである程度説明できるかもしれないが、すべてではない、というモデリング研究の進展 [(Yadav et al., 2022)](https://aclanthology.org/2022.cl-2.5/) を見ると、もっと使用の観点から文法の複雑さについて考えないといけないよなぁとか、そもそもここでの「文法の複雑さ」はどれだけ意味のある見方なのかなぁなんて思うときはあります。

というのも、生成力は「最悪のケース」に関する議論である一方、人間の逐次的な処理における「複雑さ」は人間の記憶や予測における平均的な認知負荷を捉えており、長距離依存などはある程度複雑な文法による解析が必要ですが、たとえば日本語の助動詞などは正規言語でも解析可能である、という事実を考えると、自然言語の文法に関する議論を必ずしも最悪のケースから考えないでもいいよな、もっと平均的な処理負荷の観点から再検討すべきだよな、とは直感的に考えています（といったことは、[『自然言語処理』の学会記事](https://www.jstage.jst.go.jp/article/jnlp/32/1/32_372/_article/-char/ja/) にもちょっと書きました）。
そういう意味で、認知のベイジアンモデリング (Bayesian modeling of cognition) や、情報理論によるコミュニケーションのモデル化における合理性 (rationality) に魅力を感じています。
ので、博士課程ではゆっくり時間をかけて考えながら取り組んでみたいな、とは（現時点では）考えています。 -->

<!-- ## Treebank
また、正規言語で自然言語を語るのはさすがに厳しそうに思われますが、文脈自由文法は実際に自然言語の記述に広く使われています。
例えば、[Penn Treebank](https://catalog.ldc.upenn.edu/LDC99T42) ([Marcus et al., 1993](https://aclanthology.org/J93-2004/)) はまさに文脈自由文法によるアノテーションであり、多言語に拡張されているところを見る限り、（実用上）大きな問題は生じていないようです。
同様に、[Universal Dependencies (UD)](https://universaldependencies.org/) ([Nirve et al., 2020](https://aclanthology.org/2020.lrec-1.497/)) においても、（依存関係が交差していない木をprojective、交差している木をnon-projectiveというのですが、）他言語においてもほとんどの木がprojectiveであると報告されています。つまり、UDコーパスのほとんどは文脈自由文法で記述できているということです。 -->]]></content><author><name>Kohei Kajikawa</name></author><summary type="html"><![CDATA[自然言語の文法とその生成力に関する話。チョムスキー階層 (Chomsky Hierarchy) や弱文脈依存文法 (Mildly Context-Sensitive Grammars; MCSGs) について、など。]]></summary></entry><entry><title type="html">CCGについて</title><link href="https://kohei-kaji.github.io/posts/2023/ccg/" rel="alternate" type="text/html" title="CCGについて" /><published>2023-01-12T00:00:00+00:00</published><updated>2023-01-12T00:00:00+00:00</updated><id>https://kohei-kaji.github.io/posts/2023/ccg</id><content type="html" xml:base="https://kohei-kaji.github.io/posts/2023/ccg/"><![CDATA[<p>CCG（<u>C</u>ombinatory <u>C</u>ategorial <u>G</u>rammar; 組合せ範疇文法）に関する文献案内・parser案内など。</p>

<!-- 生成文法理論の１つであるCCG（組合せ範疇文法）を、私は文法理論としても、そして文処理のモデリングの道具としても非常に有用なものであると考えていますが、残念ながら（分野によっては）人口に膾炙しているとは言い難い状況ですので、CCGの広まりを願い、ここに文献リストや参照したら良いであろう情報を記します。 -->

<h1 id="2分でわかるccg">2分でわかるCCG</h1>

<ul>
  <li>各単語・句には category（範疇）が割り当てられる。
    <ul>
      <li>Category には atomic なものと complex なものがある。
        <ul>
          <li>Complex category は、category と 2種類の slash ( \( / \), \( \backslash \) ) で構成される。</li>
          <li>\( X/Y \) は、\( Y \) を右側にとったら \( X \) になるもの。</li>
          <li>\( X\backslash Y \) は、 \( Y \) を左側にとったら \( X \) になるもの。</li>
          <li>slash の右側 ( \( Y \) ) が項、左側 ( \( X \) ) がその項をとった結果。</li>
          <li>slash の向きが、項をとる位置を指定する。</li>
        </ul>
      </li>
      <li>形式的に書くと、category の集合を \( \mathcal{C} \) としたとき、
        <ul>
          <li>\( \mathcal{A}\subseteq\mathcal{C} \) となる atomic category の集合 \( \mathcal{A} \) がある</li>
          <li>任意の category \( X, Y\in\mathcal{C} \) について、 \( X/Y, X\backslash Y\in\mathcal{C} \)</li>
        </ul>
      </li>
      <li>例えば、atomic なものとして NP（名詞句） と S（文） を想定すると、英語の自動詞は、S\NP。他動詞は (S\NP)/NP。
        <ul>
          <li><em>He ran</em> の <em>ran</em> は、左側に NP をとったら S になるので、S\NP。</li>
          <li><em>He ran a hotel</em> の <em>ran</em> は、右側に NP を、そしてさらに左側に NP をとったら S になるので、(S\NP)/NP。</li>
        </ul>
      </li>
      <li>slash は left-associative（左側結合）なので、\( X/Y/Z \) と \( (X/Y)/Z \) は同じ。</li>
    </ul>
  </li>
  <li>各 category に再帰的に combinatory rule（組合せ規則）を適用し、統語構造を構成する。
    <ul>
      <li>Function Application（関数適用）:
  \begin{array}{lll}
  \mathit{X/Y} \quad \mathit{Y} &amp; \Longrightarrow_{&gt;} &amp; \mathit{X} \newline
  \mathit{Y} \quad\;\; \mathit{X\backslash Y} &amp; \Longrightarrow_{&lt;} &amp; \mathit{X}
  \end{array}</li>
      <li>Function Composition（関数合成）:
  \begin{array}{lll}
  \mathit{X/Y} \quad \mathit{Y/Z} &amp; \Longrightarrow_{&gt;\mathbf{B}} &amp; \mathit{X/Z} \newline
  \mathit{Y\backslash Z} \quad \mathit{X\backslash Y} &amp; \Longrightarrow_{&lt;\mathbf{B}} &amp; \mathit{X\backslash Z}
  \end{array}</li>
      <li>Type Raising（型繰り上げ）:
  \begin{array}{lll}
  \mathit{X} &amp; \Longrightarrow_{&gt;\mathbf{T}} &amp; \mathit{T/(T\backslash X)} \newline
  \mathit{X} &amp; \Longrightarrow_{&lt;\mathbf{T}} &amp; \mathit{T\backslash (T/X)}
  \end{array}</li>
      <li>代表的な combinatory rule は、上記の3つ。
        <ul>
          <li>\( \Longrightarrow \) の左側のものが右側のものになる、ということを表している。</li>
          <li>\( \Longrightarrow \) の右下の記号が、その rule を表す。
            <ul>
              <li>\( \mathbf{B} \) や \( \mathbf{T} \) のようなアルファベットは、コンビネータ論理のコンビネータ由来。</li>
              <li><a href="https://homepages.inf.ed.ac.uk/steedman/papers/ccg/Steedman1987_Article_CombinatoryGrammarsAndParasiti-1.pdf">Steedman (1987)</a> 以前は別の記法ですが、<a href="https://aclanthology.org/P91-1010/">Steedman (1991)</a> 以降は現在のものになっています。</li>
            </ul>
          </li>
          <li>ここでは省略しますが、各 rule には意味計算もついています。そのため、CCGでは、「単語・句に統語 category を割り当てることができる \( \iff \) 意味表示を割り当てることができる」、が成り立ちます。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>木構造は範疇文法の慣習から、証明図を使って書く。
    <ul>
      <li>バーの上のものが下のものに書き換えられています。
<img src="/images/blogfigure/ccg.png" alt="ccg" /></li>
    </ul>
  </li>
</ul>

<h1 id="文献案内">文献案内</h1>

<h2 id="さらっと雰囲気を掴みたい場合">さらっと雰囲気を掴みたい場合</h2>
<ul>
  <li><a href="https://web.stanford.edu/~jurafsky/slp3/E.pdf">Jurafsky and Martin (to appear)</a>
    <ul>
      <li>自然言語処理の教科書として有名なDan Jurafsky氏とJames Martin氏による <a href="https://web.stanford.edu/~jurafsky/slp3/">Speech and Language Processing</a> のDraftのAppendixの１つ。</li>
      <li>最低限の組合せ規則と、CCGによるチャートパーザが簡潔に説明されている。</li>
      <li>言語学の方でも、前半だけ読むと、CCGにどういう文法操作があるのか・どういう構造を作るのか何となく掴みやすいのではないか。</li>
    </ul>
  </li>
  <li><a href="https://homepages.inf.ed.ac.uk/steedman/papers/ccg/moravcsik2.pdf">Steedman (2022)</a>
    <ul>
      <li>Mark Steedman氏による、網羅的なCCGの解説論文。本をギュッと圧縮したイメージ。</li>
      <li>CCG分析で特徴的な構文や関連トピックについて最低限の紙幅で説明されてる。</li>
      <li>私ははじめ、これと、ここで引用されている文献を行き来して勉強した。</li>
    </ul>
  </li>
  <li><a href="https://arxiv.org/abs/2109.10044">Clark (2021, arXiv)</a>
    <ul>
      <li><a href="https://aclanthology.org/J07-4004/">C&amp;C parser</a>のStephen Clark氏によるCCGのparsingに関する論文。</li>
      <li>後半部分は当時最新のCCG parser作りに関する話だが、前半は、CCGの理論やCCGのparsingの概説・歴史解説として読める。</li>
    </ul>
  </li>
</ul>

<h2 id="理論言語学関係">理論言語学関係</h2>
<ul>
  <li>統語・意味の理論としてのCCGを理解したい場合に参照すべき文献たちです。</li>
  <li>その他、CCGには音韻の理論としての顔もありますが、そのあたりは詳しくないので含めていません。<a href="https://mitpress.mit.edu/9780262692687/the-syntactic-process/">Steedman (2000)</a> などを参照してください。</li>
  <li><a href="https://mitpress.mit.edu/9780262691932/surface-structure-and-interpretation/">Steedman (1996)</a>
    <ul>
      <li>CCG本の最初。</li>
      <li>LI Monographsで100ページ強。</li>
      <li>CCGで、英語を網羅的に記述できることを示すべく書かれたもの。</li>
    </ul>
  </li>
  <li><a href="https://mitpress.mit.edu/9780262692687/the-syntactic-process/">Steedman (2000)</a>
    <ul>
      <li>Steedman (1996) の強化版。</li>
      <li>若干の理論的改訂あり。</li>
      <li>Google Scholarでは出版年が誤って2001となっており、ちらほら Steedman (2001) として論文中に登場してしまう。</li>
    </ul>
  </li>
  <li><a href="https://era.ed.ac.uk/handle/1842/562">Baldridge (2002)</a>
    <ul>
      <li>Jason Baldridge氏による博論。</li>
      <li>slash typingを導入し、言語理論としてのCCGを大きく進化させた。
        <ul>
          <li>slash type については、<a href="https://aclanthology.org/E03-1036/">Baldridge and Kruijff (2003; EACL)</a>も参照。</li>
        </ul>
      </li>
      <li>Steedman (2000) までと違い、等位接続を文法規則 ではなくconjunctのカテゴリ X\X/X で導出。</li>
      <li>博論なので、解説としても有用。</li>
    </ul>
  </li>
  <li><a href="https://www.9640.jp/book_view/?468">戸次 (2010)</a>
    <ul>
      <li>日本語CCG本。</li>
      <li>日本語文法の論文としても面白い。
        <ul>
          <li>特に活用体系や、量化子周りの話。</li>
        </ul>
      </li>
      <li><a href="https://www.jstage.jst.go.jp/article/nihongonokenkyu/7/3/7_KJ00007729621/_pdf/-char/ja">書評 (矢田部, 2011)</a> も面白い。</li>
    </ul>
  </li>
  <li><a href="https://onlinelibrary.wiley.com/doi/10.1002/9781444395037.ch5">Steedman and Baldridge (2011)</a>
    <ul>
      <li>非常に簡潔にまとまったCCGの解説論文。</li>
      <li>そのため、Steedman (1996)や(2000)と並んでしばしば引用されている。</li>
      <li>（CCGを引用したいくらいなら、本を読むのは大変なので、こちらを読んで引用した方が良さそう。）</li>
      <li>Non-Transformational Syntaxという本の1チャプター。
        <ul>
          <li>この本はほかの章も良い。Sag and Wasowの章が好き。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li><a href="https://direct.mit.edu/ling/article-abstract/doi/10.1162/ling_a_00521/117700/On-Internal-Merge?redirectedFrom=PDF">Steedman (2023)</a>
    <ul>
      <li>ほとんどミニマリストに向けて書いてあるLIの論文。
        <ul>
          <li>ミニマリストの理論を踏まえ、「CCGならもっと簡潔に書けますよ」と主張したもの。著者の穏健な姿勢が窺える。</li>
        </ul>
      </li>
      <li>ミニマリストがCCGをはじめる際には一番わかりやすいと思われる（自分がミニマリストではないのでわからないが）。</li>
    </ul>
  </li>
  <li><a href="https://homepages.inf.ed.ac.uk/steedman/papers/ccg/book2DRAFT160622.pdf">Steedman (to appear)</a>
    <ul>
      <li>Mark Steedman氏によるCCG本のドラフト。</li>
    </ul>
  </li>
</ul>

<h2 id="機械の文処理関係">機械の文処理関係</h2>
<ul>
  <li>ここでの機械の文処理とは、文を入力とし、確率的に計算した構文木を返してくれる構文解析器等のことです。</li>
  <li><a href="https://aclanthology.org/J07-4004/">Clark and Curran (2007; CL)</a>
    <ul>
      <li><a href="https://web.archive.org/web/20160318193242/http://svn.ask.it.usyd.edu.au/trac/candc">C&amp;C parser</a>として有名。</li>
      <li>CCGbankを使った最初のwide-coverage parser。</li>
      <li>いまだに現役だったりする。Supertaggerの評価用としてよく見る。
        <ul>
          <li>Supertagとは、CCG含め、lexicalized theory of grammarの語彙範疇のこと。</li>
          <li>通常のPOS tagよりも情報が豊富なので、supertagと呼ばれる。
            <ul>
              <li>例えば、英語において、動詞原形はPenn TreebankスタイルのPOSだと VB だが、CCGのsupertagだと、S/NP や S\NP/NP などと表す。Supertagの方が、項の数やその相対位置の情報を含む。</li>
            </ul>
          </li>
          <li>単語列（＝文）に対して、対応するsupertag列が決まれば、ほとんど文の構造は決まるので、supertagging は ‘‘almost parsing’’ であるとも言われている <a href="https://aclanthology.org/J99-2004/">(Bangalore and Joshi, 1999; CL)</a>。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/J07-3004/">Hockenmaier and Steedman (2007; CL)</a>
    <ul>
      <li>英語CCGbank。
        <ul>
          <li>空白なし小文字b</li>
        </ul>
      </li>
      <li>Penn Treebank (Wall Street Journal) からの自動変換。　</li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/D14-1107/">Lewis and Steedman (2014; EMNLP)</a>
    <ul>
      <li><a href="https://github.com/mikelewis0/easyccg">EasyCCG</a> として有名。</li>
      <li>深層学習 + A* search。</li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/P13-1103/">Uematsu et al. (2013; ACL)</a>
    <ul>
      <li>日本語CCGBank。
        <ul>
          <li>空白なし大文字B</li>
        </ul>
      </li>
      <li>係り受けコーパスである京都大学テキストコーパス（毎日新聞）からの自動変換。</li>
      <li>日本語CCGBankの続きとしては、以下のようなものがあります。
        <ul>
          <li><a href="https://aclanthology.org/2020.lrec-1.639/">Kubota et al. (2020; LREC)</a> による <a href="https://github.com/ABCTreebank/ABCTreebank">ABCTreebank</a>
            <ul>
              <li><a href="http://www.compling.jp/keyaki/index.html">The Keyaki Treebank</a> からの自動変換</li>
            </ul>
          </li>
          <li><a href="https://aclanthology.org/2024.eacl-srw.14/">Tomita et al. (2024; EACL)</a>
            <ul>
              <li><a href="https://github.com/ABCTreebank/ABCTreebank">ABCTreebank</a> と <a href="https://github.com/DaisukeBekki/lightblue">lightblue</a> による日本語CCGBankの再構築</li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/P16-4018/">Noji and Miyao (2016; ACL)</a>
    <ul>
      <li>日本語CCG parserの <a href="https://github.com/mynlp/jigg">Jigg</a>。</li>
    </ul>
  </li>
  <li><a href="https://aclweb.org/anthology/P/P16/P16-4015/">Martinez-Gomez et al. (2016; ACL)</a>
    <ul>
      <li>意味解析システムの <a href="https://github.com/mynlp/ccg2lambda">ccg2lambda</a>。</li>
    </ul>
  </li>
  <li><a href="https://link.springer.com/chapter/10.1007/978-3-662-53826-5_4">Bekki and Kawazoe (2016; LNTCS)</a>
    <ul>
      <li>日本語CCG parserの <a href="https://github.com/DaisukeBekki/lightblue">lightblue</a>。</li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/P17-1026/">Yoshikawa et al. (2017; ACL)</a>
    <ul>
      <li>日本語CCG parserの <a href="https://github.com/masashi-y/depccg">depccg</a>。</li>
    </ul>
  </li>
</ul>

<h2 id="人間の文処理関係">人間の文処理関係</h2>
<ul>
  <li><a href="https://link.springer.com/article/10.1007/BF00360804">Ades and Steedman (1982; Linguist Philos)</a>
    <ul>
      <li>一番最初のCCG論文。</li>
      <li>当初より逐次的な文処理を意図して作っていることが明確で良い。</li>
      <li>notationは今とところどころ異なる。</li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/W12-4623/">Demberg (2012; TAG+)</a>
    <ul>
      <li>CCGの逐次的な構造構築に関して、統語論・心理言語学の知見から（否定的に）述べられている。</li>
      <li>CCGではfull incremental parseができない（英語の目的語関係節）。
        <ul>
          <li>full incremental parseを実現しようとDコンビネータを導入すると過剰生成する、という指摘。</li>
        </ul>
      </li>
    </ul>
  </li>
  <li><a href="https://onlinelibrary.wiley.com/doi/abs/10.1111/cogs.13312">Stanojevic et al. (2023; Cognitive Science)</a>
    <ul>
      <li>CCGによる、英語文処理（fMRIによる<a href="https://bsd.neuroinf.jp/wiki/%E6%A9%9F%E8%83%BD%E7%9A%84%E7%A3%81%E6%B0%97%E5%85%B1%E9%B3%B4%E7%94%BB%E5%83%8F%E6%B3%95#BOLD%E4%BF%A1%E5%8F%B7%E3%81%AE%E7%99%BA%E8%A6%8B">BOLD信号</a>）のモデリング。</li>
      <li>貢献は大きく分けて2つ。
        <ol>
          <li>CCGが、CFG（文脈自由文法）よりもより高い精度でBOLD信号を予測できることを示した。言語理論としてより妥当なCCGが、逐次的な文処理のモデル化においても優れていることを示した。</li>
          <li>CCGの構造構築操作由来の予測子と、LLMで算出したsurprisal（文処理における強力な予測子）とは別にBOLD信号の予測に効いた。</li>
        </ol>
      </li>
    </ul>
  </li>
  <li><a href="http://kohei-kaji.github.io/github-pages/publication/kajikawa-etal-2024-cogsci/">Kajikawa et al. (2024; CogSci)</a>
    <ul>
      <li>日本語と英語の視線計測データで、CCG内の理論的に異なる文法操作が、それぞれ心理的にも異なるものとして使われていることを示唆。</li>
    </ul>
  </li>
  <li><a href="https://www.sciencedirect.com/science/article/pii/S0010027724000520?dgcid=author">Isono (2024; Cognition)</a>
    <ul>
      <li>文を逐次的に理解する際に起こる、短期記憶に由来する処理負荷を、CCGの木構造ベースで説明したもの。</li>
      <li>貢献・面白い点は、短期記憶由来の処理負荷は、今まで簡単な文脈自由文法（記述力は妥当ではない）や依存文法（単語間関係の記述は優れているが、逐次的に構造がどう構築されるかは不明瞭）でしかなかったが、それをCCG (記述力が妥当かつ、構造構築過程も明確) に発展させたこと。
        <ul>
          <li>個人的に、CCGの良さは、単に「competence grammarのままでprocessingのことをちゃんと語れそうな理論」、ということだけではなく、「いろいろなことができすぎない理論」だと思っています。具体的に、ここでは、構成素同士の合成にちゃんと制限があって、必ずしも何でも組合せられるわけではないが（つまり、単語が順に入ってきたとき、毎度毎度その単語をすでに作っている構成素に統合できるとは限らない）、この論文では、その組合せられないポイントを証拠に人間の文処理が説明できることが経験的に示されています。</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h2 id="生成力関係">生成力関係</h2>
<ul>
  <li><a href="https://link.springer.com/article/10.1007/BF01191624">Vijay-Shanker and Weir (1994; Math. Systems Theory)</a>
    <ul>
      <li>CCGの弱生成力が、Linear-Indexed Grammar (LIG), Head Grammar (HG), Tree-Adjoining Grammar (TAG) と等価であることを示した。</li>
    </ul>
  </li>
  <li><a href="https://direct.mit.edu/coli/article/41/2/215/1507/Lexicalization-and-Generative-Power-in-CCG">Kuhlmann et al. (2015; CL)</a>
    <ul>
      <li><a href="https://link.springer.com/article/10.1007/BF01191624">Vijay-Shanker and Weir (1994)</a> のときに想定されていたCCGではなく、slash-typeを導入したCCGにて、TAGと弱生成力が等価であることを示した。</li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/2021.tacl-1.43/">Schiffer and Maletti (2021; TACL)</a>
    <ul>
      <li>CCGの強生成力が、TAGと等価だと主張。</li>
    </ul>
  </li>
</ul>

<h2 id="標準形関係">標準形関係</h2>
<ul>
  <li>CCGでは、同じ意味を複数の異なる統語構造で表現することができます（spurious ambiguity; 擬似的曖昧性）。このおかげで、逐次的な合成による構造構築が可能なのですが、構造的曖昧性がなくとも構文木が一意に定まらないということなので、parserを作る上では問題になると考えられていました。
    <ul>
      <li>実際には、学習データのbranchingが一貫していれば、標準形の制約なしでも擬似的曖昧性の問題にはぶつからないようです。<a href="https://aclanthology.org/P17-1026/">Yoshikawa et al. (2017; ACL)</a> や <a href="https://www.jstage.jst.go.jp/article/jnlp/26/1/26_83/_article/-char/ja/">Yoshikawa et al. (2019; 自然言語処理)</a> を参照ください。</li>
      <li>（形式的な研究においては、昔から「避けるべきもの」とされてきていますが、逐次的な文処理という観点からは、むしろ「望ましいもの」でさえある気はしています。直観です。）</li>
    </ul>
  </li>
  <li>標準形の定義により、（構造的曖昧性がないとき）統語構造を１つに絞ることができます。</li>
  <li><a href="https://aclanthology.org/P96-1011/">Eisner (1996; ACL)</a>
    <ul>
      <li><a href="https://www.cs.jhu.edu/~jason/papers/eisner.acl96-proof.html">証明に関する情報</a></li>
      <li>可能な限り関数合成（function composition）を行わないという制限により、right-branchingな標準形を定義。</li>
      <li>もちろん、逆の制限にすれば、left-branchingを標準形とすることもできる。</li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/P08-1038/">Hoyt and Baldridge (2008; ACL)</a>
    <ul>
      <li>Dコンビネータの導入と、それを含めた標準形の定義。</li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/C10-1053/">Hockenmaier and Bisk (2010; COLING)</a>
    <ul>
      <li><a href="https://aclanthology.org/P96-1011/">Eisner (1996; ACL)</a> の拡張。</li>
      <li>generalized compositionとgrammatical type-raisingを考慮した拡張。</li>
    </ul>
  </li>
</ul>

<h2 id="言語獲得モデリング">言語獲得モデリング</h2>
<ul>
  <li><a href="https://web.stanford.edu/~ngoodman/papers/pp826-piantadosi.pdf">Piantadosi et al. (2008; Proc. CogSci)</a>
    <ul>
      <li>Bayesian model 1</li>
    </ul>
  </li>
  <li><a href="https://aclanthology.org/E12-1024/">Kwiatkowski et al. (2012, EACL)</a>
    <ul>
      <li>Bayesian model 2</li>
    </ul>
  </li>
  <li><a href="https://www.sciencedirect.com/science/article/abs/pii/S0010027717300495">Abend et al. (2017, Cognition)</a>
    <ul>
      <li>Bayesian model 3</li>
    </ul>
  </li>
</ul>

<h1 id="ccg-parserを触ってみよう">CCG parserを触ってみよう！</h1>
<ul>
  <li>CCGは、他の文法理論に比べ、高精度な構文解析器（parser）が数おおく整備されている、という点で非常に有用です。
    <ul>
      <li>semantic parsingに適度に使いやすいといったことや、ツリーバンクの整備が早かった、という点が要因な気がしています（C&amp;C parser が出た頃の2000年代の雰囲気を知らないので妄想です）。</li>
    </ul>
  </li>
  <li>特に、下記のparserたちは動かすのにそこまで難易度が高くないのでおすすめです。</li>
  <li>そもそも構文解析器とはなんぞやという方へ。
    <ul>
      <li><a href="https://www.coronasha.co.jp/np/isbn/9784339027594/">構文解析</a></li>
      <li><a href="https://www.ohmsha.co.jp/book/9784274229008/">自然言語処理の基礎</a></li>
      <li><a href="https://web.stanford.edu/~jurafsky/slp3/">Speech and Language Processing (3rd ed. draft)</a>
        <ul>
          <li>17章の <a href="https://web.stanford.edu/~jurafsky/slp3/17.pdf">Context-Free Grammars and Constituency Parsing</a> や、18章の <a href="https://web.stanford.edu/~jurafsky/slp3/18.pdf">Dependency Parsing</a> あたり。</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h2 id="depccg"><a href="https://github.com/masashi-y/depccg">depccg</a></h2>
<ul>
  <li>Pythonによる英日CCG parser。</li>
  <li>Python@3.6以上、gcc@4.8以上が必要。</li>
  <li><del>READMEが丁寧なので、基本そのまま従えば動かせる。</del>
    <ul>
      <li>1点だけ、<code class="language-plaintext highlighter-rouge">depccg_{en/ja} download</code>コマンドはうまくいかないので、モデルの学習済みパラメータはリンク先のGoogle Driveから直接落としてこないといけない。</li>
    </ul>
  </li>
  <li>os によっては AllenNLP がローカルで動かせない（本当に動かせないのかわからないが、私は解決できなかった）。
    <ul>
      <li>2019年のmacbook (Retina) では動かせていたのだが、2023年以降のものではことごとく失敗。</li>
      <li>Dockerを使えば良い。</li>
    </ul>
  </li>
</ul>

<h2 id="lightblue"><a href="https://github.com/DaisukeBekki/lightblue">lightblue</a></h2>
<ul>
  <li>Haskellによる日本語CCG parser。</li>
  <li>Macユーザーなら、tidyは（おそらく）初めから入っているし、JUMAN++はHomebrew経由で入れられる。</li>
  <li><a href="https://www.9640.jp/book_view/?468">戸次 (2010)</a> +アルファがそのまま実装されているので、語彙項目を参照するのに使い勝手が良い。</li>
</ul>

<h2 id="ccgtools"><a href="https://github.com/stanojevic/ccgtools">ccgtools</a></h2>
<ul>
  <li>Python, Cythonによる英中CCG parser。</li>
  <li>高性能。元State-of-the-Art。</li>
  <li>作成者であるMilos Stanojevic氏は、Scalaで <a href="https://github.com/stanojevic/Rotating-CCG">Rotating-CCG</a> というparserも作っている。論文は <a href="https://aclanthology.org/N19-1020/">Stanojevic and Steedman (2019; NAACL)</a>。</li>
  <li>Google Colab上で動かせるようにしてくれているので、環境構築の必要がなく非常に便利。
    <ul>
      <li>pre-trained modelのパラメータをダウンロードさえしておけば、ローカルで動かすことができる。</li>
    </ul>
  </li>
</ul>

<h1 id="ccgの導出木をlatexでかく">CCGの導出木をLaTeXでかく</h1>

<h2 id="ccgsty"><a href="https://github.com/jasonbaldridge/cg-latex">ccg.sty</a></h2>
<ul>
  <li>Jason Baldridge氏によるスタイルファイル。</li>
  <li>その他、CTL, 証明木用のスタイルファイルも公開してくれている。</li>
  <li>使い方：
    <ul>
      <li><code class="language-plaintext highlighter-rouge">ccg.sty</code>をTeXファイルと同じディレクトリにおき、以下のようにする：
        <div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>  \documentclass[border=2mm]{standalone}
  \usepackage{amsmath}
  \usepackage{ccg}
  \begin{document}
  \deriv{3}{
  \text{Taro} &amp; \text{likes} &amp; \text{Hanako} \\
  \uline{1} &amp; \uline{1} &amp; \uline{1} \\
  \mathit{NP} &amp; \mathit{S\bs NP/NP} &amp; \mathit{NP} \\
  &amp; \fapply{2} \\
  &amp; \mc{2}{\mathit{S\bs NP}} \\
  \bapply{3} \\
  \mc{3}{\mathit{S}}
  }
  \end{document}
</code></pre></div>        </div>
      </li>
      <li>
        <p>すると↓こんなのができます：
  <img src="/images/blogfigure/ccg.png" alt="ccg" /></p>
      </li>
      <li>導出木のサイズを変えるのには、<code class="language-plaintext highlighter-rouge">\deriv{hoge}{fuga}</code>の前にたとえば<code class="language-plaintext highlighter-rouge">\scriptsize\deriv{hoge}{fuga}</code>のようにする。</li>
      <li><code class="language-plaintext highlighter-rouge">linguex</code>パッケージで文番号をつける：
        <div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>  \ex.\label{hoge-label}
  \deriv{hoge}{fuga}
</code></pre></div>        </div>
      </li>
      <li><code class="language-plaintext highlighter-rouge">ulem</code>パッケージ（下線とか打ち消し線を挿入する用のパッケージ）を入れると、ccg.sty内の<code class="language-plaintext highlighter-rouge">\uline{}</code>が衝突してしまう。
        <ul>
          <li>コマンドの名前が一致していなければ良いだけなので、ccg.styに<code class="language-plaintext highlighter-rouge">\newcommand{\ulines}[1]{\ul{#1}}</code>などと追加して、<code class="language-plaintext highlighter-rouge">\deriv</code>内では<code class="language-plaintext highlighter-rouge">\ul{}</code>を使うようにすれば良い。</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h2 id="ccg-latexsty"><a href="https://github.com/bozsahin/ccg-latex">ccg-latex.sty</a></h2>
<ul>
  <li>Cem Bozsahin氏によるスタイルファイル。</li>
  <li>上述のccg.styよりも充実していそうに思われる。少なくとも、READMEやexampleは充実している。更新も割と頻繁にしているよう。</li>
  <li>
    <p>個人的には、<code class="language-plaintext highlighter-rouge">ccg.sty</code>で困っていないので使っていないが、いつか乗り換えてみたいなぁとは思っています。なんだかこだわりを感じるので。</p>
  </li>
  <li>そのほか、証明図を書く <a href="https://ctan.org/pkg/bussproofs"><code class="language-plaintext highlighter-rouge">bussproofs</code></a> を使う、というのもあります。</li>
</ul>]]></content><author><name>Kohei Kajikawa</name></author><summary type="html"><![CDATA[CCG（Combinatory Categorial Grammar; 組合せ範疇文法）に関する文献案内・parser案内など。]]></summary></entry></feed>