AIが話す時代に、「ことばを理解する」とは何なのか?

この記事の読みどころ
  • ことばは情報を運ぶ道具だけでなく、私たちが世界を作り出す場所だと論文は言います。
  • ことばは身体と時間の中で生まれ、曖昧さや沈黙も意味を生むとされます。
  • AI言語技術の3つの基準として、表現の開放性・関係の深さと説明責任・歴史性と政治性への自覚が挙げられます。

ことばは「伝える道具」だけではない、という違和感から

AIが文章を作れるようになって、私たちは毎日のように「ことば」を見ています。要約、返信、企画案、相談文。便利で、速くて、しかもそれっぽい。けれど、ときどき引っかかります。

たしかに意味は通るのに、なぜか「通っただけ」に感じる。読めたのに、届かなかった気がする。あるいは、こちらが言い直したくなる。そういう小さな違和感です。

今回の論文は、その違和感を「性能」や「正確さ」の話ではなく、「ことばとは何か」という根っこの問いから考え直そうとします。研究を行ったのは、ボローニャ大学(University of Bologna)の研究者です。論文は、現象学(phenomenology)という哲学の立場から、現代の大規模言語モデル(LLM)を含む言語AIを見つめ直しています。


この論文が言う「ことばのモデル化」の前提

論文の出発点は、いまのAIが「ことばをモデル化する」とき、暗黙に置いている前提です。

それは、ことばを「記号の集まり」として捉え、規則に従って並び、情報を伝え、予測できるものだとみなす発想です。うまくパターンを掴めるほど、ことばの本質に近づいている、と感じやすい見方でもあります。

しかし現象学は、別の出発点を提案します。ことばはまず、情報の運搬ではなく、私たちが世界に住み、世界を立ち上げる仕方そのものだ、という見方です。つまり、ことばは「外に出す包装」ではなく、意味が生まれてくる場所だ、という立場です。

ここで論文は、二人の哲学者を軸にします。メルロ=ポンティ(Merleau-Ponty)とハイデガー(Heidegger)です。どちらも、当時の技術的潮流(サイバネティクスや言語の形式化など)に触れながら、ことばが「道具」へと縮んでいく危険を見ていました。論文は、その視点を現代のAIへ接続します。


メルロ=ポンティ:ことばは身体から立ち上がる

メルロ=ポンティの重要点として、論文はこう整理します。

私たちは、頭の中で完成した考えがあって、それを後から言葉に翻訳しているのではない。むしろ、話すことの中で考えが形になる。ことばは思考の「印」ではなく、思考が起こる「場所」だ、ということです。

この視点では、ことばは「音+意味」の単純な対応表ではありません。声の調子、間、身ぶり、リズム、言いよどみ、言い換え。そうしたものが、意味を運んでいるだけでなく、意味を作ってもいます。論文は、身体としての生(Leib)に結びついた言語のあり方を強調します。

このとき、ことばの「論理」は、きれいに晴れた透明な論理ではなく、どこか曇りを含む論理だ、と論文は述べます。曖昧さや余白は欠陥ではなく、新しい意味が生まれる条件でもある。ことばが生きている限り、完全に固定されない、という感覚です。

さらに論文は、ソシュール(Saussure)の区別も援用します。共同体にある比較的安定した仕組み(langue)と、その場その場の発話(parole)の区別です。これを踏まえて、論文は「話された言語」と「話しつつある言語」の違いに触れます。すでに固まった言い回しがある一方で、いまこの瞬間に言い出して、少し世界を作り直すような話し方もある。

ここで出てくるのが、この論文の中心語の一つ、「ことばの統一(unity of language)」です。


「ことばの統一」とは、全部が同じになることではない

「統一」と聞くと、ひとつの普遍言語のようなものを想像するかもしれません。けれど論文が言う統一は、均一化ではありません。

自然言語、論理記号、プログラミング言語、詩的なことば。これらはバラバラの島ではなく、同じ「表現の力」から歴史的に派生し、沈殿し、変形してきたものだ、と論文は述べます。

統一とは、「違いを消した一つ」ではなく、「違いを通り抜けながら続いていく一つ」です。ことばは、固定された体系というより、「表現できる可能性の場」そのものであり、その場が歴史の中で伸びたり縮んだりする。論文はそう描きます。

この見方を置くと、AIが扱うことばも、この大きな場の中に位置づけられます。ただし、その位置づけ方に注意が必要だ、というのが次の議論です。


ハイデガー:技術が世界の見え方を「枠づけ」る

ハイデガーに関して、論文が強調するのは「技術は単なる道具ではなく、世界の現れ方を組織する」という視点です。技術が進むと、物事が「計算できる資源」として見えやすくなる。秩序立て、最適化し、管理する対象として現れてくる。

そしてこの傾向は、ことばにも及びます。ことばがサイバネティクス的に理解されると、ことばは情報の流れ、つまり信号の系列として扱われるようになる。人と機械の間を行き来する「情報チャネル」へと姿を変える。

ここで論文は、ハイデガーの「役に立たなさ(usefulnessの反転)」に関する議論を紹介します。最適化の視点から見ると、問い続けること、意味を問うことは「役に立たない」。しかし、その「役に立たなさ」こそが、そもそも「役に立つ」という語が意味を持つために必要だ、というのです。

言い換えると、効率だけでことばを測ると、「問い」がやせ細りやすい。問いがやせると、私たちが何をしているのか、何のために話しているのか、意味の地盤が弱くなる。論文はそこに警戒を向けます。


LLMは「論理式」から離れたのに、なぜ同じ問題が起きるのか

近年のAIは、昔のように明示的な論理ルールでことばを扱うのではなく、巨大なデータから「次のトークンを予測する」学習で性能を上げてきました。論文は、この変化を踏まえつつも、問題が消えたわけではない、と述べます。

理由は、ことばが依然として「最適化可能なパターンの空間」として枠づけられているからです。仕組みが記号的でも統計的でも、目標が「損失関数」「ベンチマーク」「関与(エンゲージメント)」などの指標に置かれると、ことばは「うまく当てる対象」になりやすい。

そのとき危険なのは、「ことばとはそもそも最適化されるものだ」という理解が、社会の標準になってしまうことです。論文は、ことばが「共有された世界を開く営み」から、「信号の貯水池」に見えてしまうリスクを指摘します。


「身体化AI」と「生きられた身体」の違い

論文は、近年の潮流として、身体性を重視するAI研究(4E認知:Embodied / Embedded / Enactive / Extended、あるいはエナクティブAI enactive AI)にも触れます。知能は身体と環境の相互作用から生まれる、という考えです。

ただし論文は、ここで区別を入れます。

機械の身体(Körper)は、設計目的のために組み立てられ、評価指標の中で動きます。人間の身体(Leib)は、傷つきやすさ、感情、死すべきこと、他者への曝露といった、機能仕様をはみ出す性質を持つ。たとえセンサーや運動を備えていても、そこが同じとは限らない。

論文が言いたいのは「身体をつければ解決」ではなく、AIがどんな目的の下で配置され、どんな社会技術的な構成の中で、私たちの意味づけを作り替えていくのか、という問いです。


倫理の焦点は「間違い」だけではなく、「呼びかけ」の形が変わること

論文の倫理の議論で印象的なのは、「誤情報」や「偏り」だけに話を閉じないところです。もっと手前の、会話そのものの経験がどう変わるかを問題にします。

ここで論文は、レヴィナス(Levinas)の区別を紹介します。「言われたこと(the said)」と「言うこと(the saying)」です。前者は内容として記録できる部分、後者は他者への呼びかけとしての行為です。倫理的な重みは、内容以上に、呼びかけと応答の関係にある、と論文は示唆します。

もし私たちの主要な会話相手が、「一貫性」「満足度」「滞在時間」などで最適化されたシステムになったら、ことばはその指標に沿うものとして期待されやすくなる。すると、他者の不可解さ、引っかかり、摩擦、沈黙、言い直しといったものが、見えにくくなるかもしれない。

論文が懸念するのは、派手な崩壊ではなく、静かな侵食です。「誰かに呼びかけられる」経験が、摩耗していくことです。


論文が提案する「ことばの技術」の3つの基準

論文は最後に、現象学的な観点から、言語技術の設計と統治に関する基準を3つ挙げます。ここは、理念というより、設計の方向性の提案として書かれています。

1) 表現の開放性(expressive openness)

ことばの可能性の空間を閉じないこと。具体的には、不確かさを隠して全知を演じないこと、曖昧さを常に単一解へ潰さないこと、利用者が介入し、異議を唱え、修正できる余地を確保すること。目的は「精度を下げる」ではなく、「成功=予測最適化」だけにしないことです。

2) 関係の深さと説明責任(relational depth and accountability)

個人の満足度だけではなく、技術が人と人の関係をどう形づくるかで評価すること。背後の責任主体が見えること、異議申し立ての道があること、聞くこと・説明すること・食い違うことを支えること。摩擦を消して「滑らかな交換」だけにしない、という方向です。

3) 記号の歴史性と政治性への自覚(historical and political awareness)

学習データが、ある歴史の中の包含と排除を含むことを自覚すること。多様性を支え、支配的規範を強化しないこと。モデル出力を「どこにも属さない中立的視点」として物象化しないこと。ことばは歴史の中で沈殿している、という立場です。


この論文の限界も、論文自身が正直に書いている

この論文は、実験やユーザー調査を提示するタイプの研究ではありません。論文自身も、これは概念的な議論であり、具体的なシステムや利用実態の経験的分析は今後の課題だと述べています。扱う思想家や議論も限定的で、AIアーキテクチャの記述も意図的に概略に留めています。

ただ、それでもこの論文が価値を持つのは、「ことば」をめぐる議論が、つい性能・効率・安全性の枠の中で完結しがちなところに、別の軸を入れるからです。つまり、「ことばが生きている」という感覚を、技術の話に戻してくる。


「アルゴリズムの背後にある詩」とは、AIを擬人化することではない

論文の結びは、印象的です。「アルゴリズムの背後に詩がある」と言っても、それは機械に抒情的主体性を与えることではない、と論文は念を押します。

そうではなく、どんな計算的処理も、そもそも生きた表現の力を前提にしている。だから、その力を完全に最適化で消し去ることはできない。ここに気づくことが、AI倫理を「管理の話」だけにしないための手がかりになる、というのです。

ことばは、効率化されるほどに、なめらかになります。なめらかになるほどに、私たちは「問い」を忘れやすい。けれど同時に、なめらかさの中にも、言い直しや沈黙や、うまく言えなさが残る限り、ことばはまだ生きている。

AIがことばの環境になる時代に、その「残り方」をどう守り、どう育てるのか。論文は結論を閉じず、そこに読者を立たせます。私たちは、便利さを手放さずに、問いを手放さずにいられるのか。そこから先は、読者それぞれの生活の言葉で、考え続けることになるのだと思います。

(出典:AI and Ethics DOI: 10.1007/s43681-025-00948-6

テキストのコピーはできません。