感覚的直観は知識を正当化せず、言語化されることによって信念を正当化しうるという Rorty の主張は、モーダルデータを言語的表象に変換し、それを言語モデルに噛ませることによって次の行動を推論する Inner Monologue のアーキテクチャに類似している
感覚的直観は知識を正当化せず、言語化されることによって信念を正当化しうるという Rorty の主張は、モーダルデータを言語的表象に変換し、それを言語モデルに噛ませることによって次の行動を推論する Inner Monologue のアーキテクチャに類似している
深層学習モデルを含む現代の人工知能は感情を欠いており、人工知能に関する擬人観(anthropomorphism)は倫理的に悪い帰結をもたらすおそれがある。しかし人工知能が特定の心的能力や意思を持つことはないと主張していないことに注意する必要がある。
Placani, Adriana (2024). Anthropomorphism in AI: Hype and Fallacy. AI and Ethics.
認識論的徳からトップダウンに知識を定義する徳認識論において、人工知能などの非人間的存在の「知識」を「知識」と言えるのかという疑問がある。たとえばSosaのAAA構造による知識の定義を採るならば、その非人間的存在にも認識的な能力と信念保持能力を認める必要があるが、非人間的存在がこれらを保持できるかどうかは明らかではない。それに加えて、AAA構造は知識の価値をその定義に組み込むことによって、学習物理学等の人工知能科学における知識を説明出来なくなるおそれがある。ある信念が知識であるために信念を生む主体の徳が必要であるならば、徳を持つとは考えにくい深層学習モデルの出力する文(信念?)は知識でなくなるだろう。
#epistemology #philosophy_of_AI #AI_scientist #open_question
言語モデルは確率分布の列 \( (p(y_1), \dots, p(y_n)) \) を返すと定式化できる。これは、ブランダムが指摘するような規則主義でも傾向性主義でもない。数学的に定式化しよう。規則主義はコーパスデータそのものである。傾向性主義は、統計的言語モデルやマルコフモデルにおける確率分布である。
Lam, N. Explanations in AI as Claims of Tacit Knowledge. Minds & Machines 32, 135–158 (2022). https://doi.org/10.1007/s11023-021-09588-1
暗黙知と説明可能なAIをつなげたもので良かった。深層学習モデルにおける暗黙知は、局所性への還元主義と一体なのかもしれない。
パターン認識においては、\(d\) 次元上では線形分離不可能な点群は \(d+1\) 次元上で線形分離可能になる場合がある(カーネルトリック)。また、過度な最適化はスラック変数で抑えられる(ソフトマージン)。さらに、多クラスSVMは計算量が遥かに大きい。これらは認識論に対して何を示唆するのだろうか。
Mallory, Fintan (2023). Fictionalism about Chatbots. Ergo: An Open Access Journal of Philosophy 10.